viernes, 4 julio, 2025
7.2 C
Rawson

La Inteligencia Artificial ya está erosionando la democracia en distintas partes del mundo

NUEVA YORK.- En los últimos dos años, desde la explosión de la inteligencia artificial generativa (IAg), esa tecnología fue utilizada por la política para degradar o difamar a los adversarios, y según los expertos y funcionarios ahora ha empezado a tener impacto directo en los resultados de las elecciones.

Las herramientas de la IA, fáciles y simples de usar, permitieron generar una catarata de fotos y videos falsos de candidatos o militantes diciendo cosas que nunca dijeron o mostrándose en lugares donde nunca habían estado, todo difundido con la relativa impunidad del anonimato en línea.

La tecnología aumentó las divisiones sociales y la polarización partidaria y fortaleció un sentimiento antigubernamental, sobre todo en la extrema derecha, que creció mucho en las últimas elecciones en Alemania, Polonia y Portugal.

En Rumania, una operación de injerencia rusa que empleó la IA logró empañar la primera vuelta de la elección presidencial del año pasado, según funcionarios del gobierno. Un tribunal anuló el resultado y convocó a nuevas elecciones para el mes pasado, que llegaron en medio de una nueva ola de noticias falsas. Fue la primera vez en que la IA jugó un papel decisivo en el resultado de una elección importante, y es muy probable que no sea la última.

Partidarios de Calin Georgescu, ganador de la primera vuelta de las elecciones presidenciales rumanas, sostienen sus retratos y corean consignas frente a la sede del gobierno en Bucarest, Rumania, el lunes 10 de febrero de 2025. Vadim Ghirda� – AP�

Según expertos y funcionarios, los avances en esa tecnología socavan la confianza en la integridad del proceso electoral y degrada el consenso político necesario para que las sociedades democráticas funcionen.

Para Madalina Botan, profesora en la Universidad Nacional de Estudios Políticos y Administración Pública de Bucarest, la capital rumana, es indudable que la IA generativa “ya se utiliza con objetivos claramente malintencionados” para manipular a los votantes.

“La mecánica es tan sofisticada que lograron crear contenidos que se viralizan casi instantáneamente”, dice Botan. “No hay manera de combatirla.”

En la inusual seguidilla de elecciones que se concentraron a lo largo de 2024, la IA fue utilizada en más del 80% de las votaciones, según el Panel Internacional sobre el Entorno de la Información, una organización independiente de científicos con sede en Suiza.

A partir de declaraciones oficiales y boletines informativos, el Panel documentó 215 casos de IA usada en elecciones durante 2024. Y este año la IA ya operó en otras por lo menos nueve grandes elecciones, desde Canadá hasta Australia.

No todos los usos de la IA son maliciosos. En el 25% de los casos sondeados por el panel, los candidatos utilizaron la IA para sí mismos, por ejemplo, para traducir discursos y plataformas a dialectos locales o para identificar y contactar a bloques de votantes.

El video falso generado con IA, salido de las cuentas de LLA, en el que Macri llama a votar por Adorni

En la India, la práctica de los “candidatos clonados” se ha vuelto un lugar común, “y no solo para llegar a los votantes, sino también para motivar a los militantes del partido”, según un estudio del Centro para la Participación en los Medios de Comunicación de la Universidad de Texas en Austin.

Durante la campaña presidencial, Trump dijo que los inmigrantes ilegales comían animales callejeros y comenzó una campaña con imágenes hechas con Inteligencia ArtificialUser – https://www.instagram.com/realdonaldtrump/

Al mismo tiempo, sin embargo, decenas de deepfakes —fotografías o videos que recrean de manera casi indistinguible a personas reales— utilizaron la IA para clonar la voz de candidatos o de los canales de noticias. Según el sondeo del Panel Internacional sobre el Entorno de la Información, en el 69% de los casos la IA cumplió un rol calificado como “nocivo”.

Y en las elecciones presidenciales del año pasado en Estados Unidos hubo tantos ejemplos malintencionados que hubo advertencias públicas de funcionarios del FBI, de la Agencia de Ciberseguridad y Seguridad de las Infraestructuras, y de la Oficina del Director de Inteligencia Nacional.

Desde el regreso de Trump al poder, las agencias desmantelaron los equipos a cargo de esas tareas.

“En 2024, el potencial beneficioso de esas tecnologías fue ampliamente eclipsado por su uso dañino y malintencionado”, apunta Kristina Trauthig, profesora en la Universidad Internacional de Florida, quien dirigió el sondeo del panel internacional.

Los usos más engañosos de la IA se dieron en países autocráticos que intentan interferir en elecciones extrajeras, como Rusia, China e Irán. La tecnología les permitió aumentar el apoyo a candidatos afines a su cosmovisión o simplemente desacreditar al sistema democrático en sí, mostrándolo como un sistema político fallido o ineficiente.

Antes de las elecciones presidenciales del mes pasado en Polonia, donde hay muchos refugiados ucranianos, Rusia lanzó una campaña destinada a fogonear sentimiento anti-Ucrania, con videos falsos que sugerían que los ucranianos estaban planificando atentados para generar caos durante la votación.

Un hombre se prepara para votar durante las elecciones parlamentarias en Varsovia, PoloniaMichal Dyjuk – AP

Hasta hace poco, la injerencia de una potencia extranjera en las elecciones de otro país era una operación costosa y difícil, que dependía de granjas de trolls que generaban cuentas y contenidos en las redes sociales, y que con frecuencia utilizaban un lenguaje poco natural, con usos incorrectos de las palabras y confusión en las referencias culturales.

Ahora, con la IA se puede interferir en el extranjero a una escala y con una velocidad que eran inimaginables cuando la principal fuente de noticias políticas eran los diarios y los medios de comunicación.

Saman Nazari, investigador de Alliance 4 Europe, una organización que estudia las amenazas digitales a la democracia, apunta que las elecciones de este año en Alemania y Polonia demostraron por primera vez la eficacia de la tecnología para las campañas políticas internacionales y nacionales.

En el futuro la IA tendrá un impacto significativo en la democracia”, asegura Nazari.

Con los avances tecnológicos de las herramientas comerciales disponibles —como el creador de imágenes Midjourney y el nuevo generador de audio y video de Google, Veo—, es cada vez más difícil distinguir entre lo inventado y lo real, sobre todo de un solo vistazo.

Grok, el bot conversacional y generador de imágenes desarrollado por Elon Musk, reproduce de inmediato imágenes de figuras populares, incluidos políticos.

Imagen realizada por la inteligencia artificial de Elon Musk, Grok, de Trump abrazando a PutinGrok

Esas herramientas cada vez más sofisticadas complicaron los esfuerzos de gobiernos, empresas e investigadores para identificar y rastrear las falsas campañas.

Antes de la IA, “había que elegir entre escala o calidad —la calidad se lograba con granjas de trolls humanos, y la escala con bots que pudieran generar eso, pero eran intervenciones de menor calidad”, dice Isabelle Frances-Wright, directora de tecnología y sociedad del Instituto para el Diálogo Estratégico. “Ahora tienen las dos cosas a la vez, y ese es un territorio desconocido y aterrador”.

Las principales redes sociales —incluidas X, Facebook, YouTube y TikTok—, tienen políticas que rigen el uso malicioso de la IA, y tomaron medidas en muchos casos relacionados con elecciones. Sin embargo, al mismo tiempo esas plataformas son operadas por empresas con un interés particular en cualquier contenido que mantenga conectados a los usuarios, dicen los investigadores, y agregan que las plataformas deberían ser más activas para restringir contenidos dañinos o engañosos.

En las elecciones de la India, por ejemplo, la plataforma de Meta tenía muy poco contenido de IA marcado con un deslinde de responsabilidades, como exige la empresa, según el estudio del Centro para la Participación en los Medios de Comunicación. Meta no respondió a la solicitud de comentarios.

Las empresas líderes de productos de IA generativa (IAg) también cuentan con políticas contra las manipulaciones y usos dañinos.

En 2024, OpenAI desbarató cinco operaciones de interferencia dirigidas a votantes en Ruanda, Estados Unidos, la India, Ghana y la Unión Europea (UE) durante las campañas para elecciones parlamentarias, según informes de la compañía.

Y este mes la empresa informó haber detectado una operación de injerencia rusa que utilizó ChatGPT durante las elecciones de febrero en Alemania. En un caso, fue a partir de la creación xe una cuenta bot en X que acumuló 27.000 seguidores y publicó contenido en apoyo al partido de extrema derecha Alternativa para Alemania (AfD). El partido, antes considerado marginal, ascendió al segundo puesto y duplicó sus escaños en el Parlamento alemán.

Alice Weidel, colíder de Alternativa para Alemania (AfD), habla durante la fiesta del partido en la sede del partido en Berlín, Alemania, el 23 de febrero de 2025. Soeren Stache – Pool DPA

El caso más disruptivo ocurrió en las elecciones presidenciales de Rumanía a finales del año pasado. En la primera vuelta de las elecciones de noviembre, Calin Georgescu, un casi ignoto candidato de extrema derecha, se impuso con fuerza gracias a una operación encubierta rusa que, entre otras cosas, hizo una campaña falsa en TikTok.

Pero surgieron voces críticas, como el vicepresidente norteamericano J.D. Vance y el megamillonario Elon Musk, que denunciaron como “antidemocrática” la posterior decisión de un tribunal rumano de anular la elección. “Si tu democracia no resiste unos pocos cientos de miles de dólares en publicidad digital de un país extranjero, entonces no era muy sólida de arranque”, declaró Vance en febrero.

El tribunal ordenó la celebración de nuevas elecciones el mes pasado. A Georgescu, que enfrentaba una investigación penal, se le prohibió presentarse de nuevo, lo que allanó el camino al poder a otro candidato nacionalista, George Simion. Según investigadores del Observatorio Búlgaro-Rumano de Medios Digitales, durante ese nuevo proceso electoral también surgió una oleada similar de contenido manipulado, incluido el video falso donde aparecía Trump criticando a los líderes actuales del país. Nicusor Dan, alcalde centrista de Bucarest, se impuso en segunda vuelta en las elecciones del 18 de mayo.

Lucas Hansen, fundador de CivAI, una organización sin fines de lucro que estudia las capacidades y los peligros de la IA, dice que lo preocupa algo que va más allá de los deepfakes que puedan engañar a los votantes: Hansen advierte que el debate de la opinión pública está tan contaminado por la IA que la gente se está desilusionando.

“La contaminación del ecosistema informativo será uno de los problemas más difíciles de superar”, señala Hansen. “Y es posible que sea un camino sin retorno”.

Traducción de Jaime Arrambide

Seguí leyendo

Más Noticias

Relacionadas