En vísperas de las elecciones en Estados Unidos se enfrenta una oleada sin precedentes de contenidos falsos generados por inteligencia artificial (IA) pero la democracia argentina tampoco es inmune a este hecho. Al contrario, el país austral es vulnerable a las mismas tácticas de desinformación que amenazan a los votantes de todo el mundo.
El objetivo es generar desinformación y manipular la opinión pública con gran impacto y poco esfuerzo (en criollo llamado relato hegemónico). De hecho, millones de personas – de un lado o del otro del espectro ideológico- han visto, gustado y reenviado estos deepfakes. La situación es tan preocupante que el Departamento de Seguridad Nacional de Estados Unidos ha advertido de los riesgos de la IA en las elecciones presidenciales. Recientemente, el estado de California ha aprobado una de las leyes más severas de Estados Unidos contra los deepfakes políticos.
En cambio, Argentina se encamina a una miniserie de varias temporadas y capítulos, en materia de regulación legislativa contra los videos y audios falsos, manejándose con tratamientos naif y románticos, frente estos contundentes ataques a los sistemas políticos y a las personas. Mientras que la Unión Europea (UE) ha regulado los deefakes pues ya cuenta con normativa a ese fin “la Ley Europea de Inteligencia Artificial”. Entienden los europeos que esta normativa es para garantizar mejores condiciones de desarrollo y uso de esta tecnología innovadora.
Por su parte y por el momento el gobierno argentino y al interior de sus tres poderes, no considera necesaria una legislación específica contra los contenidos generados y manipulados artificialmente, solo un poco de activismo con algunos pronunciamientos de la Corte, en pocos casos, prevaleciendo la reparación a la prevención y a la sanción punitiva. Lo cierto es que, se debería brindar a los jueces las herramientas normativas para una mejor toma de decisiones, con el propósito de garantizar que los sistemas de IA utilizados en la argentina sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. Los sistemas de IA deben ser supervisados por personas, en lugar de por la automatización, para evitar resultados perjudiciales.
Pero a pesar de los esfuerzos legislativos, ni EE.UU. ni las principales democracias del mundo se han librado de vídeos, fotos y noticias falsas en el año electoral que ha llevado a las urnas al mayor número de personas de la historia. La escalada de desinformación generada por la IA aún no ha alcanzado su punto álgido: en el futuro veremos cada vez más contenidos «sintético», es decir, creados artificialmente.
A medida que la tecnología se vuelva más sofisticada, será cada vez más difícil distinguirla de lo real. Expertos coinciden en que estas son las tres razones principales por las que las democracias sean estas democracias directas, semi directas o semi representativas no deben subestimar el peligro de la información falsa alimentada por la tecnología:
Los motores de búsqueda y los chatbots muestran información distorsionada e incorrecta
Algunas organizaciones sin ánimo de lucro y algunos centros de investigación ya han advertido de los peligros y limitaciones del software y los algoritmos de la IA para la democracia, para sus votantes y la toma de decisiones a la hora de elegir. La ONG suiza Algorithm Watch CH analizó las respuestas del chatbot de Microsoft dentro del motor de búsqueda Bing antes de las elecciones nacionales argentina de octubre de 2023. En la observación se evidenció y demostró que un tercio de las respuestas relacionadas con las elecciones nacionales contenían errores facticos y que la IA había llegado incluso a inventar escándalos sobre determinadas figuras políticas.
“Los chatbots de la IA generativa integrados en los motores de búsqueda pueden inducir a error, porque la gente confía en la información obtenida a través de estos navegadores”, afirma Angela Müller, directora de Algorithm Watch CH que además cuenta en su haber un doctorado en Derecho de la Universidad de Zúrich, donde su investigación se centró en la aplicabilidad transfronteriza del derecho de los derechos humanos en el contexto de la globalización y las nuevas tecnologías.
Pero los buscadores web también pueden ser engañosos, escasos o inexactos. Un ensayo publicado en el sitio de información “Por una Sociedad Informada” (SI) descubrió que el motor de búsqueda más utilizado en Argentina, Google, da una visibilidad desigual a determinadas fuentes de información y opiniones más o menos críticas sobre un tema en función del idioma de búsqueda (español, alemán, portugués, francés o italiano), por tanto, hay una asimetría en el ejercicio del derecho de buscar y recibir información cierta, según el idioma que se conozca o se busque.
Antes de la votación legislativa para revertir el libre ejercicio constitucional y democrático de veto por parte del poder ejecutivo al financiamiento universitario en Argentina en octubre de 2024, por ejemplo, el equipo de investigación descubrió que la memoria de los contenidos en portales de información en relación al tema en Google favorecía la información de los partidos o grupos más críticos al veto, en respuesta a las búsquedas en español y portugués más que en inglés, italiano y francés.
“En una democracia con varias lenguas y dialectos a su interior, ya de por sí polarizada, estos resultados deberían preocuparnos”, nos alerta de la falta de “transparencia” sobre el funcionamiento de los algoritmos de búsqueda y los programas de inteligencia artificial y de que, a pesar de sus promesas, las grandes empresas tecnológicas no crean sistemas eficaces para combatir las noticias falsas. Esto descripto produce una distorsión de la realidad, produciendo que el usuario o curiosos de portales y sitios web con información engañosa caiga en un error involuntario en percepciones de sistemas políticos como es la democracia o personas vinculadas a esta.
La desinformación generada por la IA está haciendo que el panorama mediático sea menos fiable
Según los resultados arrojados por el ensayo los sistemas de IA actuales también permiten crear y difundir desinformación con mayor rapidez y facilidad. Cada vez hay más sitios de noticias que imitan a los medios de comunicación tradicionales, pero en realidad están llenos de contenidos de IA generados automáticamente, que a menudo son incorrectos, inexactos y a veces completamente inventados (sintéticos).
Ese tipo de noticias llena las páginas de las principales plataformas de medios sociales, responsables de más del 30% de la desinformación que circula en Argentina que en su esencia son verdaderos pasquines. (Escrito anónimo, de carácter satírico y contenido político, que se fija en sitio público). Por su parte, en la Argentina las plataformas por donde viaja la información han expresado en reiteradas oportunidades ante los tribunales, que no son ellos quienes suben esos contenidos “sintéticos” liberándose de esta manera, de todo tipo de responsabilidad. Pero, incluso, si solo una pequeña porción de la población lee noticias generadas por inteligencia artificial, estas pueden estar tan bien hechas que resulta muy difícil identificarlas y evitar las que son falsas. Una encuesta reciente de la OCDE situaba a la población argentina entre la menos capaz de reconocer la desinformación.
Parafraseando la afirmación de Karsten Donnay, catedrático de Comportamiento Político y Medios Digitales de la Universidad de Zúrich. La gente podría sentirse engañada y perder la confianza en el sistema mediático en su conjunto y añade: «Lo realmente peligroso es cuando las noticias generadas por periodistas reales y por la IA se parecen». Este ecosistema ya ha llevado a la población a cambiar su forma de informarse. Los últimos datos publicados en el Reuters Digital News Report muestran que quienes van camino a ser la principal fuente de información del país son los sitios de noticias en línea. Los canales tradicionales y más fiables, como la televisión, la prensa escrita y la radio, siguen siendo importantes, pero han disminuido significativamente desde 2020.
Una de las razones de este cambio es que la gente se siente bombardeada con noticias y agotada, afirma el informe de Reuters. Por su parte los argentinos y argentinas están cada vez menos interesados en estar informados, lo que forma parte de una tendencia mundial. Sin embargo, Argentina ha experimentado un cambio menos extremo que otras democracias, como Estados Unidos, donde la población está casi a punto de abandonar las plataformas mediáticas tradicionales.
Pero esto no hace más probable que Argentina pueda minimizar los riesgos de la IA, El profesor cree que los motores de búsqueda y los chatbots seguirán ganando terreno como fuentes de información. “La gente los utilizará cada vez más y no sabemos realmente a dónde nos llevará esto”, señala.
Las tecnologías de la IA generativa son persuasivas
Hasta ahora, ha sido difícil demostrar el efecto de la desinformación generada por la IA en la población. «No es un fenómeno de masas». La desinformación circula en un nicho, afirma Fabrizio Gilardi, profesor de análisis político de la Universidad de Zúrich. Gilardi asegura que la desinformación siempre ha existido y que las investigaciones más importantes demuestran que tiene mucha menos influencia de lo que la gente cree. «La inteligencia artificial no cambiará sustancialmente la situación», señala. Pero la posición del profesor quien escribe desde la llanura helvética y con una vista maravillosa a sus espaldas que son los Alpes suizos no repara en los motivos que llevo a la aprobación de la Convención de Budapest, un acuerdo internacional para combatir el crimen organizado transnacional, específicamente los delitos informáticos.
En Argentina estudios independientes en colaboración con la IA con el objeto de medir búsqueda de información en línea sostiene que durante las elecciones presidenciales de 2023 demostraron que la desinformación que circulaba por las redes sociales no tenía un efecto significativo en las actitudes y el comportamiento de la gente y no aumentaba la polarización. En lo personal, veo acabadamente que ahora – a solo un año de la contienda electoral- esa realidad podría cambiar con la llegada de plataformas interactivas de inteligencia artificial como ChatGPT. GPT-4o, Claude 3.5, Gemini 1.5 y más modelos de IA. Y a ello me remito: una investigación realizada en Estados Unidos por la Escuela Politécnica Federal de Lausana sobre una muestra de unas 900 personas demostró que ChatGPT es muy hábil a la hora de moldear nuestras opiniones. Esta exactitud fue recreada por los periodistas Benjamin von Wyl y Veronica De Vore, del SWI swissinfo.ch – unidad empresarial de la sociedad suiza de radio y televisión SRG SSR.
«La capacidad de persuasión de los modelos de inteligencia artificial generativa es tan alta que podrían influir en las elecciones presentes y futuras», quedó demostrado que ChatGPT-4 tiene un 82% más de probabilidades que un humano de hacer cambiar de opinión a una persona. Cuando dispone de información personal sobre un usuario, ChatGPT-4 puede generar mensajes personalizados y más persuasivos. Esto ya no tiene precedentes, ni siquiera teniendo en cuenta otros casos famosos de desinformación, como el de Cambridge Analytica, que en 2018 utilizó ilegalmente los datos personales de millones de usuarios de Facebook para influirles políticamente. Cambridge Analytica, es la consultora política que simboliza el lado oscuro de las redes a partir de las elecciones presidenciales de 2016 en Estados Unidos de Norte América. Luego llevada a la pantalla por Netflix con el título “Nada es privado”.
Entiendo que en particular argentina está totalmente desarmada ante este progreso que se potencia día a día, la IA puede moldear y modificar voluntades, cambiar preferencias y criterios dañar sistemas políticos como la democracia, imágenes y perturbar sentimientos. Entiendo que no es demasiado tarde para poner en marcha medidas que garanticen que incluso las fuentes de información no periodísticas cumplan ciertas normas, entendiendo por norma aquella que emana del poder legislativo.
Estoy convencido que todo lo que estoy escribiendo ya está sucediendo, sistemas políticos en jaque, gente dañada y perjudicada por el mal uso de la IA, en definitiva contenidos sintéticos que buscan desinformar a la opinión pública y muchas otras situaciones, urge reglamentar el Convenio de Budapest en nuestro país, buscando armonizar esa normativa internacional con las libertades individuales de nuestro sistema jurídico. Se que será un gran desafío para el collage de ideologías que hoy se reflejan en el Congreso de la Nación, pero que ese pluralismo no sea un impedimento sino una oportunidad para hacerlo, aprovechando que el collage suele incluir diversos materiales e imágenes en la composición de una misma obra.
Recomendados
¡No lo googlees! Estas son las cinco frases que nunca deberías buscar si quieres evitar ciberataques
Un helicóptero de reconocimiento de la NASA descubrió restos de una nave espacial en Marte
Más del 20% de los argentinos se conecta a redes Wi-Fi públicas sin verificar si son seguras