La IA generativa vs la democracia: Esta es la nueva forma de propagar desinformación en Latinoamérica

Jueves 8 de mayo de 2025

La IA generativa vs la democracia: Esta es la nueva forma de propagar desinformación en Latinoamérica

Aunque la inteligencia artificial generativa es una herramienta de innovación, también se ha convertido en un arma electoral para el descrédito y la mentira.

inteligencia- artificial-generativa-interviene-en-la-desinformación-electoral.png

El uso de la Inteligencia artificial generativa va en aumento en América Latina y el Caribe; en periodos electorales se utiliza para desinformar y masificar el contenido falso.

/

Portada: La-Lista

El uso de la Inteligencia artificial generativa va en aumento en América Latina y el Caribe; en periodos electorales se utiliza para desinformar y masificar el contenido falso.
Portada: La-Lista

En los últimos años, América Latina ha sido testigo de un fenómeno creciente y alarmante: el uso de Inteligencia Artificial Generativa (IAG) para producir y distribuir desinformación en contextos electorales. Esta nueva realidad plantea serios desafíos para la integridad democrática y la confianza ciudadana en los procesos electorales, pues a medida que las tecnologías se vuelven más accesibles, también lo hacen las herramientas utilizadas para manipular la información.

Durante las campañas electorales de 2023 y 2024, diversos países de la región registraron un uso estratégico de la IAG para influir en la opinión pública, desestabilizar el entorno informativo y alterar la percepción de los resultados. Este tipo de ataques se detectaron en tres momentos clave del proceso: durante la campaña, el día de la votación y una vez cerradas las urnas. En cada uno de estos momentos, la desinformación cumplió una función diferente, pero igualmente perjudicial para la democracia.

Una de las amenazas más inquietantes es el desarrollo de audios falsificados mediante IAG, capaces de replicar con sorprendente precisión la voz de figuras públicas. A diferencia de los vídeos o imágenes manipuladas —que aún presentan limitaciones visuales—, los audios son mucho más difíciles de detectar y verificar, especialmente por la ausencia de herramientas masivas que permitan contrastar su veracidad en tiempo real. Esta tecnología no solo puede crear falsedades creíbles, sino también poner en duda contenidos legítimos, generando un clima de sospecha generalizado.

TE RECOMENDAMOS: ¿La IA puede quitar y poner presidentes? Esto dice un estudio sobre la contienda del 2024 en México

Las campañas de desinformación también se han beneficiado de otras aplicaciones de la IAG, como la creación de deep fakes, la generación de imágenes manipuladas, encuestas falsas, y hasta candidatos virtuales. Estos contenidos suelen difundirse a través de redes sociales con la ayuda de bots y cuentas falsas, amplificando mensajes y generando tendencias que simulan respaldo social genuino.

Ante esta amenaza, tanto las plataformas digitales como los gobiernos han comenzado a tomar medidas, aunque no sin críticas. En 2024, veinte empresas tecnológicas firmaron un “Acuerdo Tecnológico” que busca frenar el uso indebido de la IA en contextos electorales. A pesar de representar un avance, el acuerdo ha sido señalado por su falta de precisión y carácter voluntario.

Mientras tanto, en América Latina, las respuestas institucionales han sido incipientes. Aunque existen esfuerzos en materia de alfabetización digital, colaboración interinstitucional y regulación ética, estos no han logrado neutralizar el avance de la desinformación electoral. El resultado es una ciudadanía cada vez más expuesta a contenidos manipulados y una democracia en riesgo de perder su fundamento más básico: la verdad compartida.

Una característica importante de la desinformación electoral en la era de las redes sociales es su capacidad para generar polarización. Las personas tienden a consumir información que confirma sus creencias preexistentes, y las redes sociales facilitan por medio de sus algoritmos la creación de “burbujas informativas”, donde los usuarios están expuestos principalmente a contenido que refuerza sus puntos de vista.

Desinformación: herencia histórica

desinformacion-en-tiempos-de-inteligencia artificial-generativa.png
La IAG permite la creación de fotos altamente realistas que pueden manipular percepciones o difundir falsedades de manera convincente. / Foto: Pexels

A partir del siglo XXI, el auge de las redes sociales transformó aún más la naturaleza de la desinformación en las elecciones. Las plataformas como Facebook, X y WhatsApp se convirtieron en herramientas para las campañas electorales, debido a su capacidad para segmentar audiencias y dirigir mensajes personalizados.

Sin embargo, esto también facilitó la difusión de desinformación a una escala sin precedentes. Los algoritmos de las redes sociales, diseñados para maximizar la interacción del usuario, amplificaron el contenido sensacionalista, lo que permitió que las noticias falsas se diseminaran rápidamente entre millones de personas. Esto ha llevado a una mayor fragmentación del debate público y ha contribuido a la radicalización de los votantes.

Antes de la explosión de la IA Generativa, la desinformación predominante se difundía a través de “cheap fakes” o “shallow fakes”, técnicas accesibles para cualquier usuario con algún conocimiento de diseño informático. Pero, hoy en día, para crear “deep fakes” mediante IAG, solo se necesita el conocimiento para ejecutar un conjunto de instrucciones que estos sistemas llevarán a cabo.

Un estudio de la Fundación Friedrich Naumann demuestra que este foco rojo existe en América Latina y no solo eso, sino presume una tendencia al alza.

El ciclo de la desinformación electoral

Durante los procesos electorales de 2023 y 2024 en América Latina, se identificaron tres momentos clave en los que la desinformación generada por IAG tuvo mayor impacto:

  1. Inicio de campaña: En esta fase, la IAG se utilizó para fabricar narrativas falsas o manipuladas sobre candidatos, partidos o propuestas. El objetivo principal fue moldear la opinión pública desde los primeros días, marcando la agenda con noticias falsas que luego eran amplificadas por cuentas automatizadas.
  2. Jornada electoral: Aquí, la desinformación apuntó a generar confusión sobre procedimientos, horarios, ubicaciones de votación o incluso sobre supuestas irregularidades. Esta táctica, además de disuadir el voto, ponía en duda la integridad del proceso mismo.
  3. Post-elección: Tras el cierre de urnas, se registraron intentos de manipular la percepción de los resultados. Desde operaciones encubiertas hasta contenidos diseñados para desacreditar a autoridades electorales, esta etapa busca erosionar la confianza ciudadana.

NO TE PIERDAS: Los problemas de los BRICS: ¿Vale la pena o no unirse a ellos?

¿Cómo engañar a la gente a través de IA?

Aunque la IAG se usó para automatizar publicaciones en época electoral, controlar chatbots que fungieran de interacción con los votantes y producir discursos, también fue empleada para desinformar de maneras diversas y sofisticadas. A continuación te enumeramos las principales:

  • Creación de noticias y contenidos automatizados: La IAG puede ser utilizada para crear noticias falsas o artículos de opinión engañosos, manipulando la percepción pública.
  • Manipulación de encuestas y resultados: Existen riesgos de que se utilice la IAG para generar encuestas falsas o manipular datos para influir en la opinión pública de forma engañosa.
  • Deep fakes y manipulación de medios: La creación de deep fakes con IAG permite la producción de videos o audios falsificados que muestran a los candidatos diciendo o haciendo cosas que nunca ocurrieron, afectando su imagen pública.
  • Bots y cuentas falsas para influir en redes sociales: Creación de cuentas falsas que parecen reales y promueven ciertas narrativas, generando tendencias falsas o manipulando conversaciones en redes sociales.
    bots-parte-de-la-desinformación-en-tiempos de-iag.png
    Los bots son una de las herramientas tecnológicas más usadas para sostener una narrativa y reprobar otra; la masificación de sus mensajes se concreta mediante IAG / Foto: Pexels
  • Manipulación subliminal mediante publicidad segmentada: Las campañas de microtargeting pueden ser mal utilizadas para explotar emociones o sesgos inconscientes de ciertos grupos de votantes, influyendo en sus decisiones de manera poco ética.
  • Desinformación personalizada: Utilización de IAG para personalizar mensajes falsos o exagerados que manipulan a los votantes, utilizando sus propios sesgos e inclinaciones para generar dudas o desconfianza en el proceso electoral.
  • Creación de candidatos o avatares falsos: La IA puede ser usada para crear “candidatos falsos” o avatares que influyen en la opinión pública sin que las personas se den cuenta de que son construcciones virtuales.

SIGUE LEYENDO: ‘Latinos respaldan discurso anti Ucrania y narrativas rusas’, revela estudio en Uruguay, Paraguay y Bolivia

Entes institucionales buscan frenar deepfakes

instituciones-deben-comprometerse-a-vigilar-el-la-uso de-la IAG.png
Las instituciones deben vigilar con mayo rigor que la inteligencia artificial no sea empleada contra la democracia y las libertades que la misma implica. / Foto: Pexels

En febrero de 2024, veinte grandes empresas tecnológicas —entre ellas Google, Meta, OpenAI, Microsoft, TikTok y X— firmaron un “Acuerdo Tecnológico” para combatir el uso indebido de la Inteligencia Artificial en contextos electorales.

Este pacto voluntario establece principios y líneas de acción conjunta, centradas en controlar el contenido generado por IA que pueda alterar la integridad del proceso democrático. Aunque no impone sanciones ni prohíbe explícitamente los deepfakes, sí compromete a las compañías a desarrollar tecnología para detectarlos, etiquetarlos y limitar su circulación.

Google Implementó medidas para abordar los riesgos de la desinformación electoral generada por IA. Una de sus principales acciones fue limitar las respuestas de sus herramientas de IA, como Gemini y la experiencia de búsqueda generativa mejorada, para consultas relacionadas con elecciones. Esto tuvo como objetivo evitar la propagación de desinformación en momentos críticos.

Meta desarrolló una herramienta para monitorear y eliminar contenido electoral engañoso generado por IA en Facebook e Instagram. Además, implementó un sistema que detecta contenido manipulado y lanzó iniciativas para educar al público sobre la desinformación.

Sin embargo, según el informe de la Fundación Maldita, YouTube no tomó ninguna acción visible en el 75% del contenido de desinformación y, en el 80% de los casos en los que intervino, solo mostró un panel de información genérico o etiquetó la fuente del video como un medio estatal, sin explicar por qué el contenido era falso. Algunos de estos videos alcanzaron las 500 mil visualizaciones.

Soluciones para la IAG en América Latina

iag-es-un camino-para reproducir-noticias-falsas-en procesos-electorales.png
Por más que la información sea verdadera o falsa puede desempeñar un papel en la formación de opiniones. / Foto: Pexels

Los gobiernos de la región han comenzado a implementar políticas públicas que incluyen la alfabetización digital, el fortalecimiento institucional y la creación de marcos éticos para el uso de la IA. Sin embargo, estas medidas aún resultan insuficientes ante la velocidad con la que evoluciona la tecnología.

En países como Argentina, Panamá y Uruguay, se han promovido pactos y compromisos entre tribunales electorales y actores civiles, aunque su eficacia ha sido limitada.

POR SI NO LO VISTE: Las fake news de China y Rusia impactan más a jóvenes y a usuarios de TikTok: estudio

La desinformación generada por IA no es una amenaza futura: ya está ocurriendo y afecta directamente la calidad democrática en América Latina. El hecho de que actualmente no haya evidencia en la región sobre el impacto directo de la IAG en el electorado no significa que debamos ignorar sus posibles efectos en la democracia y las elecciones. Aunque estas tecnologías generan una cantidad excesiva de información que puede abrumar y ser ignorada por los votantes, la preocupación sobre su impacto sigue siendo válida.

El reto está en mantener el equilibrio entre la innovación tecnológica y la protección de los derechos ciudadanos. La coordinación entre plataformas, gobiernos y sociedad civil será clave para defender la transparencia electoral y garantizar que la inteligencia artificial no se convierta en un arma contra la democracia.

PUBLICIDAD

PUBLICIDAD - Estas notas son patrocinadas -