El dilema ético de la IA en la lucha contra la desinformación
Es nuestra responsabilidad como ciudadanos digitales verificar fuentes, exigir la no manipulación algorítmica y mantenernos actualizados de las tecnologías emergentes.

La Inteligencia Artificial cada vez es más frecuente en el uso diario de las personas.
/Foto: Unsplash
La era de la hiperconectividad plantea sobrecarga informativa convertida en desinformación que se incrementa en la era del desarrollo de la IA. La información fluye con una velocidad sin precedentes a través de innumerables canales que incluyen redes sociales, plataformas de mensajería, motores de búsqueda de internet, así como las propias IA que digieren los datos en línea para usuarios cada vez más confiados en la información que reciben, sin revisar las fuentes de la misma, adoptando una confianza sin sentido, y sin cuestionar la calidad o fuente de información.
Relacionadas: ¿Quién define la ética de la inteligencia artificial?
De acuerdo con Naciones Unidas, en la Tierra vivimos 8,200 millones de seres humanos. 5,780 millones cuentan con un teléfono móvil, es decir, el 70.5% de la población mundial. De ellos, el 87% posee un teléfono inteligente. Somos 5,560 millones de internautas, de los cuales 5,240 millones estamos en redes sociales, según el último análisis de la consultoría digital Kepios. México rebasa el promedio mundial de conexión diaria, que para el tercer trimestre de 2024 era de seis horas y 40 minutos, según el Digital 2024: Global Overview Report. Tanto consumo de datos e información crea un dilema ético que debe analizarse.
¿Quién tiene el poder de definir la verdad?
Las Big Tech han desarrollado algoritmos para detectar información falsa, pero aún presentan vulnerabilidades. Lo más preocupante es que la IA aprende sobre la marcha a partir de bases de datos sesgadas, operando bajo criterios establecidos por las grandes tecnológicas y sus intereses políticos y económicos. En muchos casos, estas compañías son las mismas que terminan bloqueando o eliminando información con base en parámetros definidos, generando así una censura algorítmica enfocada en promover sus propias narrativas. En el mejor de los casos, el entrenamiento de la IA está basado en datos sesgados, incapaces de ser informativamente neutrales.
Existen, sin embargo, plataformas de IA como Full Fact y Logically, que representan una herramienta poderosa para la verificación y validación de la información. Estas plataformas aseguran la integridad informativa al analizar los contenidos noticiosos y compararlos con bases de datos verificadas. Otra forma de garantizar que las fuentes de información sean fidedignas es mediante Blockchain, una tecnología que permite la trazabilidad del origen y modificaciones de los datos en una cadena de bloques inmutable. Esta herramienta garantiza tanto a medios de comunicación como a los propios usuarios que la información que reciben no haya sido manipulada.
Los deepfakes se han profesionalizado a tal nivel que, en muchas ocasiones, es casi imposible diferenciar entre lo real y lo manipulado. Para detectar este tipo de alteraciones existen plataformas como Deepware Scanner o Microsoft Video Authenticator, que analizan videos e imágenes, logrando detectar alteraciones de acuerdo con el contexto de la información. Esto permite a los usuarios confirmar la autenticidad antes de compartir contenido que podría viralizar verdades a medias. Sin embargo, la mejor herramienta que tenemos como usuarios es la alfabetización digital continua, que nos permite cuestionar la información que consumimos e identificar automáticamente noticias falsas.
La fragmentación geopolítica de la ética en la IA
El hecho de que varios países no firmaron el acuerdo de ética en la IA durante el AI Summit que tuvo lugar en Francia, muestra la escisión geopolítica del mundo en la era digital. Aunque organismos internacionales como la UNESCO y la Unión Europea tratan de abordar el desarrollo de un marco regulatorio, la falta de consenso entre los países tecnológicos más poderosos impide la creación de políticas informativas globales efectivas. Para algunos países, la única salida posible es implementar una legislación restrictiva contra el contenido generado por la IA. Otros países, por otro lado, ven la innovación sin restricciones como su prioridad, lo que significa que sus ciudadanos quedan expuestos en el ámbito de la manipulación informativa y las estrategias desinformativas donde la verdad es claramente una cuestión de poder.
Relacionadas: CES 2025: Una ventana a la nueva era de la inteligencia artificial
Sin un consenso global, el dilema ético de la verdad se convierte en una batalla por definir si la IA será la única herramienta con la capacidad de defender o construir realidades alternativas. Esto genera un escenario donde la desinformación puede ser utilizada como arma de control social y geopolítico, con fines de manipulación de la ciudadanía y la economía digital. El riesgo es que este fenómeno continúe acrecentando las brechas digitales, dejando a muchos en el analfabetismo, la indefensión y la pobreza digital.
El acceso a la verdad informativa no puede depender de intereses políticos ni de las grandes tecnológicas. Es nuestra responsabilidad como ciudadanos digitales verificar fuentes, exigir la no manipulación algorítmica y mantenernos actualizados de las tecnologías emergentes, porque de lo contrario, la IA no será una aliada para el conocimiento, sino una herramienta de control diseñada para definir nuestra percepción de la realidad.