La dieta informativa de la IA

Lunes 25 de agosto de 2025

Ingrid Motta
Ingrid Motta

Doctora en Comunicación y Pensamiento Estratégico. Dirige su empresa BrainGame Central. Consultoría en comunicación y mercadotecnia digital, especializada en tecnología y telecomunicaciones. Miembro del International Women’s Forum.

Puedes encontrarla en: LinkedIn y TikTok: @_imotta

La dieta informativa de la IA

La dependencia de la IA en estas fuentes impacta directamente en la educación de las nuevas generaciones.

ia educacion 2.jpg

Semrush, la plataforma de análisis digital fundada en Boston, publicó su estudio “Los sitios web más citados por los modelos de IA”.

/

Foto: Wikimedia (Mauricio Genta)

En junio de 2025, Semrush, la plataforma de análisis digital fundada en Boston, publicó su estudio “Los sitios web más citados por los modelos de IA”, donde examinó más de 150,000 citas de grandes modelos de lenguaje (LLMs). El hallazgo muestra que tres cuartas partes de esas referencias provienen de solo cuatro dominios: Reddit, Wikipedia, YouTube y Google. Este dato exhibe mucho más que una preferencia algorítmica; muestra la fuerte dependencia de la inteligencia artificial en plataformas comunitarias y motores de búsqueda que pueden ser generadoras de burbujas culturales, sombras informativas, y el riesgo de amplificar tendencias diseñadas para su viralización por los propios algoritmos, por encima de información verificada.

El ranking también exhibe un sesgo geográfico y cultural. Los principales dominios son de origen estadounidense y en idioma inglés, dejando fuera el conocimiento producido en Europa, Asia, América Latina y, aún más, África. Las investigaciones locales, los acervos culturales y las tradiciones regionales quedan invisibilizadas en un mundo donde lo que no está en inglés y en plataformas de alcance global prácticamente no existe para la IA. Esto refuerza la idea de que el discurso mediático e informativo está controlado por un puñado de plataformas que actúan como guardianes de la memoria digital en un mundo hiperconectado.

Te recomendamos: Comunicaciones cuánticas ya están cambiando tu internet

La dependencia de la IA en estas fuentes impacta directamente en la educación de las nuevas generaciones. Si los jóvenes reciben respuestas que invisibilizan culturas locales, lenguas minoritarias y tradiciones históricas, el riesgo es una homogeneización cultural. El pasado se diluye, los usos y costumbres de cada país pierden valor frente a un discurso global dominante. La enseñanza deja de ser un espacio para confrontar visiones diversas y se convierte en un reflejo de lo que dictan los algoritmos. En consecuencia, las futuras generaciones podrían crecer con una visión reducida del mundo, desconectada de sus raíces y de la riqueza cultural que distingue a cada sociedad.

El estudio de Semrush también comparó cómo citan distintos modelos: Google AI Mode, ChatGPT, Perplexity y Claude. La conclusión es clara: todos priorizan fuentes visibles y masivas, casi siempre en inglés. Google AI Mode, en particular, refuerza el sesgo del SEO al citar con mayor frecuencia los mismos sitios que aparecen en la primera página de búsqueda. Esto significa que el poder de los algoritmos no se limita a mostrar resultados: también dicta qué memorias digitales nutren a la inteligencia artificial, desplazando a medios tradicionales, investigaciones académicas y repositorios gubernamentales que casi no aparecen en la dieta informativa de la IA.

Esto puede interesarte: Adiós AT&T: México es un mercado que no sabe competir

El ranking revela, además, que quien controla el discurso informativo en un entorno globalizado es la cultura norteamericana. Si las narrativas predominantes provienen de foros como Reddit o YouTube, donde los algoritmos priorizan lo viral, estamos frente a un modelo en el que la popularidad sustituye a la veracidad. Esto tiene implicaciones políticas y sociales, y consolida a las grandes plataformas tecnológicas como árbitros del conocimiento, con el poder de decidir qué voces se amplifican y cuáles quedan en el olvido.

Vale la pena recordar que, a nivel global, en entornos académicos Wikipedia ha sido criticada por su carácter abierto, editable y en ocasiones poco riguroso. Sin embargo, en las respuestas de los modelos de inteligencia artificial esas limitaciones se diluyen y quedan invisibles. Cuando una IA ofrece una definición o un dato, el usuario rara vez cuestiona si proviene de un artículo modificado por un voluntario sin especialización o de una fuente con respaldo académico. Esta normalización de Wikipedia dentro del ecosistema de la IA implica que millones de personas consumen información “filtrada” a través de un proceso que parece objetivo, pero que carece de los estándares de validación exigidos en la investigación formal.

También puedes leer: Colonialismo energético en la era digital

El fenómeno de los sitios más citados por los modelos de IA no solo evidencia un sesgo informativo, sino que desnuda una arquitectura de poder cultural y comunicacional. La aparente neutralidad de estas respuestas en realidad esconde un proceso de selección que privilegia ciertas voces y silencia otras. Si aspiramos a un futuro digital justo, necesitamos exigir mayor transparencia en los procesos de entrenamiento de la IA y una integración real de fuentes diversas, multilingües y con revisión experta. Solo así evitaremos que las inteligencias artificiales repliquen una visión única y limitada del conocimiento humano.

PUBLICIDAD