No culpes a la IA de discriminación
In-grid Telecom

Doctora en Comunicación y Pensamiento Estratégico. Dirige su empresa BrainGame Central. Consultoría en comunicación y mercadotecnia digital, especializada en tecnología y telecomunicaciones. Miembro del International Women’s Forum.

TikTok: @_imotta

No culpes a la IA de discriminación
La controversia en torno a Gemini toca fibras sensibles en la conciencia social y ética de nuestra sociedad, reflejando una arraigada discriminación, negligencia tecnológica, y la falta de empatía en el desarrollo y despliegue de inteligencia artificial. Foto: Tara Winstead/pexels

A menos de un mes de ser presentado el generador de imágenes de Gemini, el chatbot de inteligencia artificial (IA) de Google, su algoritmo generativo les hizo una muy mala pasada al demostrar su mal entrenamiento, mostrando a un grupo de soldados de Alemania Nazi como personas negras y asiáticas, hecho que confirma la enorme necesidad de reglamentar la ética en el uso de la IA.

La controversia en torno a Gemini toca fibras sensibles en la conciencia social y ética de nuestra sociedad, reflejando una arraigada discriminación, negligencia tecnológica, y la falta de empatía en el desarrollo y despliegue de inteligencia artificial.

La discriminación causada por mala programación de un sistema informático tiene efectos profundos y duraderos al fortalecer prejuicios en contra de minorías y comunidades que históricamente han sido perjudicadas al no poder lograr un crédito bancario, por ejemplo, o encontrar un buen trabajo cuando un sistema favorece a candidatos masculinos sobre femeninos debido a sesgos presentes en datos de entrenamiento, por mencionar algunos casos.

No te pierdas: Sora: la transformación de la industria multimedia

Los sistemas de reconocimiento facial han demostrado una tasa de error más alta para personas de color identificándolas incorrectamente en contextos de vigilancia y aplicación de la ley, a diferencia de con personas blancas, afectándolos en decisiones de sentencias, libertad condicional y fianzas.

La responsabilidad de las empresas tecnológicas en la creación e implementación de la IA es absoluta. Se deben asegurar filtros éticos y revisiones rigurosas para evitar la propagación de imágenes o conceptos perniciosos. El incidente de Gemini subraya la necesidad de una mayor participación de equipos de desarrollo tecnológico donde la diversidad cultural facilite anticipar y prevenir estos errores.

Este caso plantea preguntas sobre el papel de la inteligencia artificial en la reproducción y amplificación de estereotipos y prejuicios. La IA se alimenta de los datos que recibe, y si estos datos están sesgados, los resultados lo reflejarán. La responsabilidad humana para revisar y depurar las bases de datos utilizadas para entrenar estas tecnologías, lograría asegurar la equidad y la inclusión.

La tecnología es una herramienta poderosísima: en sistemas de salud tiene la capacidad de cruzar datos en cuanto a raza, género, etnias para mejorar la precisión del diagnóstico y el tratamiento personalizado. En la academia puede identificar capacidades de cada estudiante integrando a alumnos con necesidades especiales y ritmos educativos diferentes. En el campo puede analizar los recursos para predecir el cultivo en comunidades agrícolas vulnerables, entre otros muchísimos beneficios para la humanidad.

No te pierdas: Y el Óscar es para…las plataformas de streaming

El error de Gemini es un recordatorio doloroso de que la tecnología no es equitativa, peor aun cuando no lo es que no lo es por sí misma, sino por la forma en la que es programada por humanos. El trabajo conjunto con organizaciones contra la discriminación y la promoción de la diversidad es mandatorio para asegurar la justicia social.

La discriminación, en todas sus formas, debe ser combatida con acción, educación y un compromiso inquebrantable con la justicia y la igualdad, para que la tecnología no sea un reflejo de la ignorancia humana.

Síguenos en

Google News
Flipboard