La IA no es feminista; datos mantienen estereotipos o discriminación: especialistas
Imagen representativa de la Inteligencia Artificial (IA) en el mundo. Foto: EFE.

La Inteligencia Artificial (IA) no es feminista, ya que los datos utilizados para entrenar sus modelos es posible que perpetúen estereotipos de género o discriminación, de acuerdo con especialistas universitarias.

Un texto publicado en la Gaceta de la Universidad Nacional Autónoma de México (UNAM) recuerda que los creadores, impulsores y desarrolladores de la IA sostienen que ésta no tiene género, y aunque ello suena incluyente y progresista en realidad la información de la que suele echar mano tiene un marcado componente masculino que discrimina o al menos relega a la mujer.

Pero, ¿por qué ocurre tal cosa? La respuesta está en la forma en que la Inteligencia Artificial es programada por hombres que reproducen orientaciones machistas, según las especialistas.

Esto afecta a las mujeres en lo social, profesional y económico; e incluso están propensas a ser víctimas de violencia machista debido a la generación de imágenes deep fake –un video, una fotografía o un audio generado que imita la apariencia y el sonido de una persona–, donde son representadas como objetos sexuales y que incluso llegan a la pornografía.

“Estamos viendo casos terribles de violencia digital contra las mujeres que complican aún más el problema para ellas”, sostiene Aimée Vega, especialista en feminismo y comunicación del Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades (CEIICH).

Sobre el campo laboral, las especialistas universitarias refieren que si la IA tuviera que decidir a quién contratar, probablemente elegiría a un candidato varón. Un ejemplo claro, recuerdan, es lo que sucedió a una empresa multinacional especializada en comercio electrónico, streaming digital e inteligencia artificial que entre 2014 y 2015 descubrieron que sus motores de contratación discriminaban a las mujeres.

¿La razón? Su herramienta de selección, hasta ese momento experimental, trabajaba con un algoritmo que aprendió a valorar los patrones de las hojas curriculares en un tiempo de 10 años, y como el dominio masculino ha predominado en las industrias tecnológicas, una candidata sería discriminada solo por ser mujer.

Para contrarrestar esto, la lingüista computacional María Ximena Gutiérrez, quien es parte del programa Macrodatos, Inteligencia Artificial e Internet del CEIICH, propone formar grupos interdisciplinarios que incidan sobre la representatividad y soberanía de los datos.

“También podemos apoyarnos en la minería de datos –proceso en el que se analizan grandes volúmenes de información para encontrar patrones que expliquen su comportamiento en un contexto determinado– a fin de descubrir tendencias que nos sugieran que los datos de origen tienen algún tipo de sesgo”, agrega.

Por su parte, Saiph Savage, ingeniera en computación por la UNAM, refiere que se debe tener interacción en cada parte del proceso de la creación de la IA, atacar los sesgos existentes en los datos; nutrir la Inteligencia Artificial con información en contra de la discriminación, los estereotipos y los sesgos de género; revisar las interfaces.

Además de agregar a humanos que tomen las decisiones finales, pues explicó que “la IA puede tener errores, por lo que es importante que se permita que haya personas que ayuden a corregirlos y percatarse de que es posible que los sesgos existan”.

Síguenos en

Google News
Flipboard