Inteligencia artificial y género: más allá de Siri y Alexa
Un cuarto público

Abogada y escritora de clóset. Dedica su vida a temas de género y feminismos. Fundadora de Gender Issues, organización dedicada a políticas públicas para la igualdad. Cuenta con un doctorado en Política Pública y una estancia postdoctoral en la Universidad de Edimburgo. Coordinó el Programa de Género de la Escuela de Gobierno del Tecnológico de Monterrey durante tres años y es profesora en temas de género. Actualmente es Directora de Género e Inclusión Social del proyecto SURGES en The Palladium Group.

X: @tatianarevilla

Inteligencia artificial y género: más allá de Siri y Alexa
Foto: Pixabay

Se ha debatido mucho si realmente las voces femeninas de los dispositivos de asistentes de voz reproducen roles de género. Quienes las diseñan, justifican la decisión citando trabajos que demuestran que las personas prefieren una voz femenina a una masculina. Un representante de Amazon señaló que la compañía encontró que las voces de las mujeres son más comprensivas y agradables, por lo que, en términos comerciales, hacer dispositivos con voz femenina aumenta la probabilidad que se utilicen para asistencia y compras (Unesco, 2019). ¿Por qué reproducirlo? 

Un reporte de la Unesco titulado I’d blush if I could concluyó que, el que la mayoría de los asistentes digitales de voz tengan voces femeninas, sí es un elemento sexista y que sí importa nombrarlo debido al crecimiento de su presencia en nuestra vida; en cómo, a través de comandos de voz lavamos ropa, cerramos puertas, cambiamos música y son parte de nuestras rutinas, además de que esta relación ‘humana’ con la tecnología solo tiende a crecer. 

De acuerdo con el mismo informe, entre 2008 y 2018 la frecuencia de consultas por voz en internet aumento 35 veces y representa hoy una quinta parte de las búsquedas en internet móvil. Esta cifra se prevé que aumente a 50% para el año 2027 y se pronostica que los asistentes de voz administrarán más de un billón de tareas al mes en los hogares, desde lo más simple como cambiar una canción, hasta contactar con servicios de emergencia. 

En conjunto, Alexa de Amazon, Siri de Apple, Google Assistant de Google y Cortana de Microsoft están instalados en más de dos mil millones de dispositivos conectados a onternet en todo el mundo. En el mismo reporte de la Unesco, personal de Google y Microsoft mencionan que, para diseñarles, las dotaron de sentimientos, opiniones, gustos, desafíos, disgustos y esperanzas de acuerdo al mundo real, ya que las personas quieren detalles y especificidad y reconocen que tanto los hombres como las mujeres tienden a señalar las voces de mujeres más cooperativas y útiles y las de los hombres más autoritarias. Y aquí el cliente, quiere mandar.  

Esta preferencia hacía la voz de mujeres reproduce los roles de género. Woods (2018) argumenta que otra de las razones por la que las voces de estos asistentes son femeninas en su mayoría “es para no generar ansiedad ni percepción de una vigilancia en la vida privada de las personas. En general, los asistentes de voz recrean los códigos de género estereotipados adjuntos a la domesticidad como andamiaje social para atraer a los usuarios potenciales a comprar dispositivos, usarlos de forma cotidiana en situaciones cada vez más privadas y, renunciar al control de sus datos personales por el privilegio de interactuar con estos asistentes artificialmente inteligentes”; y lo ideal para esto es una voz de mujer que no suene como amenaza. De acuerdo con Pascale (2019), esto contrasta con robots diseñados en masculino para cuestiones de seguridad y rescate, finanzas y banca, como Watson de IBM, los cuales, tener nombre y voz masculina generan certidumbre en esos temas. 

Otros ejemplos de cómo se diseña inteligencia artificial reproduciendo sesgos de género es la famosa Roomba; su asociación a lo femenino es evidente: es una máquina inteligente asociada a labores domésticas, al espacio privado. En otro caso, Amazon descubrió que un algoritmo que había desarrollado como herramienta de contratación estaba penalizando a las mujeres: los datos en los que se basaba habían sido seleccionados de 10 años de currículums, en su mayoría de hombres. 

Más allá de aspiradoras y las voces de Alexa y Siri, existe inteligencia artificial más compleja diseñada para resolver problemas públicos y privados: sistemas para determinar libertad de las personas; de selección y evaluación de desempeño para recursos humanos; máquinas que predicen riesgos de comportamiento de las personas para prevenir delitos; machine learning para la banca, que analiza patrones de comportamiento y consumo del cliente determinando su idoneidad para un préstamo u operaciones crediticias; sistemas que realizan diagnósticos médicos e inteligencia artificial de seguridad y vigilancia para prevenir riesgos y situaciones peligrosas; y tecnologías de asistencia en tareas de cuidado y reproducción social. Aquí debe estar nuestra atención, ¿cómo vamos a evitar trasladar nuestros sesgos a todo esto? 

La integración de la perspectiva de género y la inclusión social en su diseño es una prioridad. De acuerdo con Ross (2014), “si eres humano, tienes sesgos”. Es imposible que quienes diseñan inteligencia artificial, así como los datos con los que toman decisiones –y más en una disciplina dominada por hombres­– no reproduzcan mandatos y brechas de género que prevalecen en la sociedad; pero no es imposible visibilizar, minimizar y transformar cómo se está diseñando. Al final, aspiramos a un futuro más justo e igualitario, la inteligencia artificial es parte imprescindible de ese futuro. 

Síguenos en

Google News
Flipboard