¿Navegar sin sesgos?
RacismoMX

Es sociólogo de la FCPyS - UNAM y desde hace más de seis años ha trabajado como estratega de comunicación en agencias de publicidad como Havas Creative, MRM-McCann y Leo Burnett México. Actualmente se desempeña como coordinador de Comunicación y Enlace con Empresas en RacismoMX.

TW: @ommi_martinez

¿Navegar sin sesgos?
Imagen: Geralt/Pixabay

El lunes 20 de febrero de 2023, RacismoMX y Unesco México lanzaron la campaña #RevolucionaElAlgoritmo, un esfuerzo por visibilizar y detonar la reflexión sobre los contenidos que consumimos de forma muchas veces indiscriminada en internet. También, a través del videodocumental Revolución contra el algoritmo, colocamos en la mesa la discusión sobre los sesgos que existen al momento de programar dichos algoritmos.

Si bien tuve oportunidad de escribir un poco sobre esto en mi columna Algoritmos racistas, en esta ocasión me gustaría enfocarme en la responsabilidad de las, los y les generadores de contenido digital como la contraparte de esta discusión.

Me gustaría retomar brevemente el tema de la programación con sesgos y no porque quiera insistir en los sesgos de los cuerpos informáticos o de programación, pero sí en la responsabilidad de las empresas desarrolladoras de capacitar y sensibilizar a su personal con una perspectiva ética y de derechos humanos con el afán de entregar desarrollos lo más responsables y neutros posibles, sobre todo cuando se dirigen a un público tan masivo como son los buscadores, redes sociales o apps móviles.

Dicho esto, propongo partir del supuesto en el que estos desarrollos tecnológicos cumplen con una hipotética neutralidad e inocencia en su forma de aprender artificialmente. ¿Qué pasaría? ¿El algoritmo se encargaría de reprendernos y corregir nuestros comportamientos digitales? ¿Nos daría herramientas para aprender y conocer más sobre nuestros propios sesgos con la finalidad de no seguirlos reproduciendo?

En realidad, esta hipótesis ya se trató de comprobar una vez. Recordemos que en 2016, la plataforma Twitter lanzó un bot con inteligencia artificial llamado Tay, con el objetivo de interactuar con usuarixs de la red y que fue presentada por la empresa tecnológica como “la inteligencia artificial relajada”. Si bien el robot de los tuits inició muy emocionado por conversar y conocer mejor a las personas usuarias, terminó siendo desactivado 16 horas después de su lanzamiento al haberse convertido en un emisor de mensajes de odio racial y xenófobico.

Debido a esto, la experiencia fue calificada como un fracaso. La inteligencia artificial se tornó discriminatoria y violenta. Sin embargo, la pregunta que surge es: ¿Ya estaba programado su fracaso o es eso lo que le pasaría a cualquier inteligencia artificial “relajada” de sesgos? En todo caso, si era una inteligencia artificial relajada, ¿qué la volvió violenta?

La principal hipótesis de lo que sucedió es que la interacción con las personas usuarias de la red y la lectura de la infinidad de mensajes que en ella se emiten le dio a la inteligencia artificial el suficiente conocimiento de las personas para tener la capacidad de interactuar con ellas, encontrándose justamente con una gran cantidad de mensajes de odio, racistas, xenófobos y discriminatorios y estigmatizantes en general, lo que nos deja pensar que no fue únicamente el sesgo implícito en su desarrollo sino que fue alimentado por un monumental número de personas que usamos las redes sociales, y por nuestra poca o mucha responsabilidad al usar nuestra libertad de expresión.

Los algoritmos, conlleven un sesgo o no, no son los únicos responsables de los discursos de odio y estigmatizantes que circulan en internet. Los principales responsables son las personas en su interacción con el contenido y las redes sociales, las empresas que llenan de publicidad los espacios digitales, cualquier medio de comunicación que use estos canales para distribuir información, y también cualquier profesional independiente que genere contenido y lo deposite en la red. En resumen, cualquier persona –física o moral–, empresa, organización, institución, marca y/o ente que tenga un pie en el mundo digital también es y será responsable de alimentar los sesgos que existan o no en un algoritmo.

Síguenos en

Google News
Flipboard