Opinión

¿Navegar sin sesgos?

Cualquier persona –física o moral–, empresa, organización, institución, marca y/o ente que tenga un pie en el mundo digital también es y será responsable de alimentar los sesgos que existan o no en un algoritmo.

Publicado por:

El lunes 20 de febrero de 2023, RacismoMX y Unesco México lanzaron la campaña #RevolucionaElAlgoritmo, un esfuerzo por visibilizar y detonar la reflexión sobre los contenidos que consumimos de forma muchas veces indiscriminada en internet. También, a través del videodocumental Revolución contra el algoritmo, colocamos en la mesa la discusión sobre los sesgos que existen al momento de programar dichos algoritmos.

Si bien tuve oportunidad de escribir un poco sobre esto en mi columna Algoritmos racistas, en esta ocasión me gustaría enfocarme en la responsabilidad de las, los y les generadores de contenido digital como la contraparte de esta discusión.

Me gustaría retomar brevemente el tema de la programación con sesgos y no porque quiera insistir en los sesgos de los cuerpos informáticos o de programación, pero sí en la responsabilidad de las empresas desarrolladoras de capacitar y sensibilizar a su personal con una perspectiva ética y de derechos humanos con el afán de entregar desarrollos lo más responsables y neutros posibles, sobre todo cuando se dirigen a un público tan masivo como son los buscadores, redes sociales o apps móviles.

Dicho esto, propongo partir del supuesto en el que estos desarrollos tecnológicos cumplen con una hipotética neutralidad e inocencia en su forma de aprender artificialmente. ¿Qué pasaría? ¿El algoritmo se encargaría de reprendernos y corregir nuestros comportamientos digitales? ¿Nos daría herramientas para aprender y conocer más sobre nuestros propios sesgos con la finalidad de no seguirlos reproduciendo?

En realidad, esta hipótesis ya se trató de comprobar una vez. Recordemos que en 2016, la plataforma Twitter lanzó un bot con inteligencia artificial llamado Tay, con el objetivo de interactuar con usuarixs de la red y que fue presentada por la empresa tecnológica como “la inteligencia artificial relajada”. Si bien el robot de los tuits inició muy emocionado por conversar y conocer mejor a las personas usuarias, terminó siendo desactivado 16 horas después de su lanzamiento al haberse convertido en un emisor de mensajes de odio racial y xenófobico.

Debido a esto, la experiencia fue calificada como un fracaso. La inteligencia artificial se tornó discriminatoria y violenta. Sin embargo, la pregunta que surge es: ¿Ya estaba programado su fracaso o es eso lo que le pasaría a cualquier inteligencia artificial “relajada” de sesgos? En todo caso, si era una inteligencia artificial relajada, ¿qué la volvió violenta?

La principal hipótesis de lo que sucedió es que la interacción con las personas usuarias de la red y la lectura de la infinidad de mensajes que en ella se emiten le dio a la inteligencia artificial el suficiente conocimiento de las personas para tener la capacidad de interactuar con ellas, encontrándose justamente con una gran cantidad de mensajes de odio, racistas, xenófobos y discriminatorios y estigmatizantes en general, lo que nos deja pensar que no fue únicamente el sesgo implícito en su desarrollo sino que fue alimentado por un monumental número de personas que usamos las redes sociales, y por nuestra poca o mucha responsabilidad al usar nuestra libertad de expresión.

Los algoritmos, conlleven un sesgo o no, no son los únicos responsables de los discursos de odio y estigmatizantes que circulan en internet. Los principales responsables son las personas en su interacción con el contenido y las redes sociales, las empresas que llenan de publicidad los espacios digitales, cualquier medio de comunicación que use estos canales para distribuir información, y también cualquier profesional independiente que genere contenido y lo deposite en la red. En resumen, cualquier persona –física o moral–, empresa, organización, institución, marca y/o ente que tenga un pie en el mundo digital también es y será responsable de alimentar los sesgos que existan o no en un algoritmo.

Entradas recientes

  • Entretenimiento

Tecate Emblema 2024: Horarios del sábado 18 de mayo

Estos son los horarios de Tecate Emblema 2024 del sábado 18 de mayo donde podrás ver a Christina Aguilera, Calvin…

17 mayo, 2024
  • Entretenimiento

Tecate Emblema 2024: Horarios del viernes 17 de mayo

Estos son los horarios de Tecate Emblema 2024 del viernes 17 de mayo donde podrás ver a Sam Smith, Maneskin,…

17 mayo, 2024
  • Entretenimiento

La actriz Verónica Toussaint muere por cáncer a los 48 años de edad

La intérprete luchó contra la enfermedad a lo largo de tres años.

16 mayo, 2024
  • Poder

Clara Brugada promete apoyo al sector inmobiliario de la CDMX

Se reunió con la Asociación de Desarrolladores Inmobiliarios.

16 mayo, 2024
  • La-Lista Labs

Eruviel Ávila llama al Voto Verde para defender casillas de ‘cochupos’ de la oposición

'Ya se anda hablando por ahí que algunos de la oposición quieren hacer trampa y quieren anular la elección, y…

16 mayo, 2024
  • La-Lista Labs

Reconoce TEPJF a exmagistrado José Alejandro Luna Ramos por su contribución al derecho electoral

El TEPJF confirió el Doctorado Honoris Causa al exmagistrado presidente de la Sala Superior, José Alejandro Luna Ramos.

16 mayo, 2024