Opinión

EU en la carrera contra la discriminación

La inteligencia artificial hoy atraviesa nuestras vidas y derechos, y en ese sentido, nos corresponde democratizarla, vigilarla y exigir medidas para prevenir las discriminaciones, ahora algorítmicas.

Publicado por:

La determinación tecnológica es solo un espacio ideológico abierto para los replanteamientos de las máquinas como textos decodificados, a través de los cuales nos adentramos en el juego de escribir y leer al mundo

Haraway

La tecnología nunca es neutral. Eso me lo enseñó Marisol Garrido, una matemática que ha estudiado durante años los riesgos potenciales de la inteligencia artificial (IA). Sin embargo, hasta hace no mucho tiempo, no todas las personas y gobiernos lo creían. Regular el diseño, despliegue y uso de la inteligencia artificial encontraba muchos detractores, y nos llegaban a convencer de que, al hacerlo, se pondrían en riesgo los avances tecnológicos.

Hoy sabemos que esto no es cierto, y a pesar que la normatividad siempre irá un paso atrás, es necesaria. Ahora contamos con distintos tipos de marcos regulatorios para la IA: (1) códigos éticos; (2) política pública y, (3) legislaciones.

Las legislaciones son los marcos más recientes y los que más fuerza tienen debido a su obligatoriedad, teniendo como principales referentes a la Unión Europea (UE) y esta semana, a Estados Unidos.

Si bien hay críticas a la legislación de la UE sobre si el modelo puede o no ser la base para contextos del Sur Global, especialmente para Latinoamérica, lo interesante es que ya se advierte una necesidad por legislar los potenciales riesgos ––actuales y futuros––, en cuanto a la reproducción de las desigualdades y respecto a la necesidad de democratizar su vigilancia.

Esta semana, la Casa Blanca informó la promulgación de un decreto para regular la IA, en el cual, garantizar la protección de los derechos humanos es una de las prioridades. De acuerdo con el comunicado, esta normativa establece normas para la seguridad, protección de datos y privacidad, acciones para defender a personas consumidoras y trabajadoras, así como promoción de la innovación y competencia de manera responsable.

En lo que respecta a la igualdad y no discriminación, vale la pena destacar el apartado Blueprint for an AI Bill of Rights, en el que se reconoce que los sistemas de IA, por ejemplo, aquellos que supuestamente deberían ayudar a mejorar la atención de personas enfermas son potencialmente inseguros. Que los algoritmos que deciden sobre la contratación de un crédito reflejan y reproducen desigualdades e incorporan nuevos prejuicios. Se menciona cómo los sistemas de escaneos corporales obligan a las personas operadoras a seleccionar el género en función de percepción, y la alta probabilidad de que las personas intersex sean elegidas para controles adicionales, para lo cual, se anuncian planes para implantar un algoritmo de género neutro que también mejore la eficacia de la tecnología en materia de seguridad.

Para prevenir estos riesgos, se proponen cinco principios, uno de ellos fundamental para no reforzar desigualdades: Protecciones contra la discriminación algorítmica.

Este principio señala medidas para asegurar que los diseños vayan encaminados a generar igualdad. Menciona las categorías sospechosas por las que se puede discriminar: raza, color, etnia, sexo, identidad de género, intersexualidad y orientación sexual; afecciones médicas relacionadas con embarazo y parto; religión, edad, origen nacional, discapacidad, condición de veterano, información genética o cualquier otra clasificación protegida por la ley.

Un factor fundamental es la obligatoriedad a las personas diseñadoras, grandes desarrolladores e implementadores de sistemas automatizados de llevar a cabo medidas proactivas antes, durante y después del despliegue, tales como:

  • Evaluaciones en el diseño, uso y protección de datos representativos
  • Protección frente a los sustitutos de características demográficas
  • Accesibilidad para personas con discapacidad en el diseño y desarrollo
  • Pruebas y mitigación de disparidades antes y durante el despliegue
  • Evaluaciones e informes independientes de los impactos algorítmicos
  • Pruebas de disparidad
  • Información sobre mitigación que debe realizarse y hacerlo público

Sabemos que en la aplicación de todas estas medidas habrá fallas, intereses y simulaciones; pero lo relevante es la visibilización y reconocimiento de los riesgos. México no cuenta con legislación ni con una Estrategia de IA como política pública. Hay algunos intentos que se han quedado cortos y no pasará mucho en tener las primeras propuestas legislativas.

Sea la propuesta que sea, debemos tener claro que no es un tema que pertenezca únicamente a los grandes desarrolladores. La inteligencia artificial hoy atraviesa nuestras vidas y derechos, y en ese sentido, nos corresponde democratizarla, vigilarla y exigir medidas para prevenir las discriminaciones, ahora algorítmicas.

Entradas recientes

  • México

Sentencian a 55 años de prisión a hombre que mató a conductor de taxi por aplicación en el Edomex

Edgar Yandel fue sentenciado por el delito de homicidio calificado.

13 mayo, 2024
  • The Guardian

El sueño no ayuda al cerebro a eliminar toxinas, según un estudio

La conclusión de que el cerebro de los ratones elimina menos líquido durante el sueño y la anestesia va en…

13 mayo, 2024
  • México

Doble Hoy No Circula para mañana martes 14 de mayo por Contingencia Ambiental

La CAMe anunció la medida restrictiva para este martes 14 de mayo.

13 mayo, 2024
  • Internacional

Congresistas de EU piden quitar fondos a México por incumplimiento de entrega de agua

Piden congelar fondos asignados a México para forzar a cumplir con sus obligaciones enviar 2 mil 160 millones de metros…

13 mayo, 2024
  • Cultura

Feria de los Museos CDMX: Fecha, horario y actividades gratis

La Feria de Museos CDMX ya tiene fecha. Estos son los horarios, las rutas del Circuito de Museos, los museos…

13 mayo, 2024
  • Entretenimiento

¿Como en ‘Bebé reno’? Miranda Cosgrove revela que la acosó un fan

La actriz de 'iCarly' contó que fue víctima de un acosador en 2016.

13 mayo, 2024