EU en la carrera contra la discriminación
Un cuarto público

Abogada y escritora de clóset. Dedica su vida a temas de género y feminismos. Fundadora de Gender Issues, organización dedicada a políticas públicas para la igualdad. Cuenta con un doctorado en Política Pública y una estancia postdoctoral en la Universidad de Edimburgo. Coordinó el Programa de Género de la Escuela de Gobierno del Tecnológico de Monterrey durante tres años y es profesora en temas de género. Actualmente es Directora de Género e Inclusión Social del proyecto SURGES en The Palladium Group.

X: @tatianarevilla

EU en la carrera contra la discriminación
La controversia en torno a Gemini toca fibras sensibles en la conciencia social y ética de nuestra sociedad, reflejando una arraigada discriminación, negligencia tecnológica, y la falta de empatía en el desarrollo y despliegue de inteligencia artificial. Foto: Tara Winstead/pexels

La determinación tecnológica es solo un espacio ideológico abierto para los replanteamientos de las máquinas como textos decodificados, a través de los cuales nos adentramos en el juego de escribir y leer al mundo

Haraway

La tecnología nunca es neutral. Eso me lo enseñó Marisol Garrido, una matemática que ha estudiado durante años los riesgos potenciales de la inteligencia artificial (IA). Sin embargo, hasta hace no mucho tiempo, no todas las personas y gobiernos lo creían. Regular el diseño, despliegue y uso de la inteligencia artificial encontraba muchos detractores, y nos llegaban a convencer de que, al hacerlo, se pondrían en riesgo los avances tecnológicos.

Hoy sabemos que esto no es cierto, y a pesar que la normatividad siempre irá un paso atrás, es necesaria. Ahora contamos con distintos tipos de marcos regulatorios para la IA: (1) códigos éticos; (2) política pública y, (3) legislaciones.

Las legislaciones son los marcos más recientes y los que más fuerza tienen debido a su obligatoriedad, teniendo como principales referentes a la Unión Europea (UE) y esta semana, a Estados Unidos.

Si bien hay críticas a la legislación de la UE sobre si el modelo puede o no ser la base para contextos del Sur Global, especialmente para Latinoamérica, lo interesante es que ya se advierte una necesidad por legislar los potenciales riesgos ––actuales y futuros––, en cuanto a la reproducción de las desigualdades y respecto a la necesidad de democratizar su vigilancia.

Esta semana, la Casa Blanca informó la promulgación de un decreto para regular la IA, en el cual, garantizar la protección de los derechos humanos es una de las prioridades. De acuerdo con el comunicado, esta normativa establece normas para la seguridad, protección de datos y privacidad, acciones para defender a personas consumidoras y trabajadoras, así como promoción de la innovación y competencia de manera responsable.

En lo que respecta a la igualdad y no discriminación, vale la pena destacar el apartado Blueprint for an AI Bill of Rights, en el que se reconoce que los sistemas de IA, por ejemplo, aquellos que supuestamente deberían ayudar a mejorar la atención de personas enfermas son potencialmente inseguros. Que los algoritmos que deciden sobre la contratación de un crédito reflejan y reproducen desigualdades e incorporan nuevos prejuicios. Se menciona cómo los sistemas de escaneos corporales obligan a las personas operadoras a seleccionar el género en función de percepción, y la alta probabilidad de que las personas intersex sean elegidas para controles adicionales, para lo cual, se anuncian planes para implantar un algoritmo de género neutro que también mejore la eficacia de la tecnología en materia de seguridad.

Para prevenir estos riesgos, se proponen cinco principios, uno de ellos fundamental para no reforzar desigualdades: Protecciones contra la discriminación algorítmica.

Este principio señala medidas para asegurar que los diseños vayan encaminados a generar igualdad. Menciona las categorías sospechosas por las que se puede discriminar: raza, color, etnia, sexo, identidad de género, intersexualidad y orientación sexual; afecciones médicas relacionadas con embarazo y parto; religión, edad, origen nacional, discapacidad, condición de veterano, información genética o cualquier otra clasificación protegida por la ley.

Un factor fundamental es la obligatoriedad a las personas diseñadoras, grandes desarrolladores e implementadores de sistemas automatizados de llevar a cabo medidas proactivas antes, durante y después del despliegue, tales como:

  • Evaluaciones en el diseño, uso y protección de datos representativos
  • Protección frente a los sustitutos de características demográficas
  • Accesibilidad para personas con discapacidad en el diseño y desarrollo
  • Pruebas y mitigación de disparidades antes y durante el despliegue
  • Evaluaciones e informes independientes de los impactos algorítmicos
  • Pruebas de disparidad
  • Información sobre mitigación que debe realizarse y hacerlo público

Sabemos que en la aplicación de todas estas medidas habrá fallas, intereses y simulaciones; pero lo relevante es la visibilización y reconocimiento de los riesgos. México no cuenta con legislación ni con una Estrategia de IA como política pública. Hay algunos intentos que se han quedado cortos y no pasará mucho en tener las primeras propuestas legislativas.

Sea la propuesta que sea, debemos tener claro que no es un tema que pertenezca únicamente a los grandes desarrolladores. La inteligencia artificial hoy atraviesa nuestras vidas y derechos, y en ese sentido, nos corresponde democratizarla, vigilarla y exigir medidas para prevenir las discriminaciones, ahora algorítmicas.

Síguenos en

Google News
Flipboard