¿Sabías que, cuando mandas tu currículum a una empresa, es muy probable que un algoritmo decida si pasas o no el primer filtro? ¿O que los anuncios de vivienda o empleo que te sugiere Instagram pueden estar determinados por tu género o color de piel?
Quienes desarrollan tecnologías de inteligencia artificial (IA) suelen defender la neutralidad de estos sistemas, pero hoy sabemos que la tecnología nunca es neutral. Así como, s somo humanos tenemos sesgos, la IA también.
Las injusticias algorítmicas — especialmente por razones de género, color de piel o nivel socioeconómico— se han visibilizado desde hace un tiempo, e incluso, cada vez más, están llegado a los tribunales, sobre todo en países del norte global.
Te puede interesar: Olas de calor y de justicia: el género a litigio
Un caso que marcó un precedente importante en Estados Unidos fue EEOC contra iTutorGroup Inc. En 2023, la Comisión para la Igualdad de Oportunidades en el Empleo (EEOC, por sus siglas en inglés) demandó a la empresa iTutorGroup por utilizar un software de IA que discriminaba en sus procesos de contratación. La comisión argumentó que este sistema rechazaba automáticamente a personas mayores —en particular a mujeres—, violando leyes federales contra la discriminación por edad y género. Como resultado, la empresa debió pagar una compensación de 365,000 dólares y rediseñar su software para ajustarse a la normativa antidiscriminación.
Otro caso que me sorprendió fue el presentado por la organización de mujeres Real Women in Trucking contra Meta. En 2022, esta agrupación de mujeres transportistas presentó una demanda colectiva ante la EEOC contra de Meta Platforms alegando que el algoritmo de Facebook discriminaba a mujeres y personas mayores al decidir quién veía los anuncios laborales.
La denuncia incluyó evidencia sobre cómo el algoritmo favorecía a hombres en un 90% en aquellos trabajos que el sistema consideraba masculinos, como los de transporte. Aunque en 2023 otra organización se sumó a la demanda, el caso sigue en curso y no tiene aún una resolución definitiva.
Otro caso que ha sido un referente constante para demostrar cómo la tecnología no es neutral al género, es el software creado por Amazon para automatizar el reclutamiento y selección de personal. En 2014, la empresa desarrolló este sistema, pero al poco tiempo se demostró que el algoritmo fue entrenado con datos históricos sesgados, lo que resultaba en que los hombres fueran favorecidos en la selección y, en contraste, se penalizarán términos asociados a mujeres dejándolas fuera de la selección.
Te puede interesar: Después del desastre, ¿quién cuida?
Aunque este caso no llegó a tribunales, Amazon aceptó que el uso del algoritmo estaba sesgado y suspendió el lanzamiento del sistema.
En México, aunque diversas organizaciones han documentado y denunciado discriminaciones algorítmicas y digitales, aún no conocemos un caso que, por su magnitud y resolución, marque un verdadero precedente en tribunales.
No creo que ese momento tarde mucho. Pronto escucharemos estas historias en voz alta, no sólo en informes o foros, sino en sentencias que podrían abrir —o cerrar— caminos. Por eso, hoy más que nunca debemos estar atentxs, porque los algoritmos están decidiendo por nosotrxs, moldeando nuestras oportunidades, nuestros derechos y nuestras vidas, a veces, sin siquiera darnos cuenta.