Volar sin caminar
RacismoMX

Es sociólogo de la FCPyS - UNAM y desde hace más de seis años ha trabajado como estratega de comunicación en agencias de publicidad como Havas Creative, MRM-McCann y Leo Burnett México. Actualmente se desempeña como coordinador de Comunicación y Enlace con Empresas en RacismoMX.

TW: @ommi_martinez

Volar sin caminar
Cámaras Hikvision. El Reino Unido es uno de los mayores mercados de la empresa china. Foto: Fred Dufour/AFP/Getty Images

¿Les ha pasado alguna vez que vieron a alguien en la calle y lo confundieron con una persona conocida, o que alguien las haya confundido a ustedes porque eran muy parecidas? o incluso no sé si alguna vez ¿se han descubierto cambiando su forma de caminar de acuerdo a los espacios en los que se encuentran? estos ejemplos aunque son muy banales, podrían ser motivo de un capítulo de la serie de Netflix: Black Mirror si le aplicamos el recién anunciado Plan ANGEL.

El pasado 10 de julio, Marcelo Ebrard anunció (en lo que pareciera ser ya su campaña como presidenciable, sin ser oficial) su Plan de Seguridad Nacional llamado A.N.G.E.L (Avanzadas Normas de GeoLocalización y Seguridad) en el que promete el México más seguro de la historia a través de la implementación de 8 tecnologías globales de avanzada entre las cuales están: reconocimiento facial, reconocimiento morfológico de la delincuencia y procesamiento de toda esa información por Inteligencia artificial, ¿suena bien no?

Sin embargo, la propuesta detona más preguntas que respuestas: ¿la seguridad quedará plenamente en las manos de una computadora? ¿Habrá interacción humana en los procesos? Pero más allá de preguntas sobre las nuevas propuestas, me surgen preguntas sobre la situación de implementación de seguridad e impartición de justicia actual y es que cómo implementaremos nuevas tecnologías cuando las diferentes figuras de autoridad en los diferentes niveles de mando aún no cuentan con una capacitación suficiente para la identificación de responsables. Hasta este punto han de decir que soy un desconfiado o que no quiero la seguridad de mi país, pero pensemos en las experiencias globales también del uso de esas tecnologías:

En 2019, en Argentina[1] un hombre fue detenido en una estación de tren gracias al funcionamiento del reconocimiento facial, sin embargo a pesar del éxito de la tecnología, el resultado no fue el esperado, resultó que una detención injustificada de aquella persona fue el error del elemento de seguridad que está encargado de cargar en el sistema las identidades de personas para su búsqueda, sin ser éste el único caso de detenciones arbitrarias efectuado por la tecnología de reconocimiento.

Si piensan que es una experiencia aislada, ¡error!, esto ha sucedido en países como Estados Unidos o en Londres[2], Inglaterra en el que se registraron hasta el 81% de falsos positivos, debido a los sesgos programados en el reconocimiento facial y las similitudes que pueden existir entre diferentes personas, derivando en detenciones injustificadas y criminalización de personas racializadas, pues la mayoría de éstas compartían tonos de piel, rasgos faciales e incluso procedencia de origen similares.

Imaginemos la aplicación de estas tecnologías si ya estamos pensando que la delincuencia tiene una sola forma de verse, o una sola forma de caminar, y sobre todo el hecho de pensar que toda persona que sea vea o camine de la misma forma ya es considerada como criminal, que sin irnos al futuro, esto es algo que pasa y que se vive todos los días en las rutas de tránsito migrante, en la que se perfila racialmente a las personas por su nacionalidad, su acento, su forma de vestir, etc.

Si bien no me considero una persona anti tecnología, creo que hoy no hemos llegado a un punto en que como sociedad queremos volar sin haber aprendido a caminar y que hoy no somos conscientes de todas las implicaciones que tiene el uso de ella, y sobre todo el manejo de información, de privacidad y de datos que se obtienen de cada una de nosotras. Si bien se nos ofrece seguridad, existen múltiples factores que podrían convertir a la seguridad en vigilancia y control, pero sobre todo en criminalización y manifestación de los sesgos raciales, de clase, etc que aún seguimos teniendo como sociedad mexicana.


[1]

https://tn.com.ar/policiales/de-un-dni-mal-cargado-una-cara-parecida-las-victimas-del-sistema-de-reconocimiento-facial-en-buenos_980528/

[2] https://elpais.com/tecnologia/2021-08-01/reino-unido-el-controvertido-laboratorio-europeo-del-reconocimiento-facial.html

https://www.xataka.com/inteligencia-artificial/sistema-reconocimiento-facial-policia-londres-falla-81-casos-informe-independiente

Síguenos en

Google News
Flipboard