La inteligencia artificial se ha posicionado como una herramienta valiosa para el manejo de datos y la predicción de fenómenos de diversas categorías, también se ha utilizado en múltiples ámbitos como el pronóstico de fenómenos naturales y el análisis de áreas como economía, marketing, preferencias electorales, entre otras.
Sin embargo, al igual que toda la ciencia y tecnología, la IA es producto de la visión de sus creadores, de los valores, preferencias, metas y sesgos de las personas que las desarrollan.
Lo mencionado tiene múltiples implicaciones, ya que, en el caso de la Inteligencia Artificial y su asombrosa capacidad para realizar proyecciones a partir de los datos suministrados, ha tenido sesgos racistas, debido a que los algoritmos “aprenden” mediante datos históricos que mantienen los prejuicios de la época en que se recopilaron.
Te puede interesar: Conectados, pero más solos: el dilema de la IA emocional
En el documental titulado “Coded Bias” (2020) la científica en informática Joy Buolamwini, relata su experiencia al interactuar con una aplicación de reconocimiento facial que solo era capaz de identificar el color de piel blanco.
Esta no es una situación anecdótica, en Estados Unidos se ha implementado tecnología sensorial, por ejemplo, para la apertura de puertas o el uso de lavabos, estos sensores parecen “ignorar” a las personas en función de su color de piel.
Como menciona Buolamwini “La desigualdad comienza con el hardware, los sensores, la tecnología parte de la reflexión de la luz como base, no se toma en cuenta a poblaciones que reflejan la luz de otra forma”. Este problema no se limita a Occidente, en Oriente también se ha aplicado la tecnología con sesgos raciales.
Para evitar situaciones de este tipo es necesaria la amplificación de bases de datos con usos incluyentes en la tecnología, para hacer uso de los avances tecnológicos en beneficio de toda la población.
Otro de los fallos discriminativos de la inteligencia artificial es la denominada “policía predictiva”, una aplicación tecnológica que mediante el uso de información como: localización, antecedentes penales, incidencia del crimen y el contexto de una región, pretende evitar el crimen al predecir quién puede romper la ley.
Amnistía Internacional expuso en su reporte “Automated Racism” (2025) que la base de datos de la policía de Inglaterra, utilizada por la policía preventiva, se basa en: condiciones socioeconómicas, el color de piel y el lugar en donde viven. Estos elementos fácilmente pueden usarse para criminalizar a las personas, además de que son propiciados por prejuicios y estigmas sociales.
Te puede interesar: Vivir al límite de la appificación
Tal vez, lo que debemos reflexionar es que las bases de datos y la recolección de la información con la que se programan las IA, en muchos casos fueron recopiladas con sesgos y prejuicios con los que se estigmatizó a las poblaciones vulneradas.
Para especialistas como la filósofa Carissa Véliz la problemática ya es preocupante, pero puede empeorar al expandirse el uso de esta tecnología para dificultar el acceso a la vivienda o las ofertas de trabajo a las poblaciones señaladas como “peligrosas” o “inadecuadas”.
La propuesta es que la tecnología sea utilizada con ética y se priorice el respeto por los derechos humanos al hacer uso de ella. Como menciona Nakeema Stefflbauer, especialista en ética en IA: “La inteligencia artificial no hará al mundo más justo, eso lo hará la gente”.
Ahora debemos preguntarnos: Si la IA ha reflejado nuestros prejuicios, ¿estamos dispuestos a cambiar las bases en las que se construye y así tener una sociedad más respetuosa y justa?
Referencias bibliográficasKantayya, S. (Dirección). (2020). Coded Bieas [Película].
UK, A. I. (2025). Automated Racism: H