Nos han querido vender la idea de que la inteligencia artificial (IA) es el futuro de los conflictos bélicos: más precisa, más eficiente y capaz de reducir las bajas militares y civiles. En exposiciones de armas como la Eurosatory Conference, una de las mayores ferias internacionales de defensa y seguridad, los avances en IA militar llevan años exhibiéndose con orgullo. Fue hasta este año que Israel fue excluido por primera vez de participar debido a su atroz ofensiva en Gaza; un reconocimiento tácito de que aún dentro de la industria armamentista hay un creciente debate sobre el uso de estas tecnologías.
Lavender y las bajas “colaterales”: ¿aceptables?
Sistemas como “Lavender” y “Blue Wolf”, utilizados por Israel en Gaza y Cisjordania, son el ejemplo perfecto de cómo la aplicación de la IA a actividades bélicas tiene consecuencias inquietantes. Tras la promesa de una guerra más “limpia”, lo que encontramos son guerras de agresión cada vez más automatizadas, deshumanizantes y carentes de conciencia.
Lavender es un sistema de IA que automatiza la identificación de objetivos y la ejecución de ataques. Aunque se presenta como una herramienta para reducir las bajas civiles, los parámetros con los que fue programado son profundamente perturbadores. Se considera, por ejemplo, “aceptable” que por cada líder militar de Hamás, la Yihad Islámica o Hezbolá que sea asesinado, mueran hasta cien civiles, junto con la destrucción de varios edificios.[1]
Otro ejemplo preocupante es Blue Wolf, una herramienta para registro de datos biométricas que captura desde 2019 los rostros de residentes de Cisjordania, incluidos adultos mayores, niñas y niños. Están también la IAs Where is daddy? o The Gospel (El Evangelio) que han sido programados para determinar si una persona es probable miembro de Hamas. Dentro de sus parámetros de selección aceptables se encuentran el hecho de ser varón (no hay mujeres en la cúpula de Hamas) o de cambiar con frecuencia de teléfono móvil cuestión que ocurre con alta frecuencia entre civiles en zonas devastadas por la guerra. Estos “parámetros” no dejan de formar parte de modelos probabilísticos cuyo margen de error de 10% ha sido reconocido de manera oficial por el gobierno Israelí. “Inteligencias” como Lavender, recomiendan incluso conducir ataques de noche simplemente para aumentar las probabilidades de que los sujetos determinados como objetivos se encuentre en casa. Esto aumenta desde luego las probabilidades de que familiares y vecinos sucumban también.
Esta lógica, que sacrifica vidas civiles a diestra y siniestra – basta con revisar lo ocurrido en Gaza o Líbano- como daño colateral “tolerable”, no solo es inmoral, sino que refuerza un desprecio total por la vida humana en nombre de una supuesta “eficiencia” militar.
Inteligencia humana vs. IA: lo que los modelos no pueden hacer
Es aquí donde resulta fundamental considerar las diferencias esenciales entre la inteligencia humana y la inteligencia artificial. La inteligencia humana no solo procesa información, sino que también razona, evalúa y toma decisiones morales. El filósofo y lingüista Noam Chomsky lo expresa claramente: la IA “ni es inteligencia ni es artificial”[2]. No posee las capacidades básicas de la inteligencia humana, que es capaz de arribar a conclusiones a partir de pequeñas cantidades de datos y, más importante aún, de formular explicaciones complejas para los fenómenos que observa. Tampoco es verdaderamente artificial, ya que depende de los datos que nosotros le suministramos, de los parámetros y etiquetados que nosotros hacemos y de la intencionalidad que los seres humanos – con nuestros sesgos inherentes- definimos para que pueda funcionar.
Los sistemas de IA son altamente eficientes para identificar patrones a partir de grandes volúmenes de datos, sin embargo, diferencia de la inteligencia humana, carecen de comprensión moral. No pueden discernir entre lo correcto y lo incorrecto, ya que su operación se basa en correlaciones estadísticas, no en juicios éticos.
Más importante aún, la IA no sabe cuándo se equivoca. Puede aprender que la Tierra es plana o que es redonda, según cómo se le instruya. No tiene la capacidad de cuestionar la información que procesa ni de hacer juicios críticos. Esto hace que sea peligrosamente apática ante las consecuencias de sus acciones. El juicio moral y la capacidad de detenerse y reconsiderar son propiedades únicas de la inteligencia humana, algo que las máquinas no pueden replicar.
El peligro de una guerra sin juicio moral: la capacidad humana de autolimitación
La militarización de la IA no solo transforma la guerra en un proceso aún más deshumanizante, sino que también amenaza con socavar los principios fundamentales del Derecho Internacional Humanitario (DIH). Este marco legal, cuidadosamente desarrollado, se basa en pilares clave como la distinción entre combatientes y civiles, la proporcionalidad (que prohíbe ataques desmedidos en relación al objetivo militar) y el principio de precaución, que obliga a minimizar los daños colaterales, además de prohibir la provocación de sufrimiento innecesario. La ausencia de juicio moral en las decisiones automatizadas nos arroja un escenario en el que la violencia se vuelve indiscriminada, y las víctimas civiles se reducen a “daños colaterales aceptables” dentro de un modelo numérico.
Este es un problema ético de gran magnitud. Sin regulaciones claras y sin una supervisión humana adecuada, corremos el riesgo de agravar los conflictos y entrar en un terreno donde las leyes y la ética son relegadas a un segundo plano. La guerra no puede convertirse en una cuestión de probabilidades calculadas por IA desprovistas de análisis contextual y de evaluación ética y moral. Precisamente, la inteligencia humana opera no sólo en términos de lo que es posible, sino también en términos de lo que debe o no debe suceder, especialmente, cuando diversas posibilidades son técnicamente factibles o podrían parecer desde una lógica utilitaria o numérica más convenientes. Este tipo de raciocinio, basado en principios éticos, permite la autolimitación que además de ponderar los contextos, se especializa en matizar los escenarios y no tratarlos todos como iguales.
Es por ello que el énfasis en desarrollar una formación filosófica y humanista sólida que acompañe el avance tecnológico es crucial. Solo así podremos evitar que nuestras capacidades tecnológicas superen nuestra capacidad de juzgar y autolimitar nuestras acciones. Solo así podremos garantizar que nuestra capacidad para crear no despoje a la guerra de cualquier consideración relativa a la dignidad y la vida humanas.
[1] El uso de Lavender fue reportado por primera vez por el periódico inglés The Guardian en abril de 2024. Para conocer más detalles: Davies, H., & McKernan, B. (2024, April 4). ‘The machine did it coldly’: Israel used AI to identify 37,000 Hamas targets. The Guardian. https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-airstrikes
[2] Para conocer más: Chomsky, N., Roberts, I., & Watumull, J. (2023, March 8). Noam Chomsky: The False Promise of ChatGPT. The New York Times. https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html