Síguenos

 

El despliegue de las máquinas asesinas: el peligroso ascenso de la IA militar

El despliegue de las máquinas asesinas: el peligroso ascenso de la IA militar

Las máquinas autónomas capaces de ejercer fuerza mortal son cada vez más prevalentes en las guerras modernas, a pesar de los numerosos dilemas éticos. ¿Podemos hacer algo para detener el avance de los robots asesinos?

i
Foto: Computerizer/Pixabay.com

Recibe en tu correo el newsletter de La-Lista

Frank Pasquale/The Guardian

El video es brutal. Hay dos hombres amenazadores parados junto a una camioneta blanca en un campo, tienen controles remotos en las manos. Abren las puertas traseras de la camioneta, y las hélices de los drones comienzan a chillar. Con el click de un botón, los drones vuelan como una colonia de murciélagos saliendo de una cueva. Corte a un salón de universidad. Los robots asesinos se filtran por las ranuras y ventanas. Los estudiantes gritan aterrados, están atrapados dentro mientras los drones atacan con fuerza letal. La lección que la película Slaughterbots intenta dejar clara: los pequeños robots asesinos ya llegaron o están por llegar. Los terroristas pueden desplegarlos con facilidad. Las opciones defensivas son débiles o inexistentes.

Algunos expertos militares aseguran que Slaughterbots, hecha por el Future of Life Institute, una organización que investiga las amenazas existenciales contra el ser humano, es la sensacionalización de un problema serio, pues induce miedo donde tendría que haber calma y reflexión. Pero cuando se trata de las guerras del futuro, la línea entre ciencia ficción y hechos industriales suele ser muy tenue. La Fuerza Aérea de Estados Unidos predijo un futuro en el que “escuadrones SWAT desplegarán insectos mecánicos equipados con videocámaras para infiltrarse en edificios durante situaciones con rehenes”. Una “colaboración de microsistemas” estrenó a Octoroach, un “robot extremadamente pequeño con una cámara y un radiotransmisor que puede cubrir hasta 100 metros por el suelo”. Es sólo una de las armas “biomiméticas”, o imitadoras de la naturaleza, que aparecen en el horizonte.

También lee: Cartel Project | ‘Culpables’: los países que venden las armas que matan a los periodistas de México

No sabemos cuántas otras criaturas nocivas son ahora modelos para los teóricos militares más vanguardistas. Una novela reciente de PW Singer y August Cole, ambientada en un futuro cercano donde Estados Unidos se encuentra en medio de una guerra con Rusia y China, presenta una visión caleidoscópica de drones autónomos, láseres y satélites secuestrados. El libro no puede ser desechado como una fantasía tecnomilitar: incluye cientos de notas al pie de página que documentan el desarrollo de cada pieza de equipo y programas que aparecen.

Los avances en la modelización de máquinas robóticas asesinas no son menos estremecedores. Una historia rusa de ciencia ficción de los 60s, “Crabs on the Island”, describe una especie de juegos del hambre para inteligencias artificiales, en donde los robots combaten entre ellos para conseguir recursos. Los perdedores eran destruidos y los ganadores volvían a participar, hasta que alguno evolucionara para ser la mejor máquina asesina. Cuando un importante especialista en informática mencionó un escenario similar a la Agencia de Proyectos de Investigación Avanzados de Defensa de Estados Unidos (Darpa), al que llamó “Jurassic Park robótico”, un líder dijo que era “viable”. No hace falta mucha reflexión para darse cuenta de que tal experimento tiene el potencial de salirse de control. El costo es el principal obstáculo para cualquier gran potencia que quiera experimentar con la fuerza destructiva de las máquinas. La modernización de software podría eliminar incluso esa barrera, pues permite que simulaciones virtuales de las batallas inspiren futuras inversiones militares.

También lee: ‘Nadie puede bloquearla’: cómo Telegram alimenta la protesta global

En el pasado, los estados se han unido para prohibir armas particularmente crueles o aterradoras. A mediados del Siglo XX, las convenciones internacionales prohibieron las armas químicas y biológicas. La comunidad de las naciones también vetó el uso de tecnología láser cegadora. Una sólida red de ONGs logró convencer a la ONU de acordar con sus miembros un pacto para vetar el uso de robots asesinos y otras armas que pueden actuar por sí mismas, sin control humano directo, para destruir un objetivo (mejor conocidas como sistemas autónomos de armas letales, o Laws por sus siglas en inglés). Y aunque hay debates alrededor de la definición de tal tecnología, es fácil imaginar tipos de armas particularmente aterradoras que todos los estados estarían de acuerdo en no desplegar. Un drone que incremente gradualmente la temperatura de sus enemigos hasta la muerte violaría las convenciones internacionales contra la tortura; las armas sónicas diseñadas para destruir el oído o el balance de sus enemigos merece la misma clasificación. Un país que diseñe y utilice tal armamento debería ser exiliado de la comunidad internacional.

En teoría, podríamos acordar que los diseñadores y usuarios de robots asesinos merecen ostracismo y castigos más fuertes. La simple idea de una máquina desplegada para asesinar es escalofriante. Y aún así, algunos de los ejércitos más grandes del mundo parecen acercarse al desarrollo de tal armamento, al perseguir una lógica de disuasión: temen ser aplastados por la IA de sus rivales si no son capaces de liberar fuerzas similares. La clave para resolver la complicada carrera armamentista yace más en una cautelosa reconsideración sobre las posibilidades de la IA militar, que en los tratados globales.  Mientras “la guerra llega a casa”, el despliegue de fuerza en niveles militares dentro de los territorios de Estados Unidos o China es una advertencia para sus ciudadanos: cualquier tecnología de control y destrucción que permitan al gobierno comprar para usar en el extranjero, en el futuro podrá ser usada contra ellos mismos.

https://la-lista.com/cartel-project/2020/12/08/cartel-project-asi-es-como-el-cartel-de-sinaloa-creo-una-red-global-para-el-trafico-del-fentanilo

¿Los robots asesinos son tan horripilantes como las armas biológicas? No necesariamente, según algunos teóricos militares del establishment y expertos en informática. De acuerdo con Michael Schmitt del US Naval War College, los robots militares podrían patrullar los cielos para asegurarse que matanzas como la de Saddam Hussein con los Kurdos y árabes del pantano no ocurran de nuevo. Ronald Arkin del Georgia Institute of Technology cree que los Laws podrían  “reducir la inhumanidad de los hombres a través de la tecnología”, ya que un robot no estará sujeto a la rabia demasiado humana, al sadismo o la crueldad. Él propuso sacar a los humanos de la ecuación de las decisiones sobre objetivos, y programar a los robots con limitaciones éticas. Arkin también desarrolló la clasificación de objetivos para proteger sitios como escuelas y hospitales.

En teoría, parece razonable preferir violencia maquinaria controlada en lugar de violencia humana impredecible. Las masacres que suceden durante las guerras suelen estar conectadas con emociones irracionales, aún así parece que reservamos nuestras condenas más profundas no para la violencia pasional, sino para los asesinos premeditados que planean sus ataques con frialdad. La historia de las guerras ofrece muchos ejemplos de masacres planeadas con cuidado. Y seguramente cualquier sistema de armamento robótico contará con alguna clase de desactivación manual, que podría ser controlada por operadores humanos, sujetos a todas las pasiones e irracionalismos que puede tener una persona.

Cualquier intento de codificar derecho y ética en los sistemas de un robot asesino presenta enormes dificultades prácticas. El profesor de ciencias computacionales Noel Sharkey argumenta que es imposible programar a un robot guerrero con reacciones al infinito espectro de situaciones que pueden darse durante los conflictos. Igual que un vehículo autónomo cegado por la nieve que interfiere con sus sensores, un Laws es peligroso en la guerra.

También lee: Obituario: John Le Carré, el novelista que nos enseñó a espiar

Muchos soldados estarían de acuerdo que la experiencia diaria durante la guerra consiste en largos periodos de aburrimiento con súbitos picos de desastres aterradores. Parece imposible estandarizar los testimonios de tales incidentes para guiar las armas robóticas. El Machine Learning funciona mejor cuando hay conjuntos de datos masivos con ejemplos claros de bien y mal, correcto e incorrecto. Por ejemplo, las compañías de tarjetas de crédito mejoraron la detección de fraude con mecanismos que analizan constantemente millones de transacciones, donde los falsos negativos y falsos positivos son notorios, con 100% de precisión. ¿Sería posible “datificar “ las experiencias de los soldados en Iraq cuando tienen que decidir si disparan contra un enemigo ambiguo? En caso de que fuera posible, ¿qué tan relevante sería tal conjunto de datos para las ocupaciones de Sudán o Yemen (dos de las múltiples naciones con algún tipo de presencia militar estadounidense)?

Dadas estas dificultades, es difícil evitar la conclusión de que no es realista pensar en robots asesinos éticos, y que son muy probables las fantasías de guerras y masacres al alcance de un botón.

Las leyes humanitarias internacionales, que rigen a los conflictos armados, significan aún más desafíos para los desarrolladores de armas autónomas. Un principio ético clave de la guerra es el de la discriminación: requerir a los atacantes que distingan entre civiles y combatientes. Pero las guerrillas o escuadrones insurgentes se han hecho más comunes en décadas recientes, y los combatientes en tales situaciones rara vez usan uniformes, lo que dificulta distinguirlos de los civiles. Dadas las dificultades que enfrentan los soldados humanos en este aspecto, es fácil pensar que las armas automáticas representan una amenaza menor.

Los defensores de tales armas insisten que la capacidad de discriminación de las máquinas está mejorando. Aún si ese fuera el caso, es un gran salto lógico asumir que los comandantes utilizarán estos avances tecnológicos para desarrollar principios justos de discriminación en medio de la confusión de una batalla. Como escribió el pensador francés Grégoire Chamayou, la categoría de “combatiente” (un objetivo legítimo) tiende a “ser diluida de manera que se extiende a cualquier forma de membresía, colaboración, o presunta simpatía con alguna organización militar”.

El principio para distinguir entre combatientes y civiles es sólo una de las múltiples leyes internacionales que rigen a la guerra. También está la regla de que las operaciones militares deben ser “proporcionales”, debe haber un balance entre el daño potencial a los civiles y la ventaja militar que puede resultar de una acción. La Fuerza Aérea de Estados Unidos describió el asunto de la proporcionalidad como “una determinación inherentemente subjetiva que debe ser resuelta dependiendo de cada caso”. No importa qué tan buena sea la tecnología para monitorear, detectar y neutralizar amenazas, no hay evidencia de que pueda llevar a cabo el razonamiento sutil y efectivo necesario para aplicar hasta las leyes o normas menos ambiguas.

Incluso si asumimos que los avances tecnológicos pueden reducir el uso de fuerzas letales en la guerra, ¿sería algo necesariamente bueno? Al investigar sobre la creciente influencia de los principios de derechos humanos en los conflictos, el historiador Samuel Moyn observa una paradoja: ahora, la guerra es simultáneamente “más humana y más difícil de acabar”. Para los invasores, los robots ahorran la preocupación de los políticos sobre el incremento de la oposición en sus países que pueda provocar la muerte de civiles. Los drones son como un puño de hierro en un guante de terciopelo, ejercen suficiente vigilancia sobre el territorio ocupado, mientras evitan las masacres sanguinarias que provocaría una revolución o intervención internacional.

También lee: Amazon: de gigante pandémico a una amenaza para todos nosotros

En esta visión robotizada de “dominación humanitaria”, la guerra parece más bien una acción policial extraterritorial. En lugar de enemigos habría personas sospechosas sujetas a detenciones mecanizadas en lugar de fuerza letal. No importa cuántas vidas se salven, sugiere Moyn, las masivas diferencias de poder en la base de las ocupaciones tecnologizadas no son un fundamento adecuado para un orden internacional legítimo.

Chamayou también se mantiene escéptico. En su lúcido libro Drone Theory, le recuerda a los lectores la matanza de 10,000 sudaneses en 1898 a manos de las fuerzas anglo egipcias armadas con ametralladoras, quienes sólo tuvieron 48 bajas. Chamayou etiqueta a los drones como “el arma de la violencia amnésica postcolonial”. También duda acerca de si los avances en la robótica de hecho podrían resultar en la clase de precisión que los aficionados de los robots asesinos prometen. Los civiles mueren rutinariamente a manos de los drones militares piloteados por humanos. Eliminar esa posibilidad podría implicar un futuro igual de sombrío donde los sistemas computacionales llevan a cabo vigilancias tan intensas sobre algunas poblaciones que pueden calcular la amenaza que significa cada persona por separado dentro de ellas (y liquidarlas o dejarlas vivir dependiendo del caso).

Los partidarios de los drones dicen que el arma es clave para una guerra más humana y selectiva. Pero para Chamayou, “al eliminar la posibilidad de combate, el drone destruye la misma posibilidad de cualquier distinción clara entre combatientes y no combatientes”. La declaración de Chamayou podría parecer una hipérbole, pero hay que considerar la situación real en Yemen o Pakistán: ¿existe alguna resistencia verdadera que puedan ejercer los militantes contra un flujo de cientos o miles de vehículos aéreos automáticos que patrulla los cielos? Un ambiente tan controlado representa la fusión entre guerra y vigilancia policial, entonces desaparecen las restricciones y garantías que se establecieron para al menos intentar hacer que estos campos rindan cuentas.

¿Cómo deben responder los líderes globales al prospecto de estas peligrosas armas y tecnologías nuevas? Una opción es intentar unirse para prohibir ciertos métodos de asesinato. Vale la pena mirar al pasado para entender si tal acuerdo para el control internacional de armamento funcionará o no. Las minas antipersonas, diseñadas para matar o inhabilitar a quien sea que las pise o se acerque, fueron de las primeras armas automáticas. Eran el terror de los soldados durante la Primera Guerra Mundial. Gracias a su facilidad de distribución y su bajo costo de producción, el uso de minas continuó en otros conflictos menores que sucedieron en todo el mundo. Para 1994, los soldados habían colocado 100 millones de minas en 62 países.

Las minas continuaron con la devastación e intimidación de poblaciones aún años después de que concluyeron las hostilidades. Las personas que se accidentan con minas suelen perder una pierna, en ocasiones dos, y sufren laceraciones colaterales, infecciones y traumas. En 1994, uno de cada 236 camboyanos perdieron al menos una extremidad en detonaciones de minas.

También lee: Cartel Project | Cómo el software espía termina en manos de los cárteles de México

Para mediados de los 90s, el consenso internacional estaba a favor de prohibir las minas. La Campaña Internacional para Prohibir Minas presionó a los gobiernos de todo el mundo a condenarlas. Las minas no son tan letales como otras armas, pero a diferencia de otras aplicaciones de fuerza, pueden inhabilitar y asesinar a no combatientes mucho tiempo después del final de las guerras. En 1997, cuando la Campaña ganó el Premio Nobel de la Paz, docenas de países firmaron un tratado internacional de carácter obligatorio, prometiendo no manufacturar almacenar o desplegar este tipo de minas.

Estados Unidos objetó, y a la fecha sigue sin firmar el acuerdo en contra de las minas. En el momento de las negociaciones, los negociadores de Estados Unidos y el Reino Unido insistieron que la solución real al problema de las minas sería asegurarse de que todas las que se produzcan en el futuro estén programadas para desactivarse automáticamente después de un periodo fijo, o que tengan alguna capacidad de control remoto. Eso significa que un dispositivo podría desactivarse a distancia cuando acaben las hostilidades. No obstante, también podrían reactivarse en cualquier momento.

El solucionismo tecnológico de Estados Unidos tiene pocos simpatizantes. Para 1998, docenas de países habían firmado el acuerdo contra las minas. Más países se unieron cada año entre 1998 y 2010, incluyendo potencias como China. La administración de Obama tomó pasos importantes hacia la limitación de las minas, pero el secretario de la defensa de Trump las echó para atrás. Esta cara es sólo una faceta del nacionalismo belicoso que probablemente va a acelerar la automatización de la guerra.

También lee: ¿Cómo podemos pagar las deudas globales por el Covid? Atacando a los poderosos

En lugar de vetar a los robots asesinos, el establishment militar de Estados Unidos prefiere regularlos. Preocupaciones por fallas, glitches u otras consecuencias no deseadas del armamento automatizado han alimentado el discurso por la reforma en los círculos de la robótica militar. Por ejemplo, PW Singer, de New America Foundation, permitiría que un robot “utilice con autonomía armamento no letal”. De este modo, un drone autónomo podría patrullar el desierto y, por ejemplo, inmovilizar a un combatiente o capturarlo con una red, pero la “decisión de matar” la tomaría exclusivamente un humano. Bajo esta regla, incluso si el combatiente trata de destruir el drone, éste no podrá asesinarlo.

Tales normas ayudarían a convertir las guerras en mantenimientos de la paz, y al final en una especie de vigilancia policial. El tiempo entre una captura y la decisión de matar podría permitir el debido proceso necesario para investigar culpas y fijar castigos. Singer hace énfasis en la importancia de la rendición de cuentas, pues argumenta que “si un programador explota una aldea entera por error, debería ser procesado como criminal”.

Mientras que algunos teóricos militares quieren programar a los robots con algoritmos éticos, Singer parte sabiamente de nuestros siglos de experiencia con la regulación de las personas. Para estar seguros de la rendición de cuentas por el despliegue de “algoritmos de guerra”, los ejércitos necesitarán asegurarse de que los robots y agentes algorítmicos son rastreables y se pueden identificar con sus creadores. En el contexto doméstico, los académicos propusieron una “matrícula para drones”, para vincular cualquier acción descuidada o negligente con el propietario o controlador del dron. No es raro que una regla similar, algo así como “un robot siempre debe indicar la identidad de su creador, controlador, o propietario”, debería servir como el reglamento fundamental de las guerras, y su violación debería ser sancionable con castigos severos.

¿Pero qué tan realista es pensar que los programadores de un robot asesino de hecho serán castigados? En 2015, el ejército de EU bombardeó un hospital en Afganistán, mataron a 22 personas. Mientras sucedía el ataque, algunos empleados del hospital llamaron a sus contactos en el ejército norteamericano para rogar que se detuvieran. Los seres humanos son los responsables directos de ataques con drones a hospitales, escuelas, bodas, y otros objetivos inadecuados, sin recibir castigos proporcionales. La “neblina de la guerra” excusa todo tipo de negligencias. No parece probable que los sistemas legales domésticos e internacionales impongan más responsabilidades a los programadores que causan masacres similares.

El mercado de las armas siempre ha sido un gran negocio, y la carrera armamentista de la IA promete grandes ingresos a los adeptos de la tecnología y aquellos con buenas conexiones políticas. Arbitrar en contra de las carreras armamentistas parece completamente ingenuo. Después de todo, las naciones invierten enormes cantidades de recursos en las aplicaciones militares de la IA, y muchos ciudadanos no lo saben o no les importa. De cualquier modo, parece que esa actitud estática podría cambiar con el tiempo, conforme el uso doméstico de la vigilancia con IA aumenta, y esa tecnología se identifica con sospechosos aparatos de control, en lugar de los poderes locales responsables democráticamente.

La IA militar y de vigilancia no se usa sólo, y ni siquiera principalmente, contra enemigos extranjeros. Ya cumple con el propósito de identificar y luchar contra enemigos domésticos. Aunque en dos décadas no ha sucedido nada similar a los ataques del 11 de septiembre en EU, el Departamento de Seguridad Nacional ha apuntado silenciosamente sus herramientas antiterrorismo hacia criminales, fraudes de seguros, e incluso manifestantes. En China, el gobierno exageró la amenaza del “terrorismo musulman” para concentrar a un gran porcentaje de la población Uighur en campos de reeducación y para intimidar a otros con inspecciones constantes de teléfonos y perfiles de riesgo. Nadie debería sorprenderse si el aparato de inteligencia doméstica de EU utiliza tecnología china, mientras que el gobierno chino absorbe datos de las enormes compañías de tecnología estadounidenses en un proyecto de vigilancia paralela.

El avance en el uso de IA en el ejército, policía, prisiones y servicios de seguridad no significa tanto una rivalidad entre las grandes potencias, como un lucrativo proyecto global de las élites corporativas y gubernamentales para mantener el control para la pacificación de las poblaciones domésticas y extranjeras. Una vez desplegados en ocupaciones y batallas lejanas, los métodos militares suelen encontrar el camino de vuelta a casa. Primero los utilizan contra las minorías impotentes o poco populares, y después se esparce a otros grupos. Las autoridades del Departamento de Seguridad Nacional de EU otorgaron tanques y armaduras a los departamentos de policía. Los comisarios se emocionan más con la IA que puede detectar objetivos y amenazas. Pero es importante recordar que hay muchas maneras de resolver problemas sociales. No todas requieren vigilancia constante junto con la amenaza mecánica del uso de fuerza.

De hecho, puede que estas sean las formas menos efectivas para garantizar la seguridad, nacional o internacional. Los drones le permitieron a EU mantener su presencia en varias zonas ocupadas por más tiempo del que hubiera tolerado cualquier ejército. La presencia constante de vigilantes robóticos, capaces de alertar a los soldados sobre cualquier conducta amenazadora, es una forma de opresión. Las fuerzas de defensa estadounidenses pueden insistir que las amenazas de algunas partes de Irak y Pakistán son suficientemente grandes para justificar la vigilancia constante, pero ignoran las maneras en que tales acciones autoritarias pueden provocar el mismo enojo que intentan mitigar.

En el presente, el complejo militar industrial acelera el desarrollo de enjambres de drones que operan independientemente de los humanos, aparentemente porque sólo las máquinas tienen la velocidad suficiente para anticipar las contraestrategias de los enemigos. Esta es una profecía autorrealizable, pues tiende a estimular a sus enemigos para desarrollar la misma tecnología que supuestamente justifica la militarización de algoritmos. Para salir de este bucle autodestructivo, debemos cuestionar todo el discurso reformista de impartir ética a los robots militares. En lugar de mejoras diminutas en una competencia para aumentar las capacidades bélicas, necesitamos una nueva alternativa para alcanzar la paz y la cooperación, sin importar lo frágil y complicado de este logro.

En su libro How Everything Became War and the Military Became Everything, la antigua funcionaria del Pentágono Rosa Brooks describe la creciente realización entre los expertos en defensa de EU de que la ayuda para el desarrollo, gobierno y humanitarismo son tan importantes (o más) para la seguridad como las demostraciones de fuerza. Un mundo con más recursos reales tiene menos razones para perseguir guerras de suma cero. También estará mejor equipado para combatir enemigos naturales, como lo es el nuevo coronavirus. Si EU hubiera invertido una fracción de su presupuesto militar en el sistema de salud pública, es casi seguro que hubiesen evitado decenas de miles de muertes en 2020.

Para que prevalezca esta perspectiva más expansiva y humanista, sus partidarios deben ganar la batalla de las ideas en sus propios países sobre el papel adecuado del gobierno y las paradojas de seguridad. Deben alejar sus objetivos políticos de la dominación del exterior, y dirigirlos al cumplimiento de las necesidades humanas domésticas. Al observar el crecimiento del estado de la seguridad nacional en EU (lo que califica como “imperio depredador”), el autor Ian GR Shaw pregunta: “¿Acaso no observamos el triunfo del control sobre la compasión, de la seguridad sobre el apoyo, del capital sobre el cuidado, y de la guerra sobre el bienestar?” Detener aquel triunfo debería ser el objetivo principal de las leyes contemporáneas para la robótica y la Inteligencia Artificial.

– Adaptado de New Laws of Robotics: Defending Human Expertise in the Age of AI de Frank Pasquale, publicado por Harvard University Press el 27 de octubre.

– Sigue a Long Read en twitter: @gdnlongread, y suscríbete al boletín semanal aquí.

Traducido por Andrés González

The Guardian
Contribuye a The Guardian

También te puede interesar

Entrevista

La investigadora del MIT dice que para que los humanos prosperen, debemos dejar de pensar en los robots como futuros competidores.

Tecnología

Se trata de la segunda mayor operación de la firma, siguiendo a la adquisición de LinkedIn en 2016 por 26,000 mdd.

Medio Ambiente

Los científicos advierten que la cumbre del Nobel y las decisiones a largo plazo para salvar al planeta están en riesgo por los ataques...

Opinión

Imaginemos: Con apenas unos meses de funcionamiento, una app nos ha demostrado que ciudadanía y gobierno pueden hacer de la CDMX una ciudad más...

Publicidad