‘Los robots pueden ser nuestros compañeros’: Kate Darling, especialista en ética de IA
La investigadora del MIT dice que para que los humanos prosperen, debemos dejar de pensar en los robots como futuros competidores.
La investigadora del MIT dice que para que los humanos prosperen, debemos dejar de pensar en los robots como futuros competidores.
La Dra. Kate Darling es especialista de investigación en interacciones entre humanos y robots, ética de robots y teoría y políticas de porpiedad intelectual en el Massachusetts Institute of Technology (MIT) Media Lab. En su nuevo libro, The New Breed, argumenta que estaríamos mejor preparados para el futuro si comenzamos a pensar sobre los robots y la inteligencia artificial (IA) como animales.
¿Qué está mal del modo en que pensamos sobre los robots?
Muchas veces comparamos subconscientemente a los robots con humanos y a la IA con inteligencia humana. Esta comparación limita nuestra imaginación. Cuando nos enfocamos en intentar recrearnos, no pensamos creativamente sobre cómo usar los robots para ayudar a mejorarnos.
¿Por qué es mejor la analogía con los animales?
Hemos domesticado animales porque son útiles para nosotros, bueyes para arar la tierra, sistemas de correo con palomas. Los animales y robots no son iguales, pero esta analogía nos aleja de la otra entre robots y humanos. Abre nuestras mentes a otras posibilidades, como que los robots pueden ser nuestros compañeros, y nos permite ver algunas alternativas que tenemos para darle forma a nuestros usos de la tecnología.
Pero algunas compañías intentan desarrollar robots para sacar a los humanos de la ecuación: autos sin conductor o paquetería con drones. ¿La analogía con los animales no termina por disimular lo que, de hecho, es una amenaza significativa?
Hay una amenaza para los empleos de las personas. Pero esa amenaza no son los robots, son las decisiones de las compañías que obedecen a un sistema económico y político de capitalismo corporativo más amplio. La analogía animal nos ayuda a ilustrar que tenemos otras opciones. Las diferentes maneras en que hemos aprovechado las habilidades de los animales en el pasado muestran que podemos elegir diseñar y utilizar esta tecnología como suplemento a la mano de obra humana, en lugar de simplemente automatizar lo que de otro modo haría una persona.
“Hay investigaciones sustanciales que muestran que de hecho empatizamos con los robots”
¿Quién debe hacerse responsable cuando un robot cause daños? En la edad media, los animales eran llevados a juicio y castigados…
Lo hicimos durante cientos de años en la historia occidental: cerdos, caballos, perros y plagas de langostas, hasta ratas. Y extrañamente los juicios seguían las mismas reglas que con los humanos. Parece muy extraño el día de hoy porque no responsabilizamos moralmente a los animales por sus acciones. Pero mi preocupación con los robots es que por culpa de la comparación entre humanos y robots, caeremos en el mismo tipo de falacia que los juicios contra animales en la edad media, donde intentamos darles responsabilidades humanas. Y ya podemos ver resquicios de ello, cuando las compañías y gobiernos dicen: “Oh, eso no fue culpa nuestra, fue el algoritmo”.
¿Podemos responsabilizar a los fabricantes de robots por cualquier daño?
Mi preocupación es que están perdonando a las compañías. En el caso del ciclista atropellado por un Uber sin conductor en 2018, el conductor de emergencia fue el responsable en lugar del fabricante. El argumento de las compañías es que no deben ser los responsables de la tecnología de aprendizaje automático, porque no pueden prever o planear todas las posibilidades. Yo me inspiro en los modelos históricos de cómo hemos asignado responsabilidades cuando los animales ocasionan daños no anticipados: por ejemplo, en algunos casos, distinguimos entre animales peligrosos y seguros y las soluciones van desde hacer estrictamente responsables a los dueños, hasta permitir un poco de flexibilidad dependiendo del contexto. Si un pequeño poodle muerde a alguien en la calle, y es la primera vez que sucede, no vas a aplicar el mismo castigo que con un leopardo. Pero la idea principal es que la conducta no previsible no es un problema nuevo y no deberíamos permitir que las compañías argumenten que sí lo es.
No tienes mascotas, pero sí tienes muchos robots. Cuéntanos sobre ellos.
Tengo siete dinosaurios robóticos bebés Pleo, un perro robot Aibo, una foca bebé Paro y un asistente Jibo. A mi primer Pleo lo llamé Yochai. Gracias a él terminé por aprender de primera mano sobre nuestra capacidad de empatizar con robots. Resultó muy bueno para imitar el dolor y la angustia bastante bien. Y, mientras se lo mostraba a mis amigos y ellos lo levantaban por la cola, noté que realmente me molestaba cuando lo hacían por mucho tiempo. Yo sabía exactamente cómo funciona el robot, que todo era una simulación, pero aún así me sentía responsable de detener el dolor. Ahora hay investigaciones sustanciales que muestran que de hecho empatizamos con los robots.
A algunas personas, como la psicóloga social Sherry Turkle, les preocupa que los robots de compañía reemplacen las relaciones humanas. ¿Compartes este temor?
No parece estar fundada en la realidad. Somos criaturas sociales capaces de desarrollar relaciones con todo tipo de personas, animales y cosas. Una relación con un robot no necesariamente le resta a cualquier otra que ya tenemos.
También lee: Novios en renta, robots, cámaras: el negocio de la soledad está en auge
¿Cuáles, si es que los hay, son los verdaderos problemas con los robots de compañía?
Me preocupa que las compañías quieran aprovecharse de las personas que utilizan esta tecnología tan emocionalmente persuasiva, por ejemplo, un robot sexual que se aprovecha del calor del momento para mostrarte las ofertas que hay en su app. Del mismo modo en que hemos prohibido la publicidad subliminal en algunos lugares, quizás deberíamos considerar la manipulación emocional que puede ser posible con los robots sociales.
¿Qué sucede con la privacidad? Los animales pueden guardar todos tus secretos, pero un robot tal vez no…
Estos dispositivos avanzan hacia los espacios íntimos de nuestras vidas y una buena parte de su funcionalidad proviene de su habilidad para recolectar y almacenar datos para aprender. No hay suficiente protección para estos gigantes conjuntos de datos que acumulan las compañías. También me preocupa que gracias a que una parte de la robótica social trabaja con personajes diseñados como humanos, hay complicaciones sobre los sesgos raciales y de género que añadimos al diseño. Los estereotipos dañinos se refuerzan e ingresan a la tecnología. Y me preocupa que veamos a estos robots de compañía como una solución para nuestros problemas sociales como la soledad o la falta de trabajadores de cuidados. Del mismo modo en que los robots no han causado estos problemas, tampoco pueden resolverlos. Deben ser tratados como herramientas suplementarias al cuidado humano y que proveen algo nuevo.
También lee: El despliegue de las máquinas asesinas: el peligroso ascenso de la IA militar
¿Debemos otorgarle derechos a los robots?
Este tema suele aparecer en la ciencia ficción, y se revuelve en torno a la pregunta sobre si los robots se parecen a nosotros lo suficiente. No estoy en desacuerdo con que los robots, teóricamente, merecen derechos si es que se vuelven conscientes o sentimentales. Pero ese escenario está muy lejos en el futuro. Los derechos de los animales son un mejor ejemplo para saber cómo resultará en la práctica la conversación en torno a los derechos de los robots, por lo menos en la sociedad occidental. Y somos hipócritas en cuanto a los derechos de los animales. Nos gusta creer que nos preocupamos por el sufrimiento animal pero si miras nuestra conducta real, tendemos hacia proteger a los animales con los que nos relacionamos emocional o culturalmente. En Estados Unidos puedes pedir una hamburguesa en la comida rápida, pero no comemos carne de perro. Yo creo que es probable que hagamos lo mismo con los robots: derechos para unos pero no para otros.
¿Debemos tener robots antropomórficos?
No creo que dejemos de hacerlo en algún momento, pero, por cuestiones prácticas y de propósitos, el ser humano está sobrevalorado y sobreutilizado. Podemos darle emociones a cualquier cosa, desde una plasta hasta una silla. Incluso a veces las personas reaccionan mejor a robots no humanos, porque suele ser desconcertante cuando una cosa que se parece a tí no se comporta del modo que esperas.