Elon Musk lanza una startup de IA y advierte sobre un ‘futuro tipo <em>Terminator</em>‘
Elon Musk señaló que la aparición de la inteligencia artificial general podría conducir a una 'era de la abundancia' o a la posibilidad de un futuro más oscuro. Foto: Aly Song/Reuters

Elon Musk lanzó una startup de inteligencia artificial que será “pro-humanidad”, al tiempo que señaló que al mundo debía preocuparle la perspectiva de un “futuro tipo Terminator” para evitar los escenarios más apocalípticos de la inteligencia artificial.

Musk comentó que xAI intentará construir un sistema que sea seguro porque tiene una “curiosidad máxima” por la humanidad, en lugar de tener programadas normas morales.

“Desde el punto de vista de la seguridad de la inteligencia artificial… una inteligencia artificial que tenga una curiosidad máxima, que intente comprender el universo, creo que estará a favor de la humanidad”, comentó en un debate en Spaces de Twitter en el que anunció la creación de xAI.

La persona más rica del mundo fue uno de los firmantes de una carta publicada este año en la que se pidió una pausa en la construcción de grandes modelos de inteligencia artificial como ChatGPT, el chatbot creado por la empresa estadounidense OpenAI. Crece el temor de que el desarrollo de la tecnología de inteligencia artificial escape del control humano.

Musk comentó que la pausa ya no parecía una alternativa realista y que esperaba que xAI proporcionara un camino alternativo.

“Si pudiera hacer una pausa en la inteligencia artificial o en la superinteligencia digital realmente avanzada, lo haría. No parece que eso sea realista, así que xAI básicamente creará una inteligencia artificial… en el buen sentido, esperemos”, dijo.

Musk, propietario de Twitter, comentó que existía un escenario benigno en el que la aparición de la inteligencia artificial general –un sistema capaz de desarrollar una inteligencia similar a la humana– conduciría a una “era de la abundancia” en la que no habría escasez de bienes ni servicios. No obstante, también existe la posibilidad de que haya un futuro más oscuro, añadió.

En referencia a las películas de Terminator y su visión sobre un futuro destruido por robots dotados de inteligencia artificial, Musk señaló: “En realidad es importante que nos preocupemos por la posibilidad de un futuro tipo Terminator para evitar un futuro tipo Terminator“. Comentó que la superinteligencia –la inteligencia artificial más inteligente y dotada que los humanos– podría llegar dentro de cinco o seis años, es decir, antes de lo que calculan muchos expertos.

Musk, que también es director ejecutivo de la empresa de autos eléctricos Tesla, señaló que pasará “un tiempo” antes de que xAI alcance el nivel de OpenAI o Google, empresa que lanzó su propio chatbot llamado Bard y que es propietaria de la empresa británica líder mundial en inteligencia artificial DeepMind.

El jueves, Google anunció el lanzamiento de Bard, que ya está disponible en Estados Unidos y el Reino Unido, para el resto de Europa y Brasil, y que incorpora nuevas funciones, como la posibilidad de que el chatbot responda al usuario oralmente y utilice imágenes cuando se le solicite.

El equipo de xAI está compuesto por Igor Babuschkin, exingeniero de DeepMind; Tony Wu, que trabajó en Google; Christian Szegedy, que también fue investigador científico en Google; y Greg Yang, que anteriormente trabajó en Microsoft.

En marzo, Musk registró una empresa llamada X.AI Corp, constituida en Nevada, según consta en un registro estatal. En la empresa figuran Musk como director único y Jared Birchall, gerente de la family office del multimillonario, como secretario.

Dan Hendrycks, que asesorará al equipo de xAI, es director del Center for AI Safety (CAIS) y su trabajo se centra en los riesgos que entraña la inteligencia artificial. CAIS publicó en mayo una declaración, que llevaba múltiples firmas de profesionales y expertos en inteligencia artificial, en la que indicó que la lucha contra el riesgo de extinción derivado de la inteligencia artificial debería ser una prioridad mundial equiparable a la mitigación del riesgo de pandemias y guerra nuclear.

Musk comentó en el evento en Spaces que tenía dudas sobre las implicaciones en materia de seguridad que entrañaría la programación de una postura moral en las herramientas generativas de inteligencia artificial. Esta semana, Anthropic, una empresa estadounidense líder en inteligencia artificial, lanzó un chatbot que funciona a partir de una lista de principios de seguridad extraídos de fuentes como la Declaración Universal de Derechos Humanos.

“Si se programa una determinada realidad (en una IA) tienes que indicar qué moral estás programando. ¿De quién es la decisión?”, preguntó, añadiendo que una vez programada una inteligencia artificial con un punto de vista moral concreto sería más fácil incitarla a cambiar de opinión. Es lo que se conoce como “efecto Waluigi“, que toma su nombre del travieso archienemigo de Luigi en la franquicia de videojuegos Super Mario.

La nueva empresa de Musk es independiente de X Corp, pero trabajará en estrecha colaboración con Twitter, Tesla y otras empresas, según indica su página web, y está contratando a ingenieros e investigadores experimentados en el área de la bahía de San Francisco.

Síguenos en

Google News
Flipboard