‘¿Cuáles deberían ser los límites?’ El padre de ChatGPT habla sobre si la IA salvará a la humanidad, o la destruirá
'La carrera hacia la IA fuerte es algo malo' ... Sam Altman, CEO de OpenAI, testificando ante un comité del Senado en Washington D.C. el mes pasado. Foto: Win McNamee/Getty Images

Cuando me reúno con Sam Altman, director ejecutivo del laboratorio de investigación de inteligencia artificial OpenAI, se encuentra en plena gira mundial. Está predicando que los mismos sistemas de inteligencia artificial que él y sus competidores están creando podrían representar un riesgo existencial para el futuro de la humanidad, a menos que ahora los gobiernos trabajen juntos para establecer normas que garanticen un desarrollo responsable durante la próxima década.

En los días siguientes, él y cientos de líderes tecnológicos, entre ellos los científicos y “padrinos de la inteligencia artificial” Geoffrey Hinton y Yoshua Bengio, así como Demis Hassabis, CEO de Google DeepMind, publicaron un comunicado en el que señalaban que “mitigar el riesgo de extinción de la inteligencia artificial debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear”. Se trata de un gran esfuerzo para convencer a los líderes mundiales de que hablan en serio cuando dicen que el “riesgo de la inteligencia artificial” exige un esfuerzo internacional coordinado.

Debe ser una posición interesante: después de todo, Altman, de 38 años, es el padre del chatbot de inteligencia artificial ChatGPT, y está liderando la creación de la “inteligencia artificial fuerte”, o IA fuerte, un sistema de inteligencia artificial capaz de realizar cualquier tarea que un ser humano pueda llevar a cabo. Mientras que la “inteligencia artificial” se utiliza para describir cualquier sistema más complejo que un Tamagotchi, la IA fuerte es el concepto real: la inteligencia a nivel humano de historias como Her, Star Trek, Terminator, 2001: odisea del espacio y Battlestar Galactica.

'¿Cuáles deberían ser los límites?' El padre de ChatGPT habla sobre si la IA salvará a la humanidad, o la destruirá - inteligencia-artificial-fuerte
Foto: Michael Dwyer/AP

En su gira mundial, que complica aún más su posición, Altman también predica algo más que los peligros del desarrollo descontrolado de la inteligencia artificial. Altman argumenta que los beneficios de desarrollar una “superinteligencia” –una IA fuerte capaz de resolver problemas que la humanidad no ha podido resolver– son tan grandes que deberíamos arriesgarnos a la destrucción de todo para intentarlo de todos modos.

Son unas semanas agotadoras. El día que me reúno con él, se despertó en París después de reunirse con Emmanuel Macron la noche anterior. Tras un viaje en Eurostar a Londres y una rápida parada en Oxford, ofrece una conferencia en la Oxford Guild, una sociedad estudiantil centrada en los negocios, antes de algunas reuniones más, y posteriormente se dirige al Número 10 para reunirse con Rishi Sunak. Más tarde sube a un avión con destino a Varsovia, antes de dirigirse a Múnich la mañana siguiente. Su equipo de relaciones públicas va rotando, pero Altman lo hará durante cinco semanas.

“Me encantan San Francisco y el Área de la Bahía”, comenta en el escenario del evento en Oxford. “Sin embargo, es un lugar extraño, y es toda una caja de resonancia. Organizamos este viaje para empezar a responder esta pregunta, con líderes de distintos lugares, sobre, por ejemplo, cuáles deberían ser los límites de estos sistemas, para decidir cómo se deberían repartir las ganancias. Y existen perspectivas muy diferentes entre la mayor parte del mundo y San Francisco”.

Para exasperación de su equipo, escuchar tantas perspectivas como sea posible es evidentemente más prioritario que los planes del día. Después de un evento en la UCL, baja para acercarse al público: una conversación informal que da lugar a titulares en Time y el Financial Times. Justo cuando está a punto de sentarse y empezar a hablar conmigo, sale para conversar con un pequeño grupo de manifestantes que sostenían carteles en los que exhortaban a OpenAI a “detener la carrera suicida de la IA fuerte”.

“Dejen de intentar construir una IA fuerte y empiecen a intentar garantizar que los sistemas de inteligencia artificial puedan ser seguros”, dice uno de los manifestantes, un estudiante de la Universidad de Oxford llamado Gideon Futerman. “Si nosotros, y creo que ustedes, pensamos que los sistemas de IA fuerte pueden ser significativamente peligrosos, no entiendo por qué deberíamos correr ese riesgo”.

Altman, un clásico fundador que abandonó sus estudios al estilo Mark Zuckerberg –dejó la universidad de Stanford en su tercer año para lanzar una red social llamada Loopt–, parece estar en pleno modo político mientras intenta encontrar un punto medio. “Creo que una carrera hacia la IA fuerte es algo malo”, señala Altman, “y creo que no lograr avances en materia de seguridad es algo malo”. No obstante, le dice al manifestante, la única forma de conseguir seguridad es con el “progreso de la capacidad”, es decir, construyendo sistemas de IA más fuertes, para poder manipularlos mejor y entender cómo funcionan.

Altman no convence a Futerman, pero cuando volvemos a bajar, se muestra optimista respecto a la confrontación. “Es bueno tener estas conversaciones”, comenta. “Una cuestión de la que he hablado mucho en este viaje es cómo sería un marco regulador mundial para la superinteligencia“. El día antes de reunirnos, Altman y sus colegas publicaron una nota en la que expusieron su visión de dicha regulación: un organismo internacional similar al Organismo Internacional de Energía Atómica, para la coordinación entre laboratorios de investigación, la imposición de normas de seguridad, el control de la potencia informática dedicada a los sistemas de entrenamiento y, con el tiempo, incluso la restricción total de ciertas propuestas.

La respuesta lo sorprendió. “Hay un gran interés por saber más; más de lo que esperaba, por parte de políticos y reguladores de muy alto nivel, sobre cómo podría ser eso. Estoy seguro de que también hablaremos de muchas cuestiones a corto plazo”.

No obstante, esa distinción entre el corto y el largo plazo le ha costado a Altman numerosas críticas durante su gira. Al fin y al cabo, a OpenAI le interesa centrar la atención reguladora en el riesgo existencial si con ello distrae a los gobiernos de abordar el daño potencial que los productos de la empresa ya son capaces de provocar. La empresa ya tuvo un enfrentamiento con Italia en relación con la protección de datos de ChatGPT, mientras que Altman comenzó su viaje con una visita a Washington D.C. para pasar varias horas sometido a los sermones de los senadores estadounidenses sobre todo tipo de temas, desde la desinformación hasta las violaciones de los derechos de autor.

“Es curioso”, comenta Altman, “la misma gente nos acusará de no preocuparnos por las cuestiones a corto plazo, y también de intentar buscar la captura del regulador”, es decir, la idea de que, si se establecen normativas de gran peso, solo OpenAI y algunos otros líderes del mercado dispondrán de los recursos para cumplirlas. “Creo que todo es importante. Hay diferentes plazos, pero tenemos que tratar cada uno de estos retos”. Altman enumera algunas preocupaciones: “Creo que se avecina uno muy serio sobre la desinformación perfeccionada; otro, poco tiempo después, podría estar relacionado con la ciberseguridad. Son temas muy importantes, pero nuestra misión particular es la IA fuerte. Y por eso creo que es muy razonable que hablemos más sobre ello, aunque también trabajemos en los demás temas”.

Altman se enoja un poco cuando sugiero que las motivaciones de la empresa podrían ser las ganancias. “No necesitamos ganar todo. Somos una empresa atípica: queremos impulsar esta revolución en el mundo, descubrir cómo podemos hacerla segura y extremadamente beneficiosa. Pero yo no pienso en las cosas de la misma manera en que ustedes, creo yo, piensan en estos temas”.

OpenAI es, de hecho, inusual. La organización se fundó en 2015 como una organización sin fines de lucro con una donación de mil millones de dólares de patrocinadores como Elon Musk, el cofundador de PayPal Peter Thiel y el cofundador de LinkedIn Reid Hoffman. Altman ocupó inicialmente el cargo de copresidente junto a Musk, con el objetivo de “hacer avanzar la inteligencia digital de la forma que más pueda beneficiar a la humanidad en su conjunto, libre de la necesidad de generar un rendimiento financiero”. Sin embargo, eso cambió en 2019, cuando la organización se reestructuró en torno a un modelo de “ganancias limitadas“. Altman se convirtió en CEO y la organización comenzó a aceptar inversiones externas, con la condición de que ningún inversionista pudiera ganar más de 100 veces su aportación inicial.

La razón era sencilla: trabajar en la vanguardia de la investigación en inteligencia artificial era mucho más costoso de lo que parecía en un principio. “No existe forma alguna de mantenerse a la vanguardia de la investigación en inteligencia artificial, y mucho menos de crear IA fuerte, sin aumentar masivamente nuestra inversión en computación”, señaló en su momento el director científico de OpenAI, Ilya Sutskever. Altman, que ya es rico de forma independiente –ganó su primera fortuna con Loopt y su segunda fortuna como presidente del acelerador de startups Y Combinator–, no adquirió ninguna participación en la nueva empresa. Si la inteligencia artificial termina transformando el mundo, él no obtendrá más ganancias que el resto de nosotros.

Eso es importante, comenta, porque aunque Altman está convencido de que la evolución se inclina hacia una reestructuración ampliamente positiva, no está tan seguro sobre quién ganará. “No quiero decir que estoy seguro. Estoy seguro de que elevará el nivel de vida de todos y, sinceramente, si la opción es elevar el nivel de vida de todos, pero mantener la desigualdad, la elegiría. Y creo que probablemente podemos estar de acuerdo en que si se construye (una IA fuerte segura), puede hacerlo. Sin embargo, puede ser una fuerza muy igualadora. Algunas tecnologías lo son y otras no, y algunas hacen ambas cosas de diferentes maneras. Pero creo que se puede vislumbrar un montón de formas en las que, si todo el mundo en la Tierra recibiera una educación mucho mejor, una atención médica mucho mejor, una vida que simplemente no es posible debido al precio actual del trabajo cognitivo (…) eso sería una fuerza igualadora de una forma que puede ser poderosa”.

'¿Cuáles deberían ser los límites?' El padre de ChatGPT habla sobre si la IA salvará a la humanidad, o la destruirá - Altman-hablando-con-los-medios-de-comunicacion-despues-de-testificar-ante-el-subcomite-del-Senado-sobre-privacidad-tecnologia-y-legislacion-el-mes-pasado
Altman hablando con los medios de comunicación después de testificar ante el subcomité del Senado sobre privacidad, tecnología y legislación el mes pasado. Foto: Jim Lo Scalzo/EPA

En este sentido, sin embargo, no se atreve a arriesgarse. Altman también se ha convertido en un firme defensor de distintos tipos de ingresos básicos universales, argumentando que cada vez será más importante encontrar la manera de compartir equitativamente las ganancias del progreso de la inteligencia artificial durante un período en el que las perturbaciones a corto plazo podrían ser graves. Esta es la cuestión que su proyecto paralelo, una startup de criptomonedas llamada Worldcoin, pretende resolver, se ha propuesto escanear el iris de todos los habitantes de la Tierra con el fin de crear un ingreso básico universal basado en criptomonedas. Aunque no es su única propuesta. “Tal vez sea posible que el componente más importante de la riqueza en el futuro sea el acceso a estos sistemas, en cuyo caso, se puede pensar en la redistribución de eso mismo”.

En última instancia, todo se resume al objetivo de crear un mundo en el que la superinteligencia trabaje para nosotros, en lugar de contra nosotros. Antes, explica Altman, su visión del futuro era la que reconocemos en la ciencia ficción. “La forma en que solía pensar en el camino hacia la superinteligencia consistía en que íbamos a construir un sistema extremadamente capaz. Eso planteaba numerosos problemas de seguridad, y era un mundo que resultaría bastante inestable”. Si OpenAI pone en marcha su última versión de ChatGPT y descubre que es más inteligente que toda la humanidad junta, entonces es fácil empezar a vislumbrar una serie de resultados bastante nihilistas: quien consiga tomar el control del sistema podría utilizarlo para tomar el control del mundo, y sería difícil que alguien, salvo el propio sistema, pudiera derrocarlo.

Ahora, sin embargo, Altman observa que se abre un camino más estable: “Ahora vemos un camino en el que construimos estas herramientas que se vuelven cada vez más potentes. Y hay miles de millones, o billones, de copias que se utilizan en el mundo, ayudando a las personas a ser mucho más eficaces, capaces de hacer mucho más. La cantidad de producción que una persona puede tener puede aumentar drásticamente, y donde la superinteligencia emerge no es solamente por la capacidad de nuestra mayor red neuronal, sino por toda la nueva ciencia que estamos descubriendo, todas las cosas nuevas que estamos creando”.

“No es que no se pueda detener”, comenta. Si los gobiernos de todo el mundo decidieran actuar de forma conjunta para limitar el desarrollo de la inteligencia artificial, como lo han hecho en otros campos, como la clonación humana o la investigación de armas biológicas, quizás podrían hacerlo. Pero eso sería renunciar a todo lo que es posible. “Creo que este será el avance más formidable en la calidad de vida de las personas que hemos experimentado, y creo que eso, de alguna manera, se pierde en el debate”.

Síguenos en

Google News
Flipboard