Directores de OpenAI piden una regulación para evitar que la IA destruya la humanidad
Los directores de OpenAI señalan que la superinteligencia será más poderosa que otras tecnologías a las que la humanidad ha tenido que enfrentarse en el pasado. Foto: Andrey Armyagov/Alamy

Los directores del desarrollador de ChatGPT, OpenAI, pidieron que se regulen las inteligencias artificiales “superinteligentes”, con el argumento de que se necesita un organismo equivalente a la Agencia Internacional de Energía Atómica para proteger a la humanidad del riesgo de crear por accidente algo que tenga el poder de destruirla.

En una breve nota publicada en la página web de la empresa, los cofundadores Greg Brockman e Ilya Sutskever y el director ejecutivo, Sam Altman, piden la creación de un organismo regulador internacional que empiece a trabajar en cómo “inspeccionar los sistemas, exigir auditorías, verificar el cumplimiento de las normas de seguridad (y) establecer restricciones en cuanto a los grados de despliegue y los niveles de seguridad” con el fin de reducir el “riesgo existencial” que podrían suponer estos sistemas.

“Es concebible que, en los próximos 10 años, los sistemas de inteligencia artificial superen el nivel de habilidad de los expertos en la mayoría de los ámbitos y lleven a cabo un volumen de actividad tan productiva como el de una de las mayores corporaciones actuales”, escriben. “En términos de ventajas y desventajas potenciales, la superinteligencia será más poderosa que cualquier otra tecnología a la que haya tenido que enfrentarse la humanidad en el pasado. Podemos tener un futuro extraordinariamente más próspero, pero tenemos que gestionar los riesgos para llegar a él. Ante la posibilidad de un riesgo existencial, no podemos ser simplemente reactivos”.

A más corto plazo, el trío pide que haya “cierto grado de coordinación” entre las empresas que trabajan en la vanguardia de la investigación en inteligencia artificial, con el fin de garantizar que el desarrollo de modelos cada vez más potentes se integra sin problemas en la sociedad, al tiempo que se da prioridad a la seguridad. Esta coordinación podría llevarse a cabo, por ejemplo, a través de un proyecto gubernamental o de un acuerdo colectivo que limite el crecimiento de las capacidades de la inteligencia artificial.

Los investigadores han advertido desde hace varias décadas sobre los riesgos potenciales de la superinteligencia, pero a medida que se ha acelerado el desarrollo de la inteligencia artificial esos riesgos se han vuelto más concretos. El Centro para la Seguridad de la IA (CAIS), con sede en Estados Unidos, que trabaja para “reducir los riesgos a escala social que plantea la inteligencia artificial”, describe ocho categorías de riesgo “catastrófico” y “existencial” que podría suponer el desarrollo de la inteligencia artificial.

Mientras que a algunos les preocupa que una inteligencia artificial poderosa destruya por completo a la humanidad, ya sea de forma accidental o deliberada, el CAIS describe otros daños más perjudiciales. Un mundo en el que los sistemas de inteligencia artificial realicen cada vez más tareas de forma voluntaria podría hacer que la humanidad “perdiera la capacidad de autogobernarse y que se volviera completamente dependiente de las máquinas”, una situación descrita como “debilitamiento”; y que un pequeño grupo de personas que controlara sistemas poderosos pudiera “convertir la inteligencia artificial en una fuerza centralizadora”, lo que daría lugar a un “bloqueo de valores”, un eterno sistema de castas entre gobernantes y gobernados.

Los directores de OpenAI señalan que esos riesgos significan que “la gente de todo el mundo debería decidir democráticamente los límites y los valores predeterminados de los sistemas de inteligencia artificial”, aunque admiten que “aún no sabemos cómo diseñar ese mecanismo”. No obstante, comentan que vale la pena correr el riesgo de seguir desarrollando sistemas potentes.

“Creemos que va a conducir a un mundo mucho mejor de lo que podemos imaginar en la actualidad (ya estamos observando los primeros ejemplos de ello en ámbitos como la educación, el trabajo creativo y la productividad personal)”, escriben.

Advierten que también podría resultar peligroso pausar el desarrollo. “Como las ventajas son tan grandes, el costo de construirlo disminuye cada año, el número de actores que lo construyen aumenta con rapidez y es una parte intrínseca del camino tecnológico en el que nos encontramos. Para detenerlo haría falta algo parecido a un régimen de vigilancia mundial, e incluso eso no tiene garantías de funcionar. De modo que tenemos que hacerlo bien”.

Síguenos en

Google News
Flipboard