The Guardian

Directores de OpenAI piden una regulación para evitar que la IA destruya la humanidad

El equipo detrás de ChatGPT dice que se necesita el equivalente a un organismo de control atómico para proteger a la humanidad de los riesgos de las inteligencias artificiales.

Publicado por:

Los directores del desarrollador de ChatGPT, OpenAI, pidieron que se regulen las inteligencias artificiales “superinteligentes”, con el argumento de que se necesita un organismo equivalente a la Agencia Internacional de Energía Atómica para proteger a la humanidad del riesgo de crear por accidente algo que tenga el poder de destruirla.

En una breve nota publicada en la página web de la empresa, los cofundadores Greg Brockman e Ilya Sutskever y el director ejecutivo, Sam Altman, piden la creación de un organismo regulador internacional que empiece a trabajar en cómo “inspeccionar los sistemas, exigir auditorías, verificar el cumplimiento de las normas de seguridad (y) establecer restricciones en cuanto a los grados de despliegue y los niveles de seguridad” con el fin de reducir el “riesgo existencial” que podrían suponer estos sistemas.

“Es concebible que, en los próximos 10 años, los sistemas de inteligencia artificial superen el nivel de habilidad de los expertos en la mayoría de los ámbitos y lleven a cabo un volumen de actividad tan productiva como el de una de las mayores corporaciones actuales”, escriben. “En términos de ventajas y desventajas potenciales, la superinteligencia será más poderosa que cualquier otra tecnología a la que haya tenido que enfrentarse la humanidad en el pasado. Podemos tener un futuro extraordinariamente más próspero, pero tenemos que gestionar los riesgos para llegar a él. Ante la posibilidad de un riesgo existencial, no podemos ser simplemente reactivos”.

A más corto plazo, el trío pide que haya “cierto grado de coordinación” entre las empresas que trabajan en la vanguardia de la investigación en inteligencia artificial, con el fin de garantizar que el desarrollo de modelos cada vez más potentes se integra sin problemas en la sociedad, al tiempo que se da prioridad a la seguridad. Esta coordinación podría llevarse a cabo, por ejemplo, a través de un proyecto gubernamental o de un acuerdo colectivo que limite el crecimiento de las capacidades de la inteligencia artificial.

Los investigadores han advertido desde hace varias décadas sobre los riesgos potenciales de la superinteligencia, pero a medida que se ha acelerado el desarrollo de la inteligencia artificial esos riesgos se han vuelto más concretos. El Centro para la Seguridad de la IA (CAIS), con sede en Estados Unidos, que trabaja para “reducir los riesgos a escala social que plantea la inteligencia artificial”, describe ocho categorías de riesgo “catastrófico” y “existencial” que podría suponer el desarrollo de la inteligencia artificial.

Mientras que a algunos les preocupa que una inteligencia artificial poderosa destruya por completo a la humanidad, ya sea de forma accidental o deliberada, el CAIS describe otros daños más perjudiciales. Un mundo en el que los sistemas de inteligencia artificial realicen cada vez más tareas de forma voluntaria podría hacer que la humanidad “perdiera la capacidad de autogobernarse y que se volviera completamente dependiente de las máquinas”, una situación descrita como “debilitamiento”; y que un pequeño grupo de personas que controlara sistemas poderosos pudiera “convertir la inteligencia artificial en una fuerza centralizadora”, lo que daría lugar a un “bloqueo de valores”, un eterno sistema de castas entre gobernantes y gobernados.

Los directores de OpenAI señalan que esos riesgos significan que “la gente de todo el mundo debería decidir democráticamente los límites y los valores predeterminados de los sistemas de inteligencia artificial”, aunque admiten que “aún no sabemos cómo diseñar ese mecanismo”. No obstante, comentan que vale la pena correr el riesgo de seguir desarrollando sistemas potentes.

“Creemos que va a conducir a un mundo mucho mejor de lo que podemos imaginar en la actualidad (ya estamos observando los primeros ejemplos de ello en ámbitos como la educación, el trabajo creativo y la productividad personal)”, escriben.

Advierten que también podría resultar peligroso pausar el desarrollo. “Como las ventajas son tan grandes, el costo de construirlo disminuye cada año, el número de actores que lo construyen aumenta con rapidez y es una parte intrínseca del camino tecnológico en el que nos encontramos. Para detenerlo haría falta algo parecido a un régimen de vigilancia mundial, e incluso eso no tiene garantías de funcionar. De modo que tenemos que hacerlo bien”.

Entradas recientes

  • México

Bloquean la México-Puebla, en el Puente Rojo, por desaparición de Kimberly Mozo

Manifestantes que exigen la aparición de la menor de edad Kimberly Mozo mantienen un bloqueo en la autopista México-Puebla, a…

30 abril, 2024
  • México

Ceci Flores localiza restos humanos y crematorio en CDMX; “este país no está bien”

Ceci Flores, líder del colectivo Madres Buscadoras de Sonora, dijo que también hallaron credenciales del INE de mujeres y libretas…

30 abril, 2024
  • Entretenimiento

‘Jujutsu Kaisen 0’: Sinopsis y personajes de la película

Luego de su éxito en la pantalla grande, el filme llegará al catálogo de Netflix.

30 abril, 2024
  • Estilo y Bienestar

La diseñadora japonesa Yumi Katsura murió a los 94 años

Katsura obtuvo el récord Guinness por confeccionar un traje de boda con más de 13 mil perlas.

30 abril, 2024
  • La-Lista Labs

Protección para la infancia: El papel de los seguros en el Día del Niño

Es indispensable saber que las emergencias pueden surgir en cualquier momento y causar desequilibrios económicos en el Día del Niño.

30 abril, 2024
  • Familia

Lo que debes saber de la masa madre

En los últimos años ha crecido el interés de los consumidores por llevar una dieta balanceada con más productos naturales…

30 abril, 2024