Google, Microsoft, OpenAI y una startup crean un organismo para regular el desarrollo de IA
Google y OpenAI, desarrollador de ChatGPT, crearon Frontier Model Forum junto con Microsoft y la startup Anthropic. Foto: Jonathan Raa/NurPhoto/REX/Shutterstock

Cuatro de las empresas más influyentes en el campo de la inteligencia artificial anunciaron la creación de un organismo industrial que supervisará el desarrollo seguro de los modelos más avanzados.

El organismo Frontier Model Forum fue creado por OpenAI, desarrollador de ChatGPT, Anthropic, Microsoft y Google, propietaria de la empresa DeepMind, con sede en el Reino Unido.

El grupo indicó que se centraría en el desarrollo “seguro y responsable” de modelos de inteligencia artificial de frontera, en referencia a la tecnología de inteligencia artificial aún más avanzada que los ejemplos disponibles en la actualidad.

“Las empresas que crean tecnología de inteligencia artificial tienen la responsabilidad de garantizar que sea segura, confiable y permanezca bajo control humano”, indicó Brad Smith, presidente de Microsoft. “Esta iniciativa constituye un paso vital para unir al sector tecnológico en el avance de la inteligencia artificial de forma responsable y para afrontar los retos de modo que beneficie a toda la humanidad”.

Los miembros del foro indicaron que sus principales objetivos eran promover la investigación en seguridad de la inteligencia artificial, como el desarrollo de normas para evaluar modelos; fomentar el despliegue responsable de modelos avanzados de inteligencia artificial; debatir los riesgos de confianza y seguridad que entraña la inteligencia artificial con políticos y académicos; y ayudar a desarrollar usos positivos de la inteligencia artificial como la lucha contra la crisis climática y la detección del cáncer.

Añadieron que la afiliación al grupo estaba abierta para las organizaciones que desarrollan modelos de frontera, definidos como “modelos de aprendizaje automático a gran escala que superan las capacidades actuales presentes en los modelos existentes más avanzados y que pueden realizar una amplia variedad de tareas”.

El anuncio surge en un momento en que se intensifican las iniciativas para regular esta tecnología. El viernes, las empresas tecnológicas –entre ellas los miembros fundadores de Frontier Model Forum– acordaron establecer nuevas garantías para la inteligencia artificial después de una reunión en la Casa Blanca con el presidente estadounidense, Joe Biden. Entre los compromisos asumidos en la reunión figuran poner marcas de agua a los contenidos de inteligencia artificial para facilitar la detección de material engañoso, como los deepfakes, y permitir que expertos independientes comprueben los modelos de inteligencia artificial.

El anuncio de la Casa Blanca suscitó el escepticismo de algunos activistas, que señalaron que la industria tecnológica tiene un historial de incumplir sus compromisos de autorregulación. Un experto calificó el anuncio que hizo Meta la semana pasada de poner a disposición del público un modelo de inteligencia artificial como “algo así como darle a la gente un patrón para que construya una bomba nuclear”.

El anuncio del foro hace referencia a las “importantes contribuciones” en materia de seguridad de la inteligencia artificial que están haciendo organismos como el gobierno del Reino Unido, el cual convocó una cumbre mundial sobre seguridad de la inteligencia artificial, y la Unión Europea, que está introduciendo una ley sobre inteligencia artificial que constituye el intento legislativo más serio de regular esta tecnología.

El Dr. Andrew Rogoyski, del Institute for People-Centred AI de la Universidad de Surrey, comentó que la supervisión de la inteligencia artificial no debe caer en la “captura del regulador”, es decir, que los intereses de las empresas dominen el proceso normativo.

Y añadió: “Me preocupa mucho que los gobiernos hayan cedido el liderazgo en materia de inteligencia artificial al sector privado, probablemente de forma irreversible. Es una tecnología muy poderosa, con un gran potencial para el bien y para el mal, que necesita una supervisión independiente que represente a las personas, las economías y las sociedades que se verán afectadas por la inteligencia artificial en el futuro”.

Síguenos en

Google News
Flipboard