Pide director de Google regulación mundial de IA
Sundar Pichai, director ejecutivo de Google, señala que el impacto económico de la inteligencia artificial será significativo. Foto: Sajjad Hussain/AFP/Getty Images

El director ejecutivo de Google, Sundar Pichai comentó que las preocupaciones en torno a la inteligencia artificial le quitan el sueño y que esta tecnología puede ser “muy perjudicial” si se utiliza de forma indebida.

Sundar Pichai también pidió la creación de un marco regulador mundial para la inteligencia artificial similar a los tratados que se emplean para regular el uso de armas nucleares, al tiempo que advirtió que la competencia en torno a la consecución de avances en esta tecnología podría provocar que se ignoraran las preocupaciones sobre la seguridad.

En una entrevista en el programa 60 minutes de la cadena CBS, Pichai señaló que los aspectos negativos de la inteligencia artificial le hacían pasar noches en vela. “Puede ser muy perjudicial si se utiliza de manera indebida y aún no tenemos todas las respuestas, además la tecnología avanza con rapidez. Por tanto, ¿eso me quita el sueño? Por supuesto”, señaló.

La empresa matriz de Google, Alphabet, es propietaria de la empresa de inteligencia artificial DeepMind, radicada en el Reino Unido, y lanzó un chatbot que funciona con inteligencia artificial, Bard, en respuesta a ChatGPT, el chatbot desarrollado por la empresa estadounidense de tecnología OpenAI, el cual se ha convertido en un fenómeno desde su lanzamiento en noviembre.

Pichai señaló que los gobiernos tendrían que establecer marcos globales para regular la inteligencia artificial a medida que esta evolucione. El mes pasado, miles de expertos, investigadores y patrocinadores de la inteligencia artificial –incluido el dueño de Twitter, Elon Musk– firmaron una carta en la que solicitaban una pausa en la creación de inteligencias artificiales “gigantescas” de al menos seis meses, ante la preocupación de que se pueda descontrolar el desarrollo de esta tecnología.

Cuando se le preguntó si podría ser necesario un marco similar al que regula las armas nucleares, Pichai respondió: “Lo necesitaríamos”.

La tecnología de inteligencia artificial que utilizan ChatGPT y Bard, conocida como Gran Modelo de Lenguaje (LLM), se entrena a partir de una gran cantidad de datos extraídos de internet y es capaz de responder de forma creíble las instrucciones de los usuarios en una amplia gama de formatos, desde poemas hasta ensayos académicos y codificación de software.

El programa equivalente de generación de imágenes, usado en sistemas como Dall-E y Midjourney, también provocó una mezcla de asombro y alarma al crear imágenes realistas, como la del papa luciendo una chamarra acolchonada.

Pichai añadió que la inteligencia artificial podría causar daños debido a su capacidad para producir desinformación. “Con la inteligencia artificial será posible crear, ya sabes, un video fácilmente. Podría ser un video en el que Scott (Pelley, el entrevistador de CBS) dijera algo, o en el que yo dijera algo, y que en realidad nunca lo hubiéramos dicho. Y podría parecer veraz. Pero ya sabes, a escala social, puede causar mucho daño”.

El director de Google añadió que la versión de su tecnología de inteligencia artificial que ya está disponible para el público, a través del chatbot Bard, es segura. Añadió que Gooogle estaba actuando de forma responsable al retener versiones más avanzadas de Bard para someterlas a distintas pruebas.

Los comentarios de Pichai coincidieron con la noticia publicada el domingo por el periódico The New York Times de que Google estaba construyendo un nuevo motor de búsqueda basado en inteligencia artificial para competir con Bing, el servicio rival de Microsoft, que ha incorporado la tecnología de chatbot detrás de ChatGPT.

Pichai admitió que Google no comprendía del todo cómo su tecnología de inteligencia artificial generaba determinadas respuestas. “Existe un aspecto de esto que nosotros llamamos, todos nosotros en el campo lo llamamos como una ‘caja negra’. Ya sabes, no lo entiendes del todo. Y no se sabe muy bien por qué dijo esto, o por qué se equivocó”.

Cuando el periodista de CBS Scott Pelley le preguntó el motivo por el que Google había hecho público Bard si no comprendía del todo cómo funcionaba, Pichai respondió: “Permíteme decirlo de esta manera. Tampoco creo que comprendamos del todo cómo funciona una mente humana”.

Pichai admitió que la sociedad no parecía estar preparada para los rápidos avances logrados en la inteligencia artificial. Comentó que “parece que hay una diferencia” entre el ritmo al que la sociedad piensa y se adapta a los cambios y el ritmo al que estaba evolucionando la inteligencia artificial. No obstante, añadió que al menos las personas se volvieron más conscientes de sus peligros potenciales con mayor rapidez.

“En comparación con cualquier otra tecnología, he visto a más personas preocupadas al respecto en las primeras fases de su ciclo de vida. Por ello me siento optimista”, señaló.

Pichai comentó que el impacto económico de la inteligencia artificial sería significativo porque tendría repercusiones en todos los ámbitos. Y añadió: “Esto va a repercutir en todos los productos de todas las empresas y es por ello que creo que se trata de una tecnología muy, muy profunda”.

Utilizando un ejemplo relacionado con la medicina, Pichai explicó que en cinco o 10 años un radiólogo podría trabajar con un asistente de inteligencia artificial que le ayudara a clasificar los casos por orden de prioridad. Añadió que se verían afectados los “trabajadores del conocimiento” como escritores, contadores, arquitectos e ingenieros de software.

Síguenos en

Google News
Flipboard