El gobierno de EU se reúne con empresas de IA para hablar de regulación
Casa Blanca se reúne con empresas de IA; busca regulación. Foto: Andrew Neel/ Pexels

La Casa Blanca dijo que las empresas líderes en inteligencia artificial (IA) tienen el deber “moral” de proteger a la sociedad de los peligros potenciales de esta tecnología al tiempo que estudia nuevas regulaciones para el sector.

La vicepresidenta Kamala Harris convocó a los directivos de Google, Microsoft, OpenAi y Anthropic para trazar estrategias sobre el impacto de la IA, ante temores de que la industria avance a ciegas en esta tecnología con potenciales riesgos para la sociedad.

“El sector privado tiene el deber ético, moral y legal de asegurarse de la seguridad de sus productos”, indicó Harris en un comunicado tras reunirse con Satya Nadella (Microsoft), Sundar Pichai (Google), Sam Altman (OpenAI) y Dario Amodei (Anthropic) y varios miembros del gobierno.

Harris señaló que la IA tiene el “potencial de mejorar la vida cotidiana y abordar algunos de los mayores desafíos de la sociedad”, pero también podría “aumentar drásticamente las amenazas a la seguridad, reducir los derechos humanos y la privacidad y socavar la confianza pública en la democracia”.

Por su parte -al intervenir brevemente en la reunión-, el presidente Joe Biden advirtió a los empresarios del “enorme potencial y enorme peligro en lo que ustedes hacen”.

“Sé que ustedes lo entienden y espero que puedan informarnos de lo que consideren que es más necesario para proteger a la sociedad, así como para su avance”, agregó el mandatario.

Biden ha insistido al Congreso para fijar leyes con límites más estrictos en el sector tecnológico, aunque estos esfuerzos tienen pocas posibilidades debido a las divisiones políticas.

Con lo anterior, la Casa Blanca busca incorporar regulación a la IA, pues ante la falta de la misma ha permitido a Silicon Valley la libertad de lanzar nuevos productos rápidamente y ha alimentado temores que que la IA pueda causar estragos en la sociedad antes de que el gobierno se ponga al día en este tema.

La IA está presente hace años en la vida cotidiana, desde las redes sociales hasta los electrodomésticos de alta gama y los programas de reclutamiento de personal.

Sin embargo, el deslumbrante éxito desde fines del año pasado de ChatGPT, la interfaz de IA generativa de OpenAI, una empresa emergente financiada ampliamente por Microsoft, fue el punto de partida para una carrera hacia sistemas cada vez más intuitivos y eficientes, que son capaces de generar textos, imágenes y códigos de programación cada vez más complejo.

Su lanzamiento despertó entusiasmo e inquietudes a una nueva escala. Especialmente cuando Sam Altman, director ejecutivo de OpenAI, anticipó la próxima generación de la llamada IA “general”, donde los programas serán “más inteligentes que los humanos en general”.

Sin obligaciones

Los riesgos de la IA van desde la discriminación hasta la automatización de tareas realizadas por humanos, el robo de propiedad intelectual o la desinformación sofisticada a gran escala, entre otros.

A fines de 2022, la Casa Blanca publicó un “Plan para una Declaración de Derechos de la IA”, un breve documento que enumera principios generales como la protección contra sistemas peligrosos o falibles.

A principios de este año, el Instituto Nacional de Estándares y Tecnología (NIST), un centro afiliado al gobierno, diseñó un “marco para la gestión de riesgos” relacionado con la IA.

El presidente Biden dijo el mes pasado que estas empresas “claramente (…) deben asegurarse de que sus productos sean seguros antes de ponerlos a disposición del público en general”.

Sin embargo, “estas directrices y declaraciones no obligan a las empresas afectadas a hacer nada”, subrayó David Harris, quien fue director de investigación en IA en Meta.

“Los propios patrones reclaman más regulaciones”, remarcó, aunque Facebook, a pesar de haber “llamado públicamente” a mejorar las leyes que rigen la confidencialidad de los datos personales, “paga al mismo tiempo a lobbies que combaten estos proyectos de ley”.

La Casa Blanca anunció el jueves que buscará la regulación de la IA, así como nuevas inversiones en la investigación sobre dicha tecnología y nuevos métodos de evaluación de los sistemas actuales.

“Daño real”

Los gigantes de la IA no niegan que existan riesgos, pero temen que se asfixie la innovación por leyes demasiado restrictivas.

“La IA será utilizada por actores maliciosos, y sí, va a causar daños”, dijo el miércoles el economista jefe de Microsoft, Michael Schwarz, durante un panel en el Foro Económico Mundial, según Bloomberg.

Pero pidió a los legisladores que no se apresuren y que cuando haya un “daño real”, se aseguren de que “los beneficios de la regulación sean mayores que el precio para la sociedad”.

“La última vez que nos enfrentamos a semejante convulsión social debido a las tecnologías fue a comienzos de la web 2.0, en los años 2002”, dijo el miércoles Lina Khan, presidenta de la Comisión Federal de Comercio, la agencia estadounidense de protección al consumidor.

Al otro lado del Atlántico, Europa espera liderar de nuevo el camino hacia una regulación ad-hoc en torno a la IA, como ya lo hizo con la ley de datos personales.

“No es una carrera. Estamos trabajando en conjunto con nuestros colegas europeos”, dijo un alto funcionario de la Casa Blanca.

Con información de AFP

Síguenos en

Google News
Flipboard