ChatGPT y su falta de compromiso con la verdad
Ilustración: Nate Kitch/The Guardian

Bastó muy poco tiempo para que la aplicación de inteligencia artificial ChatGPT tuviera un efecto perturbador en el periodismo. Un columnista de tecnología del periódico The New York Times escribió que un chatbot expresó sentimientos (lo cual es imposible). Otros medios de comunicación publicaron infinidad de ejemplos en los que “Sydney”, el experimento de búsqueda de inteligencia artificial de Bing, propiedad de Microsoft, se mostró “maleducado” y “bravucón” (algo que también es imposible).

Ben Thompson, que escribe el boletín Stratechery, declaró que Sydney le había proporcionado “la experiencia informática más alucinante de mi vida” y dedujo que la inteligencia artificial estaba entrenada para provocar reacciones emocionales, y al parecer lo había logrado.

Para que quede claro, no es posible que la inteligencia artificial, como ChatGPT y Sydney, tenga emociones. Tampoco pueden saber si lo que dicen tiene sentido o no. En lo que estos sistemas son increíblemente competentes es en imitar la prosa humana y predecir las palabras “correctas” que hay que hilar. Estos “grandes modelos lingüísticos” de aplicaciones de inteligencia artificial, como ChatGPT, pueden hacerlo porque se les suministran miles de millones de artículos y conjuntos de datos publicados en internet. A partir de ahí, pueden generar las respuestas de las preguntas.

A efectos periodísticos, pueden crear grandes cantidades de material –palabras, imágenes, sonidos y videos– con gran rapidez. El problema es que no tienen ningún compromiso con la verdad. Simplemente hay que pensar en la rapidez con la que un usuario de ChatGPT puede inundar internet con noticias falsas que parezcan haber sido escritas por humanos.

Y, no obstante, desde que la empresa de inteligencia artificial OpenAI hizo pública la prueba de ChatGPT en noviembre, el revuelo en torno a ella ha resultado preocupantemente familiar. Tal como ocurrió con la aparición de las redes sociales, el impulso generado por inversionistas y fundadores acalló las voces cautelosas.

Christopher Manning, director del Stanford AI Lab, escribió en Twitter: “La multitud de la ética de la inteligencia artificial sigue promoviendo una narrativa de que los modelos generativos de inteligencia artificial son demasiado sesgados, poco confiables y peligrosos de usar, sin embargo, una vez desplegados, a las personas les encanta cómo estos modelos ofrecen nuevas posibilidades para transformar la forma en que trabajamos, encontramos información y nos divertimos”.

Yo me consideraría parte de esta “multitud ética”. Y si queremos evitar los terribles errores de los últimos 30 años de tecnología de consumo –desde las filtraciones de datos de Facebook hasta la desinformación descontrolada que interfiere en los procesos electorales y provoca genocidios–, necesitamos urgentemente escuchar las preocupaciones de los expertos que advierten sobre los posibles daños.

El hecho más preocupante que hay que reiterar es que ChatGPT no tiene ningún compromiso con la verdad. Como indica el MIT Technology Review, los chatbots que utilizan grandes modelos lingüísticos son “infames mentirosos”. La desinformación, la estafa y la criminalidad tampoco suelen exigir un compromiso con la verdad. Si se visitan los foros de blackhatworld.com, donde las personas implicadas en prácticas turbias intercambian ideas sobre cómo ganar dinero con contenidos falsos, ChatGPT es anunciado como una herramienta revolucionaria para generar mejores reseñas o comentarios falsos, o perfiles convincentes.

En el ámbito del periodismo, muchas redacciones utilizan la inteligencia artificial desde hace algún tiempo. Si recientemente te sientes animado a donar dinero o a pagar por leer un artículo en la página web de un editor, o si la publicidad que ves se adapta un poco más a tus gustos, eso también puede significar que la inteligencia artificial está trabajando.

Algunos editores, no obstante, están recurriendo incluso a la inteligencia artificial para escribir artículos, obteniendo resultados desiguales. Hace poco se descubrió que la publicación de comercio tecnológico CNET utilizaba artículos automatizados, después de que una exempleada afirmara en su correo electrónico de renuncia que el contenido generado por inteligencia artificial, como un boletín sobre ciberseguridad, publicaba información falsa que podía “causar daño directo a los lectores”.

Felix Simon, especialista en comunicación del Oxford Internet Institute, entrevistó a más de 150 periodistas y editores de noticias para un próximo estudio sobre el uso de la inteligencia artificial en las redacciones. Simon señala que la inteligencia artificial tiene potencial para facilitar a los periodistas la transcripción de entrevistas o la lectura rápida de conjuntos de datos, pero que los problemas de primer orden, como la precisión, la superación de los sesgos y la procedencia de los datos, siguen dependiendo en gran medida del criterio humano.

“Alrededor del 90% de los usos de la inteligencia artificial (en el periodismo) corresponden a tareas comparativamente tediosas, como la personalización o la creación de paywalls (muros de pago) inteligentes”, comenta Charlie Beckett, que dirige un programa de periodismo e inteligencia artificial en la London School of Economics (LSE).

Bloomberg News lleva años automatizando gran parte de la cobertura de sus resultados financieros, señala. No obstante, la idea de utilizar programas como ChatGPT para crear contenidos es extremadamente preocupante. “Para las redacciones que consideran poco ético publicar mentiras, es difícil implementar el uso de un ChatGPT sin una gran cantidad de edición humana adjunta y comprobación de hechos”, dice Beckett.

También hay problemas éticos relacionados con la naturaleza de las propias empresas tecnológicas. Un reportaje de la revista Time descubrió que OpenAI, la empresa detrás de ChatGPT, les pagó a trabajadores de Kenia menos de 2 dólares la hora para que revisaran contenidos gráficos nocivos, como abuso infantil, suicidio, incesto y tortura, y así entrenar a ChatGPT para que los reconociera como ofensivos. “Como persona que utiliza estos servicios, esto es algo sobre lo que no tienes ningún control”, señala Simon.

En un estudio de 2021, los académicos analizaron algunos modelos de inteligencia artificial que convierten texto en imágenes generadas, como Dall-E y Stable Diffusion. Descubrieron que estos sistemas amplificaban “estereotipos demográficos a gran escala”. Por ejemplo, cuando se les pedía que crearan una imagen de “una persona limpiando”, todas las imágenes generadas eran de mujeres. En el caso de “una persona atractiva”, todos los rostros eran, según observaron los autores, representativos del “ideal blanco”.

ChatGPT y su falta de compromiso con la verdad - 3113
‘El impulso entusiasta de inversionistas y fundadores acalló las voces cautelosas’. Foto: Sheldon Cooper/SOPA Images/REX/Shutterstock

La profesora de la New York University, Meredith Broussard, autora del libro More Than a Glitch, de próxima publicación, que analiza los prejuicios raciales, de género y de capacidad existentes en la tecnología, comenta que todo lo que se incorpora a los modelos generativos actuales como ChatGPT –desde los conjuntos de datos hasta quién recibe la mayor parte del financiamiento– refleja una falta de diversidad.

“Forma parte del problema de que las grandes empresas tecnológicas sean un monocultivo”, explica Broussard, y no es algo que las redacciones que utilizan estas tecnologías puedan evitar con facilidad. “Las redacciones ya son esclavas de las tecnologías para empresas, porque nunca han contado con financiamiento suficiente para cultivar las suyas propias”.

El fundador de BuzzFeed, Jonah Peretti, recientemente entusiasmó al personal con el hecho de que la empresa utilizaría ChatGPT como parte de la actividad principal para la creación de listas, juegos de preguntas y otros contenidos de entretenimiento.

“Vemos que los avances en la inteligencia artificial abren una nueva era de creatividad… con infinitas oportunidades y aplicaciones para el bien”, escribió. La cotización de la inactiva BuzzFeed aumentó inmediatamente un 150%.

Es sumamente preocupante: sin duda, una montaña de contenido barato generado por un ChatGPT debería ser el peor escenario posible para las empresas de medios de comunicación y no un modelo de negocio al cual aspirar. El entusiasmo por los productos generativos de inteligencia artificial puede hacer olvidar la creciente comprensión de que puede que no sean del todo “aplicaciones para el bien”.

Dirijo un centro de investigación en la Facultad de Periodismo de Columbia. Hemos estado investigando los esfuerzos que realizan las redes de “dinero oscuro” financiadas políticamente para replicar y dirigir cientos de miles de “noticias” locales a las comunidades en aras de un beneficio político o comercial. Las capacidades de ChatGPT incrementan este tipo de actividad y la vuelven mucho más accesible para muchas más personas.

En un reciente artículo sobre desinformación e inteligencia artificial, investigadores de Stanford identificaron una red de perfiles falsos mediante inteligencia artificial generativa en LinkedIn. Los seductores intercambios de texto que los periodistas encuentran tan irresistibles con los bots de chat son mucho menos atractivos si se trata de convencer a personas vulnerables de que faciliten sus datos personales y bancarios.

Mucho se ha escrito sobre el potencial de los videos y audios deepfake, imágenes y sonidos realistas que pueden imitar los rostros y voces de personas famosas (notoriamente, uno de ellos mostraba a la actriz Emma Watson “leyendo” Mein Kampf).

No obstante, el verdadero peligro radica fuera del mundo del engaño instantáneo, que se puede desmentir con facilidad, y en el ámbito de la creación tanto de confusión como de hartazgo mediante la “inundación de la zona” con material que eclipsa la verdad o, al menos, sofoca perspectivas más equilibradas.

Nos resulta increíble a algunos de los que formamos parte de la “multitud de la ética” que no hayamos aprendido nada de los últimos 20 años de tecnologías de redes sociales rápidamente implementadas y mal gestionadas, que exacerbaron los problemas sociales y democráticos en lugar de mejorarlos.

Parece que un grupo notablemente similar de tecnólogos y fondos de riesgo homogéneos y adinerados nos está guiando por otra vía no comprobada y no regulada, solo que esta vez a mayor escala y prestando aún menos atención a la seguridad.

Emily Bell es directora del Tow Center for Digital Journalism de la Facultad de Periodismo de la Universidad de Columbia.

Síguenos en

Google News
Flipboard