Las revistas científicas prohíben la inclusión de ChatGPT como coautor en los artículos
'La inteligencia artificial ya desplaza el proceso creativo de los seres humanos, algo que sólo habíamos imaginado desde la ficción o visto en algunas películas con temática apocalíptica'. Foto: Hollandse Hoogte/Rex/Shutterstock

Las editoriales de miles de revistas científicas prohibieron o restringieron a sus colaboradores el uso de un avanzado bot de chat basado en inteligencia artificial, ante la preocupación de que pudiera llenar la literatura académica de investigaciones deficientes e incluso falsas.

ChatGPT, un bot de chat de gran fluidez, pero poco confiable desarrollado por la empresa californiana OpenAI, ha impresionado o inquietado a más de un millón de usuarios humanos escribiendo poemas, relatos cortos, ensayos e incluso consejos personales desde su lanzamiento en noviembre.

Pero aunque el bot de conversación ha demostrado ser una gran fuente de diversión –su explicación de cómo liberar un sandwich de mantequilla de cacahuate de una videograbadora, al estilo de la Biblia del rey Jacobo, es un éxito notable–, el programa también puede producir resúmenes científicos falsos que son lo bastante convincentes como para engañar a los críticos humanos.

Los usos más legítimos de ChatGPT en la preparación de artículos ya lo han llevado a figurar como coautor en varios artículos.
La súbita aparición de ChatGPT provocó una avalancha de reacciones entre los editores. El jueves, Holden Thorp, redactor en jefe de la prestigiosa revista estadounidense Science, anunció una actualización de su política editorial, en la que prohibió el uso de textos redactados por ChatGPT y aclaró que el programa no podía ser incluido como autor.

“Dado el frenesí que se ha generado en torno a este asunto, es una buena idea hacer absolutamente explícito que no permitiremos que ChatGPT figure como autor ni que se utilice su texto en los artículos”, indicó Thorp.

Las principales revistas científicas exigen que los autores firmen un formulario en el que declaran que son responsables de su contribución al trabajo. Dado que ChatGPT no puede hacer esto, no puede figurar como autor, explica Thorp.

Sin embargo, incluso el uso de ChatGPT en la preparación de un artículo es un problema, opina Thorp. ChatGPT comete muchos errores que podrían llegar a la literatura, señala, y si los científicos llegan a depender de programas de inteligencia artificial para preparar reseñas bibliográficas o resumir sus hallazgos, se podría perder el contexto adecuado del trabajo y el profundo escrutinio que merecen los resultados. “Es la dirección opuesta de hacia dónde tenemos que ir”, comenta.

Otras editoriales realizaron cambios similares. El martes, Springer-Nature, que publica casi 3 mil revistas, actualizó sus normas para establecer que ChatGPT no puede figurar como autor. No obstante, la editorial no prohibió por completo el uso de ChatGPT. Se puede seguir utilizando esta herramienta, y otras similares, en la preparación de artículos, siempre y cuando se incluyan todos los detalles en el manuscrito.

“La novedad específica ante la que sentimos con mucha fuerza que teníamos que reaccionar era el hecho de que, prácticamente de repente, la herramienta aparecía como coautor”, comentó Magdalena Skipper, redactora en jefe de Nature.

Con la aplicación de medidas de control adecuadas, opina Skipper, ChatGPT y otras herramientas similares de inteligencia artificial podrían ser beneficiosas para la ciencia, sobre todo para igualar las condiciones de los hablantes no nativos de inglés, que podrían utilizar programas de inteligencia artificial para hacer más fluido el lenguaje de sus artículos.

Elsevier, que publica alrededor de 2 mil 800 revistas, entre ellas Cell y The Lancet, adoptó una postura similar a la de Springer-Nature. Sus normas permiten el uso de herramientas de inteligencia artificial “para mejorar la legibilidad y el lenguaje del artículo de investigación, pero no para sustituir tareas clave que deberían realizar los autores, como la interpretación de los datos o la elaboración de conclusiones científicas”, indicó Andrew Davis, de Elsevier, quien añadió que los autores deben declarar si utilizaron herramientas de inteligencia artificial y cómo las utilizaron.

Michael Eisen, redactor en jefe de eLife, señaló que ChatGPT no podía figurar entre los autores, pero consideraba que su adopción era inevitable. “Creo que la pregunta más acertada no es si se debe permitir, sino cómo gestionar el hecho de que se esté utilizando”, comentó. “Lo más importante, al menos por el momento, es que los autores sean muy francos sobre su uso y describan la forma en que lo utilizaron, y que nosotros dejemos claro que al usar la herramienta ellos asumen la responsabilidad de su resultado”.

Sandra Wachter, profesora de Tecnología y Regulación de la Universidad de Oxford, señaló: “Es estupendo ver que las editoriales están tomando medidas. ChatGPT permite tomar atajos y esto es especialmente preocupante cuando el contenido sugerido no se comprueba rigurosamente, sino que se da por sentado que es correcto. Esto puede conducir a la desinformación y a la ciencia basura. Creo que muchos otros sectores, como la educación, el arte y el periodismo, tendrán que considerar medidas similares, porque se están enfrentando a retos parecidos”.

Síguenos en

Google News
Flipboard