El placer de escuchar

Los bibliotecarios no te están ocultando libros secretos que solo conoce la IA, sino que es posible que la IA esté inventando referencias inexistentes

Todos sabemos que los chatbots de IA como ChatGPT, Grok y Gemini a menudo pueden alucinar fuentes. Pero los encargados de ayudar al público a encontrar libros y artículos publicados encuentran que toda la basura falsa de la IA se está cobrando su precio. Los bibliotecarios suenan realmente agotados ante los pedidos de títulos que no existen, según un nuevo posteo de Scientific American.

La publicación habló con Sarah Falls, a cargo del área de investigación de la Biblioteca de Virginia, que calcula que cerca del 15% de las consultas que reciben ha sido generada por chatbots de IA como ChatGPT. Y las solicitudes suelen incluir preguntas sobre citas falsas.

Además, Falls sugiere que la gente parece no creerles a los bibliotecarios cuando les explican que tal o cual fuente no existe, tendencia que también informaron otros como 404 Media.

Un posteo reciente del Comité Internacional de la Cruz Roja, titulado “Aviso importante: referencia de archivo generada por IA”, brinda más evidencia de que los bibliotecarios se sienten agotados con todo esto.

“Si no se puede encontrar una referencia, no significa que el Comité Internacional esté ocultando información. Las situaciones posibles incluyen las citas incompletas, los documentos que preservan otras instituciones o – cada vez más – alucinaciones generadas por la IA”, indica la organización. “En esos casos conviene mirar la historia administrativa de la fuente de referencia para determinar si corresponde a una fuente de archivo real”. 

No existen

Este año parece haber estado repleto de ejemplos de falsos libros y publicaciones académicas que creó la IA. Un escritor freelance del Chicago Sun-Times generó una lista de lectura para el verano con 15 libros recomendados, pero diez de esos libros no existen. El primer informe del Secretario de Salud Robert F. Kennedy para su movimiento de MAHA (Make America Healthy AGain) se publicó en mayo, pero una semana después los periodistas de NOTUS publicaron que tras revisar las citas había al menos siete cuyas fuentes no existían.

No se puede culpar por todo a la IA. Ha habido trabajos que se retractaron por dar falsas citas desde mucho antes de que existiera ChatGPT u otros chatbots. En 2017 un profesor de la Universidad de Middlesex encontró al menos 400 trabajos académicos que citaban una investigación que esencialmente equivalía a texto de relleno.

La cita de referencia era:

Van der Geer, J., Hanraads, J.A.J., Lupton, R.A., 2010. The art of writing a scientific article. J Sci. Commun. 163 (2) 51-59. 

Y no correspondía a nada aunque la referencia aparecía en trabajos de baja calidad, producidos por gente que, o bien no quería trabajar, o era desprolija, o buscaba engañar. Es muy probable que los autores de esos trabajos se sintieran avergonzados por incluir una referencia falsa. Pero con las herramientas de IA son demasiadas las personas que están convencidas de que los chatbots son más confiables que los humanos.

¿Por qué lo harían? Porque parte de la magia de la IA es hablar con una voz de autoridad. ¿Vas a creerle al chatbot que usas todo el día o a un bibliotecario cualquiera con quien hablas por teléfono? El otro problema es que las personas desarrollan trucos confiables que hacen que la IA parezca merecer la confianza.

Otros incluso piensan que añadir cosas como “no alucinar” o “escribir código limpio” al solicitar información de un chatbot asegura que la respuesta de la IA sea de calidad superior. Si eso funcionara, imaginamos que compañías como Google y OpenAI lo añadirían cada vez que preguntas algo. Y si así fuera, sería la solución para las tecnológicas que hoy sienten terror ante la posibilidad de que estalle la burbuja de la IA.

Este artículo ha sido traducido de Gizmodo US por Romina Fabbretti. Aquí podrás encontrar la versión original.

Actualizáte