Siempre dimos por sentado que el mayor daño del slop de la inteligencia artificial —ese contenido masivo, barato y poco fiable— quedaría confinado a internet. Redes sociales llenas de ruido, buscadores menos precisos, plataformas creativas erosionadas por lo sintético. Pero algo cambió: ahora ese problema está llegando a un lugar que parecía blindado frente a la desinformación automática. Las bibliotecas.
Cuando los libros no existen, pero alguien los busca

El fenómeno fue documentado recientemente por Scientific American y empieza a repetirse con una frecuencia inquietante. Personas acuden a bibliotecas y archivos en busca de libros, artículos científicos o capítulos concretos que no aparecen en ningún catálogo. No es un error de indexación ni una edición perdida. Simplemente, no existen.
También, la Cruz Roja Internacional ya alertó sobre esta situación y apuntó directamente a herramientas de IA generativa como ChatGPT, Gemini o Copilot. El problema no es nuevo, pero sí su escala. “Estos sistemas no realizan investigaciones ni verifican fuentes”, explican. Generan texto a partir de patrones estadísticos, y eso incluye referencias inventadas que suenan plausibles, pero llevan a un callejón sin salida.
Bibliotecarios desbordados por citas fantasma
Para quienes trabajan en las bibliotecas, el impacto es tangible, explica Xataka. La directora de investigación de una biblioteca en Virginia estima que al menos un 15 % de las consultas por correo están relacionadas con documentos generados por IA. El desafío no es solo encontrar información, sino demostrar que algo no existe.
Una bibliotecaria relató en Bluesky cómo un estudiante le pidió localizar una extensa lista de referencias. Tras no hallar ninguna, descubrió que provenían de los resúmenes automáticos de Google. El patrón se repite: títulos reales de revistas, autores plausibles, números de volumen que nunca fueron publicados.
Según cuenta The New York Times, desde hace tiempo se había detectado este problema. La IA no inventa desde cero: mezcla piezas reales para construir algo convincente. Y eso, para los sistemas de catalogación tradicionales, es una pesadilla.
Libros con IA, papers con IA y el ruido académico

Las citas falsas no son el único frente. También están apareciendo libros escritos íntegramente por IA que muchos bibliotecarios califican, sin rodeos, como “increíblemente malos”. Corea del Sur ya vivió el fracaso de un programa de libros escolares generados por IA, retirados tras mostrar errores graves y falta de coherencia pedagógica.
En paralelo, el propio mundo académico empieza a sufrir el mismo mal. Futurism reveló que muchos papers sobre inteligencia artificial están hechos… con inteligencia artificial. La producción se disparó y congresos como NeurIPS tuvieron que reforzar sus sistemas de revisión. Casos como el del investigador Kevin Zhu, con más de 100 papers en un año, encendieron todas las alarmas: textos con errores básicos, citas inexistentes e incluso fragmentos ocultos para manipular revisiones automáticas.
El límite incómodo de la inteligencia artificial
En la jerga técnica se llaman “alucinaciones”, y son uno de los puntos más débiles de los modelos de lenguaje. El problema no es que se equivoquen —eso también lo hacen los humanos—, sino que lo hagan con una seguridad aplastante, cierra Xataka.
El caso de Deloitte,, que entregó al gobierno australiano un informe con referencias completamente inventadas, dejó claro el riesgo: cuando confiamos en la IA sin verificar, el error deja de ser digital y se vuelve institucional.
Las bibliotecas, guardianas históricas del conocimiento, están siendo una de las primeras líneas en notar el gran impacto. Y su advertencia es clara: mientras la IA no aprenda a distinguir entre saber y parecer, el trabajo humano seguirá siendo imprescindible. Porque cuando todo suena creíble, comprobarlo se vuelve más importante que nunca.