Alucinaciones de Citas por IA: Qué Son, Por Qué Ocurren y Cómo Prevenirlas
Las herramientas de IA generan referencias académicas falsas que parecen reales. Esta guía explica los tres tipos de alucinaciones de citas, cómo detectarlas y un flujo de trabajo práctico para prevenirlas.
Cuando un modelo de lenguaje grande genera una cita, no consulta una base de datos. Predice cómo debería ser una cita basándose en patrones de sus datos de entrenamiento. El resultado es un texto que sigue convenciones de formato perfectas —un nombre de autor plausible, un título de revista real, un DOI correctamente estructurado— asociado a un artículo que no existe.
Esto es una alucinación de citas, y es el riesgo de integridad de más rápido crecimiento en la escritura académica actual.
¿Qué es la Alucinación de Citas?
La alucinación de citas ocurre cuando una herramienta de IA genera una referencia que parece legítima pero no corresponde a ninguna obra publicada real. El término "alucinación" proviene de la comunidad de investigación de IA en general, donde describe cualquier resultado que es fluido y seguro, pero fácticamente incorrecto.
En el contexto de las referencias académicas, la alucinación es particularmente peligrosa porque el resultado imita de cerca el formato y las convenciones de las citas reales. Un lector humano —incluso un investigador experimentado— puede ver una cita alucinada y no encontrar nada malo a primera vista.
Los Tres Tipos de Citas Alucinadas
No todas las citas falsas son iguales. Comprender las variaciones ayuda a saber qué buscar y qué métodos de detección funcionan para cada tipo.
Tipo 1: Referencias completamente fabricadas
La cita completa es inventada —título, autores, revista, año y DOI. Ninguno de los componentes corresponde a una publicación real. Este es el tipo más fácil de detectar: una búsqueda en CrossRef, PubMed o Google Scholar no arroja resultados.
Ejemplo: "Zhang, W., & Roberts, T. (2024). Adaptive neural frameworks for multilingual sentiment analysis. Journal of Computational Linguistics, 48(3), 112-128."
Esto parece perfecto. Pero no existe ningún artículo con este título. La revista existe, pero el volumen 48, número 3, no contiene este artículo. Los autores son investigadores reales, pero nunca han coescrito nada.
Tipo 2: Referencias quimera
La IA combina elementos reales de diferentes artículos en una única cita ficticia. El nombre del autor es real y publica en la revista citada. La revista y el volumen son reales. Pero el artículo específico —ese autor, ese título, ese número— no existe.
Este tipo es peligroso porque la verificación parcial tiene éxito. Puedes confirmar que el autor es real. Puedes confirmar que la revista es real. Incluso podrías encontrar que el autor ha publicado en esa revista. Pero el artículo específico es ficción.
Tipo 3: Referencias distorsionadas
Existe un artículo real, pero la IA se equivoca en uno o más detalles —el año de publicación está desfasado por uno, el nombre de un coautor está mal escrito o el DOI tiene un dígito transpuesto. La referencia casi coincide con una publicación real, lo que la convierte en el tipo más difícil de detectar sin una verificación sistemática.
Por Qué las Herramientas de IA Alucinan Citas
Los modelos de lenguaje grandes no tienen una base de datos de artículos. No "buscan" nada. Generan el siguiente token en una secuencia basándose en patrones estadísticos.
Cuando pides una cita sobre un tema, el modelo genera texto que coincide con el patrón de "cita sobre [tema]". Se basa en:
- Nombres de autores que aparecen con frecuencia en los datos de entrenamiento relacionados con ese tema
- Títulos de revistas que están asociados con el campo
- Años que caen dentro de un rango plausible
- Formatos de DOI que siguen la estructura estándar de prefijo/sufijo
Cada elemento es estadísticamente plausible. Pero debido a que cada uno se genera de forma independiente, la combinación suele ser ficticia.
Esto es fundamentalmente diferente de un motor de búsqueda que devuelve resultados incorrectos. Un motor de búsqueda recupera documentos reales y podría clasificarlos incorrectamente. Un LLM genera documentos que nunca existieron.
¿Qué Tan Común es el Problema?
Los estudios varían, pero el consenso es alarmante:
- GPT-4 genera citas fabricadas en aproximadamente el 25-35% de los casos cuando se le piden referencias académicas sin herramientas de recuperación explícitas.
- Los modelos con generación aumentada por recuperación (RAG) reducen, pero no eliminan el problema —se estima en tasas de fabricación del 5-15% dependiendo del dominio.
- Los campos médico y legal experimentan tasas de alucinación más altas porque los formatos de citación están más estandarizados, lo que hace que la fabricación sea más difícil de distinguir de la realidad.
Las tasas son más altas para temas oscuros (donde el modelo tiene menos datos de entrenamiento) y más bajas para artículos conocidos (donde el modelo ha visto la cita real muchas veces).
Cómo Detectar Citas Alucinadas
Método 1: Verificación de DOI
Copia el DOI y resuélvelo en doi.org. Si obtienes un error de "DOI no encontrado", la cita está fabricada o el DOI tiene un error. Esto detecta las alucinaciones de Tipo 1 de manera fiable.
Limitación: No detecta el Tipo 2 o Tipo 3, donde el DOI podría estar cerca de uno real o donde no se proporciona ningún DOI.
Método 2: Búsqueda por título
Busca el título exacto del artículo (entre comillas) en Google Scholar, CrossRef o Semantic Scholar. Cero resultados sugieren fuertemente la fabricación.
Limitación: Algunos artículos reales no están indexados en todas partes, especialmente los artículos de conferencias, documentos de trabajo y artículos de revistas no inglesas.
Método 3: Verificación automatizada por lotes
Pega tu lista completa de referencias en el Citation Checker de Citely. La herramienta analiza cada referencia, consulta CrossRef y otras bases de datos, y compara los metadatos campo por campo.

Este es el método más eficiente para verificar una bibliografía completa. Detecta los tres tipos de alucinación verificando la cita completa —no solo el DOI o el título de forma aislada, sino la combinación de autor, título, revista, año y DOI juntos.
Método 4: Lista de publicaciones del autor
Busca al primer autor en Google Scholar u ORCID. Comprueba si el artículo específico aparece en su lista de publicaciones. Esto detecta las referencias quimera de Tipo 2 donde el autor es real pero el artículo no lo es.
Un Flujo de Trabajo de Prevención
El mejor enfoque es evitar que las citas alucinadas entren en tu manuscrito en primer lugar:
-
Nunca uses citas generadas por IA sin verificación. Trata cada referencia sugerida por IA como no verificada hasta que confirmes que existe.
-
Usa la IA para el descubrimiento, no para la citación. Está bien preguntar a una IA "¿cuáles son los artículos clave sobre [tema]?" —pero luego busca esos artículos tú mismo en Google Scholar o en la base de datos de tu biblioteca. Usa las sugerencias de la IA como términos de búsqueda, no como citas.
-
Verifica al final, no a medida que avanzas. Es más eficiente escribir todo tu manuscrito y luego verificar todas las referencias a la vez, en lugar de verificar cada cita a medida que la añades.
-
Marca las secciones asistidas por IA. Si utilizaste IA para ayudar a redactar alguna sección, marca esas referencias para un escrutinio adicional. Las secciones donde la IA contribuyó son las más propensas a contener citas alucinadas.
-
Usa una herramienta de verificación dedicada antes de la entrega. Pasa tu lista completa de referencias por un verificador automatizado como paso final antes de la entrega.
Puntos Clave
- La alucinación de citas ocurre cuando la IA genera referencias que parecen reales pero corresponden a artículos que no existen —afecta al 25-35% de las citas generadas por IA.
- Hay tres tipos: completamente fabricadas (las más fáciles de detectar), referencias quimera que combinan elementos reales (peligrosas porque las verificaciones parciales pasan) y citas distorsionadas con pequeños errores (las más difíciles de detectar).
- Los LLM no recuperan citas de bases de datos —generan texto estadísticamente plausible, por lo que cada componente de una cita falsa puede parecer correcto mientras que la combinación es ficticia.
- La verificación de DOI detecta las falsificaciones más obvias, pero solo la verificación automatizada por lotes detecta de forma fiable los tres tipos al comparar la cita completa con los registros de la base de datos.
- La prevención es más efectiva que la detección: usa la IA para el descubrimiento de literatura, luego verifica cada referencia sugerida de forma independiente antes de incluirla en tu manuscrito.
Verifica tus referencias → citely.ai/citation-checker