Apr 12, 2026
Lecture 7 min
Mis à jour Apr 12, 2026

ChatGPT vous a donné des références ? Voici comment vérifier si elles sont réelles

ChatGPT génère des citations d'apparence fiable qui renvoient souvent à des articles inexistants. Un guide étape par étape pour vérifier chaque référence générée par l'IA avant de soumettre votre article.

Dr. Sarah Chen
Publié a day ago

Vous avez demandé à ChatGPT de vous suggérer des références pour votre article de recherche. Il vous en a donné dix. Elles semblent parfaites — noms d'auteurs corrects, titres de revues plausibles, années réalistes, DOI correctement formatés. Vous les collez dans votre bibliographie et passez à autre chose.

Trois de ces références n'existent pas.

Ce n'est pas une hypothèse. Cela arrive constamment. Les grands modèles linguistiques ne consultent pas les articles dans une base de données — ils prédisent à quoi devrait ressembler une citation en se basant sur des modèles dans leurs données d'entraînement. Le résultat est un texte qui suit toutes les conventions de formatage mais renvoie à des articles qui n'ont jamais été publiés.

Si votre professeur, relecteur ou éditeur de revue vérifie ces références, le meilleur scénario est l'embarras. Le pire scénario est un rejet sans examen, une enquête sur l'intégrité académique, ou un article rétracté.

Voici comment détecter les faux avant que quelqu'un d'autre ne le fasse.

Pourquoi ChatGPT génère de fausses références

ChatGPT n'a pas accès à une base de données académique. Lorsque vous demandez une citation, il génère le jeton plausible suivant dans une séquence — le nom d'un premier auteur, une année, un titre de revue, un préfixe DOI — sans vérifier si l'une de ces informations correspond réellement à une publication réelle.

Cela crée trois types de fausses références :

Entièrement inventées. L'article n'existe pas du tout. Le titre, les auteurs et la revue sont tous générés de toutes pièces. Une recherche sur Google Scholar ou CrossRef ne renvoie rien.

Références chimères. Le modèle combine des éléments réels de différents articles. L'auteur est réel et publie dans la revue citée. La revue est réelle. Mais cet article spécifique — cet auteur, ce titre, cette année — n'existe pas. Ce type est dangereux car une vérification partielle réussit.

Références déformées. Un article réel existe, mais ChatGPT se trompe sur un ou plusieurs détails — l'année est décalée d'un an, le nom d'un co-auteur est mal orthographié, ou le DOI a un chiffre transposé. La référence correspond presque à une publication réelle.

Étape 1 : Ne faites pas confiance, vérifiez

La première règle est simple : traitez chaque référence générée par l'IA comme non vérifiée jusqu'à ce que vous confirmiez personnellement son existence.

Cela s'applique quel que soit le modèle d'IA que vous avez utilisé. GPT-4, Claude, Gemini, Perplexity — tous peuvent et génèrent des citations fabriquées. Les modèles dotés de capacités de recherche web réduisent mais n'éliminent pas le problème.

Étape 2 : Vérification rapide — Recherchez le titre

Copiez le titre exact de chaque référence et recherchez-le dans Google Scholar. Utilisez des guillemets pour une correspondance exacte :

"Adaptive neural frameworks for multilingual sentiment analysis"

Si Google Scholar ne renvoie aucun résultat pour le titre exact, l'article n'existe presque certainement pas. Déplacez-le dans votre liste "suspecte".

Si Google Scholar renvoie un résultat, ouvrez-le et vérifiez que les auteurs, l'année et la revue correspondent à ce que ChatGPT vous a donné. Un titre correspondant avec des auteurs différents est une référence chimère.

Temps par référence : 30-60 secondes.

Étape 3 : Vérification du DOI

Si la référence inclut un DOI, vérifiez-le sur doi.org. Collez le DOI dans le résolveur.

Trois résultats possibles :

  • Renvoie au bon article → la référence est probablement réelle. Vérifiez les métadonnées.
  • Renvoie à un article différent → ChatGPT a attribué le mauvais DOI. L'article qu'il a décrit peut ou non exister.
  • "DOI not found" → le DOI est fabriqué. La référence est fausse.

Temps par référence : 15-30 secondes.

Étape 4 : Vérification par lots avec un outil automatisé

Si ChatGPT vous a donné plus de quelques références, les vérifier manuellement prend trop de temps. Collez votre liste complète de références dans le Citation Checker de Citely.

Vérification par lots des références générées par l'IA

L'outil analyse chaque référence, interroge les bases de données académiques et compare les métadonnées champ par champ. Pour chaque référence, il indique :

  • Similitude du titre — un article avec ce titre existe-t-il ?
  • Similitude de l'auteur — les noms des auteurs correspondent-ils à l'enregistrement de la base de données ?
  • Similitude de la date — l'année de publication est-elle correcte ?

Les références qui obtiennent 100 % sur ces trois dimensions sont vérifiées. Tout ce qui est en dessous est signalé pour examen manuel.

Temps pour 10 références : moins d'une minute.

Étape 5 : Remplacez les faux

Pour chaque référence qui échoue à la vérification, vous avez deux options :

Option A : Trouvez le vrai article. La fausse référence de ChatGPT contient souvent un fond de vérité — le sujet est correct, le nom de l'auteur est réel, la revue existe. Utilisez ces fragments pour rechercher l'article réel auquel l'IA "pensait".

Collez le sujet de la fausse référence dans le Source Finder de Citely. Il recherche dans CrossRef, PubMed, OpenAlex, arXiv et Google Scholar des articles réels qui correspondent au sujet. Choisissez le résultat le plus pertinent et remplacez la fausse citation.

Option B : Supprimez la citation. Si l'affirmation dans votre article n'a pas besoin de cette référence spécifique — ou si vous ne trouvez pas d'article réel qui la soutient — supprimez entièrement la citation. Reformulez la phrase pour qu'elle se suffise à elle-même ou citez une autre source que vous avez déjà vérifiée.

Un exemple concret

Voici à quoi ressemble une vérification typique de référence ChatGPT en pratique :

ChatGPT vous a donné :

Wang, L., & Martinez, R. (2023). Deep learning approaches to automated essay scoring: A comprehensive survey. Journal of Educational Technology, 45(2), 189-215. doi:10.1016/j.jedtech.2023.04.012

Étape 1 — Recherche de titre : Google Scholar ne renvoie aucun résultat pour ce titre exact. Suspect.

Étape 2 — Vérification du DOI : doi.org renvoie "DOI not found". Le DOI est fabriqué.

Étape 3 — Vérification de l'auteur : L. Wang est un vrai chercheur qui publie sur des sujets de NLP. R. Martinez publie dans la technologie éducative. Mais ils n'ont jamais co-écrit cet article.

Verdict : Référence chimère. L'IA a combiné de vrais noms d'auteurs avec un article plausible mais fictif.

Correction : Recherchez "deep learning automated essay scoring survey" dans Source Finder. Trouvez un véritable article de synthèse sur ce sujet. Remplacez la fausse citation par la vraie.

Comment utiliser ChatGPT pour les références sans se brûler

Vous n'avez pas à arrêter complètement d'utiliser l'IA. Voici un flux de travail qui vous permet de bénéficier des avantages sans les risques :

  1. Utilisez l'IA pour la découverte, pas pour la citation. Demandez à ChatGPT "Quels sont les articles clés sur [sujet] ?" Utilisez ses suggestions comme termes de recherche, pas comme citations. Ensuite, trouvez les articles réels vous-même.

  2. Ne copiez jamais-collez les références de l'IA directement dans votre bibliographie. Vérifiez toujours d'abord, citez ensuite.

  3. Demandez à ChatGPT des stratégies de recherche plutôt que des références. "Quels mots-clés devrais-je rechercher sur Google Scholar pour trouver des articles sur [sujet] ?" est une invite plus sûre que "Donnez-moi 5 références sur [sujet]."

  4. Effectuez une vérification par lots avant la soumission. Même si vous pensez avoir tout vérifié, passez votre liste complète de références dans Citation Checker comme filet de sécurité final. Il détecte les erreurs que vous auriez pu manquer — y compris les références qui étaient correctes lorsque vous les avez ajoutées mais qui ont été rétractées depuis.

Ce que votre professeur vérifie déjà

Si vous pensez que personne ne le remarquera, considérez ceci :

  • Plusieurs universités exigent désormais des étudiants qu'ils vérifient le contenu généré par l'IA, y compris les listes de références
  • Les éditeurs de revues effectuent de plus en plus de vérifications ponctuelles sur les listes de références soumises
  • Une seule fausse citation peut déclencher un examen d'intégrité académique
  • Retraction Watch publie des cas d'articles rétractés en raison de références fabriquées

Le coût de la vérification est de quelques minutes. Le coût de la non-vérification est potentiellement votre carrière universitaire.

Points clés à retenir

  • ChatGPT et d'autres LLM génèrent trois types de fausses citations : des articles entièrement inventés, des références chimères combinant des éléments réels, et des citations déformées avec de petites erreurs — aucune de celles-ci n'est récupérée dans des bases de données, ce sont des textes générés statistiquement
  • Traitez toujours les références générées par l'IA comme non vérifiées — recherchez chaque titre dans Google Scholar et vérifiez chaque DOI sur doi.org avant de les ajouter à votre bibliographie
  • Pour plus de quelques références, utilisez un vérificateur de citations automatisé pour vérifier par lots votre liste complète en moins d'une minute — la vérification manuelle à grande échelle est impraticable
  • Lorsqu'une fausse référence est trouvée, soit trouvez l'article réel que l'IA approximait (en utilisant une recherche de citation inversée), soit supprimez entièrement la citation — ne laissez jamais une référence non vérifiée dans votre article
  • Utilisez l'IA pour la découverte de littérature (stratégies de recherche, suggestions de sujets) plutôt que pour la citation directe — cela permet de bénéficier des avantages d'efficacité sans le risque de fabrication

Vérifiez vos références → citely.ai/citation-checker