Je vérifie chaque référence avant soumission — Voici ma méthode exacte
Je publie dans des revues à comité de lecture depuis plus de dix ans. Linguistique computationnelle, IA agricole, travaux interdisciplinaires qui s'appuient sur des dizaines de sous-domaines. Mes listes de références comptent généralement entre 50 et 80 éléments. Et j'ai appris, par une expérience douloureuse, qu'une seule référence erronée peut retarder la publication de plusieurs semaines.
Il y a trois ans, une revue Q1 a rejeté sans examen un manuscrit sur lequel j'avais travaillé six mois. La raison n'était pas la méthodologie ou les résultats — c'était deux références dans la bibliographie qui ne correspondaient pas à leurs DOI. L'une avait une année de publication incorrecte. L'autre pointait vers un article complètement différent. La note de l'éditeur était directe : « Veuillez vérifier toutes les références et soumettre à nouveau. »
Ce rejet m'a coûté un cycle de révision et, parce qu'un autre groupe a publié des résultats similaires entre-temps, m'a probablement coûté la priorité de la découverte. Depuis, je vérifie chaque référence avant soumission. Sans exception. Voici la méthode que j'ai développée.
Pourquoi les erreurs de référence sont plus courantes que vous ne le pensez
La plupart des chercheurs supposent que leur liste de références est correcte parce qu'ils ont utilisé un gestionnaire de citations. Zotero, Mendeley, EndNote — ces outils sont excellents pour organiser les références, mais ils ne sont pas infaillibles.
Voici les façons courantes dont les erreurs s'insinuent :
Problèmes de synchronisation du gestionnaire de citations. Vous importez un article de Google Scholar, et les métadonnées sont légèrement erronées — une initiale manquante, un nom de revue abrégé qui ne correspond pas au titre officiel de l'éditeur, une année de prépublication au lieu de l'année de publication. Le gestionnaire de citations stocke ce qu'il reçoit sans vérification.
Contributions des co-auteurs. Dans les articles multi-auteurs, différentes personnes ajoutent des références. Un post-doctorant colle une citation de mémoire. Un collaborateur utilise un gestionnaire de citations différent avec des sources de métadonnées différentes. Un étudiant ajoute des références suggérées par ChatGPT — et certaines de ces références n'existent pas du tout.
Copier-coller entre manuscrits. Vous réutilisez une section de revue de littérature d'une proposition de subvention ou d'un article précédent. Les références étaient correctes dans le contexte original, mais elles ont maintenant des DOI obsolètes, des articles rétractés ou un formatage qui ne correspond pas au style de la nouvelle revue cible.
Assistance à la rédaction par IA. Même si vous n'utilisez pas l'IA pour générer des références, vous pourriez l'utiliser pour aider à rédiger des paragraphes qui incluent des citations en ligne. L'IA modifie parfois silencieusement la citation — changeant l'année, échangeant un nom d'auteur — d'une manière qui semble correcte à première vue.
J'ai rencontré chacun de ces problèmes dans mes propres manuscrits ou dans des articles que j'ai examinés. Ce ne sont pas des signes de négligence ; ce sont des symptômes d'un flux de travail d'écriture moderne, multi-outils et multi-auteurs.
Ma méthode de vérification des références avant soumission
Je fais cela pour chaque manuscrit, généralement deux jours avant la soumission. Pas la veille — j'ai aussi appris cette leçon.
Étape 1 : Exporter la liste de références en texte brut
Je copie la bibliographie complète de mon manuscrit dans un fichier texte propre. Pas de formatage, pas de champs Zotero intégrés — juste le texte brut de chaque référence tel qu'il apparaîtra dans le PDF soumis.
Pourquoi le texte brut ? Parce que je veux vérifier ce que le relecteur voit, pas ce que mon gestionnaire de citations pense qu'il y a. S'il y a une erreur de synchronisation entre Zotero et la bibliographie exportée, cela la détecte.
Étape 2 : Vérification automatisée des DOI et des métadonnées
Je colle la liste de références entière dans le Citation Checker de Citely. L'outil analyse chaque référence, recherche le DOI dans CrossRef et compare les métadonnées champ par champ — noms d'auteurs, titre, revue, année, volume, pages.

Cette étape prend généralement moins d'une minute pour une liste de 60 références. Elle détecte :
- Les DOI qui ne se résolvent pas (fabriqués ou mal tapés)
- Les DOI qui renvoient à un article différent de celui décrit
- Les années de publication incorrectes (l'erreur la plus courante que je rencontre)
- Les incohérences de noms d'auteurs
- Les divergences de titres de revues
En moyenne, je trouve 2 à 4 problèmes dans chaque manuscrit. Non pas parce que je suis négligent — mais parce que le processus de rédaction académique moderne a trop de points de défaillance pour que la vérification manuelle puisse tout détecter.
Étape 3 : Examen manuel des références signalées
La vérification automatisée signale les références qui nécessitent une attention particulière. Pour chaque élément signalé, je :
- Ouvre le lien DOI dans un navigateur pour voir à quel article il pointe réellement
- Compare l'article que j'avais l'intention de citer avec l'article vers lequel le DOI renvoie
- Corrige la divergence — généralement en corrigeant l'année, en mettant à jour le DOI ou en remplaçant entièrement la référence
La plupart des corrections sont triviales — une année incorrecte, un numéro de page manquant. Mais une ou deux fois par an, je trouve une référence que je ne peux pas vérifier du tout. L'article ne semble pas exister. Cela a toujours été lié à un co-auteur ajoutant une référence d'un outil d'IA sans la vérifier. Nous avons maintenant une politique de laboratoire à ce sujet.
Étape 4 : Vérifier les articles rétractés
Cette étape est distincte de la vérification des DOI. Un article peut avoir un DOI valide et des métadonnées correctes, mais avoir été rétracté.
Je vérifie de manière ponctuelle mes références les plus importantes — celles sur lesquelles mon argument repose — par rapport à Retraction Watch. Pour la liste complète, je vérifie les métadonnées de CrossRef, qui incluent les avis de rétractation pour de nombreux éditeurs.
Citer un article rétracté n'est pas seulement embarrassant ; dans certains domaines, c'est un motif de préoccupation éditoriale concernant l'intégrité de votre propre travail.
Étape 5 : Vérifier le formatage par rapport à la revue cible
C'est l'étape ennuyeuse, mais les éditeurs y prêtent attention. Chaque revue a son propre style de référence — format des noms d'auteurs, règles d'abréviation des revues, format d'affichage des DOI, utilisation des seuils "et al.".
Je compare 3 à 4 références avec les articles publiés de la revue pour m'assurer que mon formatage correspond. Si la revue utilise des noms de revues abrégés, je vérifie que chaque abréviation suit la norme ISO 4 (ou toute autre norme spécifiée par la revue).
Je n'utilise pas d'outil automatisé pour cette étape — je trouve plus rapide de comparer visuellement avec un numéro récent. Mais je sais que certains collègues utilisent Scribbr ou des vérificateurs de formatage similaires ici.
Étape 6 : Relecture finale des citations dans le texte
La dernière étape : je parcours le manuscrit et vérifie que chaque citation dans le texte (Smith et al., 2024) correspond à une entrée dans la bibliographie, et vice versa. Les citations orphelines — références listées dans la bibliographie mais jamais citées dans le texte — sont un signal d'alarme pour les relecteurs. Il en va de même pour les citations dans le texte qui n'apparaissent pas dans la liste de références.
La plupart des traitements de texte signalent ces incohérences si vous utilisez correctement leurs outils de citation. Mais si vous avez effectué des modifications manuelles de citations (ce que je finis toujours par faire pour des raisons de formatage), cette étape détecte ce que le logiciel manque.
Combien de temps cela prend
Pour un manuscrit typique avec 50 à 70 références :
| Étape | Temps |
|---|---|
| Exportation et préparation | 5 minutes |
| Vérification automatisée (Citely) | 1–2 minutes |
| Examen manuel des éléments signalés | 10–20 minutes |
| Vérification des rétractations | 5–10 minutes |
| Vérification du formatage | 15–20 minutes |
| Vérification croisée des citations dans le texte | 10–15 minutes |
| Total | 45–75 minutes |
Environ une heure de travail. Comparez cela aux semaines ou mois perdus à cause d'un rejet sans examen, et le calcul est évident.
Avant de commencer à utiliser des outils automatisés pour l'étape 2, la vérification manuelle des DOI prenait à elle seule 2 à 3 heures. Vérifier chaque DOI manuellement sur doi.org, comparer les métadonnées avec les enregistrements CrossRef, documenter les divergences — c'était rigoureux mais insoutenable. L'étape automatisée a réduit le flux de travail total d'une demi-journée à environ une heure.
Ce que je dis à mes étudiants diplômés
Je supervise un laboratoire de recherche, et chaque étudiant qui soumet un article passe par une formation de vérification des références. Les règles sont simples :
-
Ne soumettez jamais un article avec des références que vous n'avez pas vérifiées. Pas même à un atelier. Pas même une prépublication. Votre nom y est associé.
-
Si vous avez utilisé l'IA pour aider à rédiger une partie de l'article, vérifiez chaque référence deux fois. Les outils d'IA génèrent des citations d'apparence plausible qui citent de vrais auteurs et de vraies revues, mais les combinent de manière incorrecte. Ces références chimériques sont presque impossibles à détecter à l'œil nu.
-
Faites passer la liste complète des références par un vérificateur automatisé avant de me montrer le manuscrit. Je ne devrais pas être celui qui détecte les erreurs de DOI — c'est un problème résolu en 2026.
-
Gardez votre gestionnaire de citations propre. Lorsque vous importez une référence, vérifiez les métadonnées par rapport à la page de l'éditeur. Cela prend 30 secondes par référence lorsque vous le faites au moment de l'importation. Il faut beaucoup plus de temps pour réparer une bibliothèque "sale" avant une date limite.
-
Ne citez pas d'articles que vous n'avez pas lus. Cela semble évident, mais la tentation de gonfler une liste de références avec des articles "qui semblent pertinents" est réelle, surtout pour les sections de revue de littérature. Si vous ne pouvez pas résumer l'argument principal de l'article, ne le citez pas.
Une note sur les manuscrits multi-auteurs
Le problème de la vérification des références s'aggrave de manière exponentielle avec un plus grand nombre d'auteurs. Dans un article avec cinq co-auteurs de trois institutions, chaque personne peut utiliser un gestionnaire de citations différent, des sources de métadonnées différentes et des habitudes différentes concernant les outils d'IA.
Ce qui fonctionne pour nos projets multi-auteurs :
- Une personne est responsable de la liste de références. Généralement l'auteur correspondant ou celui qui gère le fichier du manuscrit. Toutes les additions de références passent par elle.
- La vérification des références a lieu après l'assemblage de la version finale, et non après chaque contribution individuelle. Vérifier les brouillons intermédiaires est un effort gaspillé.
- Nous partageons le rapport de vérification Citely avec tous les co-auteurs avant la soumission afin que chacun puisse examiner les éléments signalés et confirmer que leurs contributions sont propres.
Erreurs courantes que j'ai détectées au fil des ans
Pour vous donner une idée de ce que la vérification des références trouve réellement en pratique :
Année incorrecte (la plus courante). Un article de 2023 cité comme 2024, ou vice versa. Généralement causé par une confusion entre les dates de publication en ligne avant impression et les dates d'impression. Les revues qui utilisent la publication en "accès anticipé" sont particulièrement sujettes à cela.
Substitution de nom d'auteur. "Kim, J." au lieu de "Kim, S." — une seule initiale différente. Cela se produit lorsque les gestionnaires de citations extraient des métadonnées de différentes sources (CrossRef vs. Google Scholar vs. PubMed) qui enregistrent les noms d'auteurs différemment.
Incohérence de titre de revue. "Journal of Machine Learning Research" vs. "Journal of Machine Learning" — proche mais pas la même revue. La seconde n'existe pas. C'est un schéma classique d'hallucination de l'IA.
DOI pointant vers le mauvais article. Le DOI est valide mais appartient à un article différent dans la même revue. Généralement causé par une erreur de copier-coller où le DOI d'une référence a été accidentellement attribué à une autre.
Article rétracté cité sans notification. Deux fois, j'ai détecté des références à des articles qui avaient été rétractés après que nous les ayons ajoutés à notre bibliographie. Dans les deux cas, la rétractation a eu lieu pendant la période de rédaction et nous ne l'avions pas remarquée.
Points clés à retenir
- Les erreurs de référence sont endémiques dans la rédaction académique moderne — les flux de travail multi-auteurs, les problèmes de synchronisation des gestionnaires de citations et les outils de rédaction IA introduisent tous des erreurs difficiles à détecter manuellement
- Une vérification systématique des références avant soumission prend environ une heure pour un article de 60 références et peut éviter des semaines de retard dues à des rejets sans examen
- Les outils de vérification automatisés comme Citely réduisent l'étape manuelle de vérification des DOI de plusieurs heures à quelques minutes en comparant par lots les références avec les enregistrements CrossRef
- Les erreurs les plus courantes sont les années de publication incorrectes, les substitutions de noms d'auteurs et les incohérences de titres de revues — toutes détectables par comparaison automatisée des métadonnées
- Pour les articles multi-auteurs, désignez une personne pour gérer la liste de références et effectuer la vérification après l'assemblage de la version finale
👉 Vérifiez votre liste de références avant votre prochaine soumission