Ich überprüfe jede Referenz vor der Einreichung – hier ist mein genauer Workflow

Dr. Emily Carteron 5 hours ago

Seit über einem Jahrzehnt publiziere ich in peer-reviewten Fachzeitschriften. Computerlinguistik, Agrar-KI, interdisziplinäre Arbeiten, die aus Dutzenden von Unterfeldern schöpfen. Meine Referenzlisten umfassen typischerweise 50–80 Einträge. Und ich habe durch schmerzhafte Erfahrung gelernt, dass eine einzige fehlerhafte Referenz die Veröffentlichung um Wochen verzögern kann.

Vor drei Jahren lehnte eine Q1-Zeitschrift ein Manuskript ab, an dem ich sechs Monate gearbeitet hatte. Der Grund war weder die Methodik noch die Ergebnisse – es waren zwei Referenzen in der Bibliografie, die nicht mit ihren DOIs übereinstimmten. Eine hatte das falsche Erscheinungsjahr. Die andere verwies auf ein völlig anderes Paper. Die Anmerkung des Herausgebers war unverblümt: „Bitte überprüfen Sie alle Referenzen und reichen Sie sie erneut ein.“

Diese Ablehnung kostete mich einen Revisionszyklus und, da eine andere Gruppe in der Zwischenzeit ähnliche Ergebnisse veröffentlichte, wahrscheinlich auch den Prioritätsanspruch. Seitdem überprüfe ich jede einzelne Referenz vor der Einreichung. Keine Ausnahmen. Hier ist der Workflow, den ich entwickelt habe.

Warum Referenzfehler häufiger sind, als Sie denken

Die meisten Forscher gehen davon aus, dass ihre Referenzliste korrekt ist, weil sie einen Zitationsmanager verwendet haben. Zotero, Mendeley, EndNote – diese Tools sind hervorragend zum Organisieren von Referenzen, aber sie sind nicht unfehlbar.

Häufige Fehlerquellen:

Synchronisationsprobleme des Zitationsmanagers. Sie importieren ein Paper von Google Scholar, und die Metadaten sind leicht falsch – ein fehlender zweiter Vorname, ein abgekürzter Zeitschriftenname, der nicht mit dem offiziellen Titel des Verlags übereinstimmt, ein Preprint-Jahr anstelle des Erscheinungsjahres. Der Zitationsmanager speichert, was er erhält, ohne Überprüfung.

Beiträge von Koautoren. In Papern mit mehreren Autoren fügen verschiedene Personen Referenzen hinzu. Ein Postdoc fügt eine Zitation aus dem Gedächtnis ein. Ein Kollaborateur verwendet einen anderen Zitationsmanager mit anderen Metadatenquellen. Ein Student fügt von ChatGPT vorgeschlagene Referenzen hinzu – und einige dieser Referenzen existieren überhaupt nicht.

Kopieren und Einfügen zwischen Manuskripten. Sie verwenden einen Literaturübersichtsabschnitt aus einem Förderantrag oder einem früheren Paper wieder. Die Referenzen waren im ursprünglichen Kontext korrekt, haben aber jetzt veraltete DOIs, zurückgezogene Paper oder eine Formatierung, die nicht zum Stil der neuen Zielzeitschrift passt.

KI-Schreibassistenz. Auch wenn Sie keine KI zum Generieren von Referenzen verwenden, nutzen Sie sie möglicherweise, um Absätze zu entwerfen, die Inline-Zitate enthalten. Die KI modifiziert manchmal stillschweigend das Zitat – ändert das Jahr, tauscht einen Autorennamen aus – auf Weisen, die auf den ersten Blick korrekt aussehen.

Ich bin jedem dieser Fälle in meinen eigenen Manuskripten oder in Papern, die ich begutachtet habe, begegnet. Sie sind keine Zeichen von Nachlässigkeit; sie sind Symptome eines modernen Multi-Tool-, Multi-Autor-Schreibworkflows.

Mein Workflow zur Referenzprüfung vor der Einreichung

Ich mache das für jedes Manuskript, typischerweise zwei Tage vor der Einreichung. Nicht in der Nacht davor – diese Lektion habe ich auch gelernt.

Schritt 1: Referenzliste als Klartext exportieren

Ich kopiere die vollständige Bibliografie aus meinem Manuskript in eine saubere Textdatei. Keine Formatierung, keine eingebetteten Zotero-Felder – nur der reine Text jeder Referenz, wie er im eingereichten PDF erscheinen wird.

Warum Klartext? Weil ich überprüfen möchte, was der Gutachter sieht, nicht was mein Zitationsmanager denkt, dass dort ist. Wenn es einen Synchronisationsfehler zwischen Zotero und der exportierten Bibliografie gibt, wird dieser hier erkannt.

Schritt 2: Automatisierte DOI- und Metadaten-Verifizierung

Ich füge die gesamte Referenzliste in Citely's Citation Checker ein. Das Tool analysiert jede Referenz, sucht die DOI in CrossRef und vergleicht die Metadaten Feld für Feld – Autorennamen, Titel, Zeitschrift, Jahr, Band, Seiten.

Running a reference check before submission

Dieser Schritt dauert für eine Liste mit 60 Referenzen typischerweise weniger als eine Minute. Er fängt ab:

  • DOIs, die nicht aufgelöst werden (gefälscht oder falsch eingegeben)
  • DOIs, die auf ein anderes Paper verweisen als beschrieben
  • Falsche Erscheinungsjahre (der häufigste Fehler, den ich sehe)
  • Diskrepanzen bei Autorennamen
  • Diskrepanzen bei Zeitschriftennamen

Im Durchschnitt finde ich 2–4 Probleme in jedem Manuskript. Nicht weil ich schlampig bin – sondern weil die moderne akademische Schreibpipeline zu viele Fehlerquellen hat, als dass eine manuelle Überprüfung alles erfassen könnte.

Schritt 3: Manuelle Überprüfung der markierten Referenzen

Die automatisierte Überprüfung markiert Referenzen, die Aufmerksamkeit erfordern. Für jeden markierten Eintrag gehe ich wie folgt vor:

  1. Öffne den DOI-Link in einem Browser, um zu sehen, auf welches Paper er tatsächlich verweist.
  2. Vergleiche das Paper, das ich zitieren wollte, mit dem Paper, auf das die DOI verweist.
  3. Behebe die Diskrepanz – normalerweise durch Korrektur des Jahres, Aktualisierung der DOI oder vollständiges Ersetzen der Referenz.

Die meisten Korrekturen sind trivial – ein falsches Jahr, eine fehlende Seitenzahl. Aber ein- oder zweimal im Jahr finde ich eine Referenz, die ich überhaupt nicht verifizieren kann. Das Paper scheint nicht zu existieren. Dies führte immer darauf zurück, dass ein Koautor eine Referenz von einem KI-Tool hinzugefügt hatte, ohne sie zu überprüfen. Wir haben jetzt eine Laborrichtlinie dazu.

Schritt 4: Überprüfung auf zurückgezogene Paper

Dieser Schritt ist getrennt von der DOI-Verifizierung. Ein Paper kann eine gültige DOI und korrekte Metadaten haben, aber dennoch zurückgezogen worden sein.

Ich überprüfe stichprobenartig meine wichtigsten Referenzen – diejenigen, von denen mein Argument abhängt – mit Retraction Watch. Für die vollständige Liste überprüfe ich die Metadaten von CrossRef, die Rückzugsmitteilungen für viele Verlage enthalten.

Ein zurückgezogenes Paper zu zitieren ist nicht nur peinlich; in einigen Bereichen ist es ein Grund für redaktionelle Bedenken hinsichtlich der Integrität der eigenen Arbeit.

Schritt 5: Formatierung mit der Zielzeitschrift abgleichen

Das ist der langweilige Schritt, aber den Herausgebern ist er wichtig. Jede Zeitschrift hat ihren eigenen Referenzstil – Autorennamenformat, Regeln für Zeitschriftenabkürzungen, DOI-Anzeigeformat, Verwendung von „et al.“-Schwellenwerten.

Ich vergleiche 3–4 Referenzen mit den veröffentlichten Papern der Zeitschrift, um sicherzustellen, dass meine Formatierung übereinstimmt. Wenn die Zeitschrift abgekürzte Zeitschriftennamen verwendet, überprüfe ich, ob jede Abkürzung dem ISO 4-Standard (oder dem, was die Zeitschrift vorschreibt) entspricht.

Ich verwende für diesen Schritt kein automatisiertes Tool – ich finde es schneller, es visuell mit einer aktuellen Ausgabe abzugleichen. Aber ich weiß, dass einige Kollegen hier Scribbr oder ähnliche Formatierungsprüfer verwenden.

Schritt 6: Abschließende Durchsicht der In-Text-Zitate

Der letzte Schritt: Ich lese das Manuskript durch und überprüfe, ob jedes In-Text-Zitat (Smith et al., 2024) mit einem Eintrag in der Bibliografie übereinstimmt und umgekehrt. Verwaiste Zitate – Referenzen, die in der Bibliografie aufgeführt, aber nie im Text zitiert werden – sind ein Warnsignal für Gutachter. Ebenso In-Text-Zitate, die nicht in der Referenzliste erscheinen.

Die meisten Textverarbeitungsprogramme kennzeichnen diese Diskrepanzen, wenn Sie ihre Zitationswerkzeuge korrekt verwenden. Aber wenn Sie manuelle Bearbeitungen an Zitaten vorgenommen haben (was ich aus Formatierungsgründen immer tue), fängt dieser Schritt das ab, was die Software übersieht.

Wie lange das dauert

Für ein typisches Manuskript mit 50–70 Referenzen:

SchrittZeit
Export und Vorbereitung5 Minuten
Automatisierte Verifizierung (Citely)1–2 Minuten
Manuelle Überprüfung markierter Elemente10–20 Minuten
Rückzugsüberprüfung5–10 Minuten
Formatierungsüberprüfung15–20 Minuten
Querverweis auf In-Text-Zitate10–15 Minuten
Gesamt45–75 Minuten

Etwa eine Stunde Arbeit. Vergleichen Sie das mit den Wochen oder Monaten, die durch eine Ablehnung am Schreibtisch verloren gehen, und die Rechnung ist offensichtlich.

Bevor ich automatisierte Tools für Schritt 2 verwendete, dauerte allein die manuelle DOI-Verifizierung 2–3 Stunden. Jede DOI manuell auf doi.org zu überprüfen, Metadaten mit CrossRef-Datensätzen zu vergleichen, Diskrepanzen zu dokumentieren – das war gründlich, aber nicht nachhaltig. Der automatisierte Schritt reduzierte den gesamten Workflow von einem halben Tag auf etwa eine Stunde.

Was ich meinen Doktoranden erzähle

Ich leite ein Forschungslabor, und jeder Student, der ein Paper einreicht, durchläuft ein Training zur Referenzverifizierung. Die Regeln sind einfach:

  1. Reichen Sie niemals ein Paper mit Referenzen ein, die Sie nicht überprüft haben. Nicht einmal für einen Workshop. Nicht einmal einen Preprint. Ihr Name steht darauf.

  2. Wenn Sie KI verwendet haben, um Teile des Papers zu schreiben, überprüfen Sie jede Referenz zweimal. KI-Tools generieren plausibel aussehende Zitate, die echte Autoren und echte Zeitschriften zitieren, aber sie falsch kombinieren. Diese Chimären-Referenzen sind fast unmöglich mit bloßem Auge zu erkennen.

  3. Führen Sie die vollständige Referenzliste durch einen automatisierten Checker, bevor Sie mir das Manuskript zeigen. Ich sollte nicht derjenige sein, der DOI-Fehler fängt – das ist im Jahr 2026 ein gelöstes Problem.

  4. Halten Sie Ihren Zitationsmanager sauber. Wenn Sie eine Referenz importieren, überprüfen Sie die Metadaten mit der Verlagsseite. Das dauert 30 Sekunden pro Referenz, wenn Sie es zum Zeitpunkt des Imports tun. Es dauert viel länger, eine unsaubere Bibliothek vor einer Frist zu reparieren.

  5. Zitieren Sie keine Paper, die Sie nicht gelesen haben. Das klingt offensichtlich, aber die Versuchung, eine Referenzliste mit „relevant klingenden“ Papern aufzufüllen, ist real, besonders für Literaturübersichtsabschnitte. Wenn Sie das Hauptargument des Papers nicht zusammenfassen können, zitieren Sie es nicht.

Ein Hinweis zu Manuskripten mit mehreren Autoren

Das Problem der Referenzverifizierung wird mit mehr Autoren exponentiell schlimmer. In einem Paper mit fünf Koautoren von drei Institutionen könnte jede Person einen anderen Zitationsmanager, andere Metadatenquellen und andere Gewohnheiten in Bezug auf KI-Tools verwenden.

Was bei unseren Multi-Autor-Projekten funktioniert:

  • Eine Person ist für die Referenzliste verantwortlich. Normalerweise der korrespondierende Autor oder derjenige, der die Manuskriptdatei verwaltet. Alle Referenzergänzungen laufen über diese Person.
  • Die Referenzverifizierung erfolgt nach der Zusammenstellung der endgültigen Version, nicht nach jedem einzelnen Beitrag. Die Überprüfung von Zwischenentwürfen ist verschwendete Mühe.
  • Wir teilen den Citely-Verifizierungsbericht mit allen Koautoren vor der Einreichung, damit jeder die markierten Elemente überprüfen und bestätigen kann, dass seine Beiträge sauber sind.

Häufige Fehler, die ich im Laufe der Jahre entdeckt habe

Um Ihnen ein Gefühl dafür zu geben, was die Referenzverifizierung in der Praxis tatsächlich findet:

Falsches Jahr (am häufigsten). Ein Paper von 2023 wird als 2024 zitiert oder umgekehrt. Meistens verursacht durch Verwechslung zwischen Online-First- und Druckveröffentlichungsdaten. Zeitschriften, die „Advance Access“-Veröffentlichungen verwenden, sind besonders anfällig dafür.

Ersetzung des Autorennamens. „Kim, J.“ statt „Kim, S.“ – ein einziger Initialenunterschied. Dies geschieht, wenn Zitationsmanager Metadaten aus verschiedenen Quellen (CrossRef vs. Google Scholar vs. PubMed) ziehen, die Autorennamen unterschiedlich erfassen.

Diskrepanz beim Zeitschriftennamen. „Journal of Machine Learning Research“ vs. „Journal of Machine Learning“ – ähnlich, aber nicht dieselbe Zeitschrift. Die zweite existiert nicht. Dies ist ein klassisches KI-Halluzinationsmuster.

DOI verweist auf falsches Paper. Die DOI ist gültig, gehört aber zu einem anderen Paper in derselben Zeitschrift. Meistens verursacht durch einen Kopierfehler, bei dem die DOI einer Referenz versehentlich einer anderen zugewiesen wurde.

Zurückgezogenes Paper ohne Hinweis zitiert. Zweimal habe ich Referenzen zu Papern entdeckt, die zurückgezogen wurden, nachdem wir sie unserer Bibliografie hinzugefügt hatten. In beiden Fällen erfolgte der Rückzug während der Schreibphase, und wir hatten es nicht bemerkt.

Wichtige Erkenntnisse

  • Referenzfehler sind in der modernen akademischen Schreibweise weit verbreitet – Multi-Autor-Workflows, Synchronisationsprobleme von Zitationsmanagern und KI-Schreibtools führen alle zu Fehlern, die manuell schwer zu erkennen sind.
  • Eine systematische Referenzprüfung vor der Einreichung dauert etwa eine Stunde für ein Paper mit 60 Referenzen und kann wochenlange Verzögerungen durch Ablehnungen am Schreibtisch verhindern.
  • Automatisierte Verifizierungstools wie Citely reduzieren den manuellen DOI-Prüfschritt von Stunden auf Minuten, indem sie Referenzen stapelweise mit CrossRef-Datensätzen vergleichen.
  • Die häufigsten Fehler sind falsche Erscheinungsjahre, Ersetzungen von Autorennamen und Diskrepanzen bei Zeitschriftennamen – alles durch automatisierten Metadatenvergleich erkennbar.
  • Bei Papern mit mehreren Autoren sollte eine Person die Referenzliste verantworten und die Verifizierung nach der Zusammenstellung der endgültigen Version durchführen.

👉 Überprüfen Sie Ihre Referenzliste vor Ihrer nächsten Einreichung