ChatGPT hat Ihnen Referenzen gegeben? So prüfen Sie, ob sie echt sind
ChatGPT generiert überzeugend aussehende Zitate, die oft auf nicht existierende Artikel verweisen. Eine Schritt-für-Schritt-Anleitung zur Überprüfung jeder KI-generierten Referenz, bevor Sie Ihre Arbeit einreichen.
Sie haben ChatGPT gebeten, Referenzen für Ihre Forschungsarbeit vorzuschlagen. Es hat Ihnen zehn gegeben. Sie sehen perfekt aus – korrekte Autorennamen, plausible Zeitschriftentitel, realistische Jahreszahlen, korrekt formatierte DOIs. Sie fügen sie in Ihr Literaturverzeichnis ein und machen weiter.
Drei dieser Referenzen existieren nicht.
Das ist keine Hypothese. Es passiert ständig. Große Sprachmodelle suchen keine Artikel in einer Datenbank nach – sie sagen voraus, wie ein Zitat aussehen sollte, basierend auf Mustern in ihren Trainingsdaten. Das Ergebnis ist Text, der jeder Formatierungskonvention folgt, aber auf Artikel verweist, die nie veröffentlicht wurden.
Wenn Ihr Professor, Gutachter oder Zeitschriftenredakteur diese Referenzen überprüft, ist das Beste, was passieren kann, Peinlichkeit. Das Schlimmste ist eine sofortige Ablehnung, eine Untersuchung wegen akademischer Integrität oder ein zurückgezogener Artikel.
So fangen Sie die Fälschungen ab, bevor es jemand anderes tut.
Warum ChatGPT gefälschte Referenzen generiert
ChatGPT hat keinen Zugriff auf eine akademische Datenbank. Wenn Sie nach einem Zitat fragen, generiert es das nächste plausible Token in einer Sequenz – den Namen eines Erstautors, ein Jahr, einen Zeitschriftentitel, ein DOI-Präfix – ohne zu überprüfen, ob diese Teile tatsächlich einer realen Veröffentlichung entsprechen.
Dies führt zu drei Arten von gefälschten Referenzen:
Vollständig erfunden. Der Artikel existiert überhaupt nicht. Titel, Autoren und Zeitschrift werden komplett neu generiert. Eine Suche bei Google Scholar oder CrossRef liefert nichts.
Chimären-Referenzen. Das Modell kombiniert reale Elemente aus verschiedenen Artikeln. Der Autor ist real und veröffentlicht in der zitierten Zeitschrift. Die Zeitschrift ist real. Aber dieser spezifische Artikel – dieser Autor, dieser Titel, dieses Jahr – existiert nicht. Dieser Typ ist gefährlich, weil eine teilweise Überprüfung erfolgreich ist.
Verzerrte Referenzen. Ein realer Artikel existiert, aber ChatGPT macht einen oder mehrere Fehler – das Jahr ist um eins falsch, der Name eines Co-Autors ist falsch geschrieben oder der DOI hat eine vertauschte Ziffer. Die Referenz stimmt fast mit einer realen Veröffentlichung überein.
Schritt 1: Nicht vertrauen, überprüfen
Die erste Regel ist einfach: Behandeln Sie jede KI-generierte Referenz als unbestätigt, bis Sie persönlich bestätigt haben, dass sie existiert.
Dies gilt unabhängig davon, welches KI-Modell Sie verwendet haben. GPT-4, Claude, Gemini, Perplexity – alle können und generieren fabrizierte Zitate. Modelle mit Web-Suchfunktionen reduzieren, aber eliminieren das Problem nicht.
Schritt 2: Schnellprüfung – Titel suchen
Kopieren Sie den genauen Titel jeder Referenz und suchen Sie ihn in Google Scholar. Verwenden Sie Anführungszeichen für eine exakte Übereinstimmung:
"Adaptive neural frameworks for multilingual sentiment analysis"
Wenn Google Scholar null Ergebnisse für den exakten Titel liefert, existiert der Artikel mit ziemlicher Sicherheit nicht. Verschieben Sie ihn auf Ihre "verdächtige" Liste.
Wenn Google Scholar ein Ergebnis liefert, öffnen Sie es und überprüfen Sie, ob Autoren, Jahr und Zeitschrift mit den Angaben von ChatGPT übereinstimmen. Ein übereinstimmender Titel mit anderen Autoren ist eine Chimären-Referenz.
Zeit pro Referenz: 30-60 Sekunden.
Schritt 3: DOI-Verifizierung
Wenn die Referenz einen DOI enthält, überprüfen Sie ihn unter doi.org. Fügen Sie den DOI in den Resolver ein.
Drei mögliche Ergebnisse:
- Führt zum korrekten Artikel → Referenz ist wahrscheinlich echt. Überprüfen Sie die Metadaten.
- Führt zu einem anderen Artikel → ChatGPT hat den falschen DOI zugewiesen. Der beschriebene Artikel existiert möglicherweise oder auch nicht.
- "DOI not found" → der DOI ist gefälscht. Die Referenz ist falsch.
Zeit pro Referenz: 15-30 Sekunden.
Schritt 4: Stapelprüfung mit einem automatisierten Tool
Wenn ChatGPT Ihnen mehr als nur ein paar Referenzen gegeben hat, dauert die manuelle Überprüfung zu lange. Fügen Sie Ihre gesamte Referenzliste in Citely's Citation Checker ein.

Das Tool analysiert jede Referenz, fragt akademische Datenbanken ab und vergleicht die Metadaten Feld für Feld. Für jede Referenz meldet es:
- Titelähnlichkeit — existiert ein Artikel mit diesem Titel?
- Autorenähnlichkeit — stimmen die Autorennamen mit dem Datenbankeintrag überein?
- Datumsähnlichkeit — ist das Veröffentlichungsjahr korrekt?
Referenzen, die in allen drei Dimensionen 100 % erreichen, sind verifiziert. Alles darunter wird zur manuellen Überprüfung markiert.
Zeit für 10 Referenzen: unter 1 Minute.
Schritt 5: Die Fälschungen ersetzen
Für jede Referenz, die die Überprüfung nicht besteht, haben Sie zwei Optionen:
Option A: Den echten Artikel finden. Die gefälschte Referenz von ChatGPT enthält oft einen Kern Wahrheit – das Thema ist korrekt, der Autorenname ist real, die Zeitschrift existiert. Verwenden Sie diese Fragmente, um nach dem tatsächlichen Artikel zu suchen, an den die KI "gedacht" hat.
Fügen Sie das Thema der gefälschten Referenz in Citely's Source Finder ein. Es durchsucht CrossRef, PubMed, OpenAlex, arXiv und Google Scholar, um reale Artikel zu finden, die dem Thema entsprechen. Wählen Sie das relevanteste Ergebnis aus und ersetzen Sie das gefälschte Zitat.
Option B: Das Zitat entfernen. Wenn die Behauptung in Ihrer Arbeit diese spezifische Referenz nicht benötigt – oder wenn Sie keinen echten Artikel finden können, der sie unterstützt – entfernen Sie das Zitat vollständig. Formulieren Sie den Satz so um, dass er für sich allein steht, oder zitieren Sie eine andere Quelle, die Sie bereits überprüft haben.
Ein praktisches Beispiel
So sieht eine typische ChatGPT-Referenzprüfung in der Praxis aus:
ChatGPT gab Ihnen:
Wang, L., & Martinez, R. (2023). Deep learning approaches to automated essay scoring: A comprehensive survey. Journal of Educational Technology, 45(2), 189-215. doi:10.1016/j.jedtech.2023.04.012
Schritt 1 – Titelsuche: Google Scholar liefert null Ergebnisse für diesen exakten Titel. Verdächtig.
Schritt 2 – DOI-Prüfung: doi.org meldet "DOI not found". Der DOI ist gefälscht.
Schritt 3 – Autorenprüfung: L. Wang ist eine echte Forscherin, die zu NLP-Themen veröffentlicht. R. Martinez veröffentlicht im Bereich Bildungstechnologie. Aber sie haben diesen Artikel nie gemeinsam verfasst.
Urteil: Chimären-Referenz. Die KI kombinierte echte Autorennamen mit einem plausiblen, aber fiktiven Artikel.
Behebung: Suchen Sie im Source Finder nach "deep learning automated essay scoring survey". Finden Sie einen echten Übersichtsartikel zu diesem Thema. Ersetzen Sie das gefälschte Zitat durch das echte.
Wie man ChatGPT für Referenzen nutzt, ohne sich zu verbrennen
Sie müssen die KI nicht komplett aufgeben. Hier ist ein Workflow, der die Vorteile ohne das Risiko nutzt:
-
Nutzen Sie KI zur Entdeckung, nicht zum Zitieren. Fragen Sie ChatGPT: "Was sind die wichtigsten Artikel zu [Thema]?" Verwenden Sie seine Vorschläge als Suchbegriffe, nicht als Zitate. Finden Sie dann die tatsächlichen Artikel selbst.
-
Kopieren Sie KI-Referenzen niemals direkt in Ihr Literaturverzeichnis. Immer zuerst überprüfen, dann zitieren.
-
Bitten Sie ChatGPT um Suchstrategien anstelle von Referenzen. "Welche Schlüsselwörter sollte ich auf Google Scholar suchen, um Artikel über [Thema] zu finden?" ist eine sicherere Aufforderung als "Geben Sie mir 5 Referenzen zu [Thema]."
-
Führen Sie vor der Einreichung eine Stapelprüfung durch. Auch wenn Sie denken, alles überprüft zu haben, lassen Sie Ihre vollständige Referenzliste als letztes Sicherheitsnetz durch den Citation Checker laufen. Er fängt Fehler ab, die Sie möglicherweise übersehen haben – einschließlich Referenzen, die bei der Aufnahme korrekt waren, aber inzwischen zurückgezogen wurden.
Was Ihr Professor bereits überprüft
Wenn Sie denken, dass niemand es bemerken wird, bedenken Sie Folgendes:
- Mehrere Universitäten verlangen jetzt von Studenten, KI-generierte Inhalte, einschließlich Referenzlisten, zu überprüfen
- Zeitschriftenredakteure führen zunehmend Stichprobenprüfungen von eingereichten Referenzlisten durch
- Ein einziges gefälschtes Zitat kann eine Überprüfung der akademischen Integrität auslösen
- Retraction Watch veröffentlicht Fälle von Artikeln, die aufgrund gefälschter Referenzen zurückgezogen wurden
Die Kosten der Überprüfung betragen Minuten. Die Kosten der Nicht-Überprüfung sind potenziell Ihre akademische Karriere.
Wichtige Erkenntnisse
- ChatGPT und andere LLMs generieren drei Arten von gefälschten Zitaten: vollständig erfundene Artikel, Chimären-Referenzen, die reale Elemente kombinieren, und verzerrte Zitate mit kleinen Fehlern – keine davon werden aus Datenbanken abgerufen, es handelt sich um statistisch generierten Text
- Behandeln Sie KI-generierte Referenzen immer als unbestätigt – suchen Sie jeden Titel in Google Scholar und überprüfen Sie jeden DOI unter doi.org, bevor Sie ihn in Ihr Literaturverzeichnis aufnehmen
- Für mehr als nur ein paar Referenzen verwenden Sie einen automatisierten Citation Checker, um Ihre gesamte Liste in weniger als einer Minute stapelweise zu überprüfen – manuelle Überprüfung in großem Umfang ist unpraktisch
- Wenn eine gefälschte Referenz gefunden wird, finden Sie entweder den echten Artikel, den die KI annähernd beschrieben hat (mithilfe einer umgekehrten Zitatensuche), oder entfernen Sie das Zitat vollständig – lassen Sie niemals eine unbestätigte Referenz in Ihrer Arbeit
- Nutzen Sie KI zur Literaturrecherche (Suchstrategien, Themenvorschläge) und nicht zum direkten Zitieren – so profitieren Sie von den Effizienzvorteilen ohne das Risiko der Fälschung
Überprüfen Sie Ihre Referenzen → citely.ai/citation-checker