Generative KI ist praktisch, wenn man schnell einen Überblick braucht, einen komplizierten Text verständlicher machen will oder erste Ideen sammelt. Sie hat aber eine Schwäche: Sie kann ungenaue oder falsche Inhalte erzeugen und diese so formulieren, als wären sie gesicherte Fakten. In Informationssicherheit und Bildung wird das häufig als AI hallucination oder KI-Halluzination bezeichnet[4][
5]. Auch die Misinformation Review der Harvard Kennedy School behandelt KI-Halluzinationen als eine neue Quelle möglicher Ungenauigkeit bei generativer KI[
3].
Darum lautet die zentrale Frage nicht: Klingt die Antwort überzeugend? Sondern: Lässt sich diese Aussage auf eine überprüfbare Quelle zurückführen?
Grundregel: KI liefert Hinweise, keine Beweise
Eine KI kann Themen sortieren, Begriffe erklären, Suchrichtungen vorschlagen oder aus einem großen Problem eine Checkliste machen. Sobald es aber um Namen, Daten, Zahlen, Studien, Gesetze, Verträge, medizinische Einschätzungen, juristische Fragen oder finanzielle Entscheidungen geht, reicht eine flüssig formulierte KI-Antwort nicht aus.
Das US-amerikanische National Institute of Standards and Technology, kurz NIST, nennt in seinem Rahmenwerk zu generativer KI unter anderem Datenherkunft, Audits und Bewertungen, Monitoring sowie risikobasierte Kontrollen als Bestandteile einschlägiger Governance-Maßnahmen[1][
2]. Für den Alltag lässt sich das einfach übersetzen: Vertrauen Sie nicht der selbstsicheren Formulierung. Prüfen Sie Quelle, Originaltext und Belegkette.
5 Schritte, um KI-Antworten zu überprüfen
1. Verlangen Sie konkrete, überprüfbare Quellen
Fragen Sie nicht nur nach der Antwort. Bitten Sie die KI, wichtige Behauptungen einzeln mit Quellen zu verknüpfen. Zum Beispiel:
Bitte nenne für jede zentrale Aussage eine überprüfbare Quelle. Bevorzuge offizielle Dokumente, Originalstudien, Behördenwebsites, Unternehmensmitteilungen oder Datenbanken. Erkläre außerdem, welche Quelle welche Aussage stützt.
Wenn die Antwort nur vage Formulierungen enthält wie Studien zeigen, Fachleute sagen oder viele Medien berichten, aber keine Dokumentnamen, Herausgeber, Links oder suchbaren Angaben nennt, behandeln Sie diese Passage zunächst als ungeprüft. Nachvollziehbare Herkunft ist wichtiger als eine Antwort, die vollständig wirkt. Auch NIST führt Datenherkunft sowie Audits und Bewertungen als relevante Praktiken im Risikomanagement generativer KI auf[1][
2].
2. Öffnen Sie die Quelle und lesen Sie die entscheidende Stelle
Eine Quellenangabe macht eine KI-Antwort noch nicht korrekt. Prüfen Sie mindestens drei Dinge:
- Existiert der Link wirklich und lässt er sich öffnen?
- Enthält der Originaltext tatsächlich die genannte Information?
- Hat die KI die Quelle überdehnt, verkürzt oder in eine andere Schlussfolgerung umgeschrieben?
Ein häufiger Fehler ist nicht die fehlende Quelle, sondern eine Quelle, die nur scheinbar passt. Der Zweck der Prüfung ist daher: Aus die KI sagt, sie habe eine Grundlage wird ich habe die Grundlage selbst gesehen.
3. Prüfen Sie zuerst die fehleranfälligen Details
Sie müssen nicht immer sofort ein ganzes Dokument lesen. Beginnen Sie mit Punkten, die leicht zu überprüfen sind und Fehler schnell sichtbar machen:
- Namen von Personen und Institutionen
- Daten, Jahreszahlen und Versionsnummern
- Statistiken, Prozentwerte und Ranglisten
- Gesetzesparagrafen, Richtliniennamen und Dokumenttitel
- Studientitel, Autorinnen und Autoren, Fachzeitschriften
- wörtliche Zitate
Wenn eine KI behauptet, eine Studie habe etwas gezeigt, ein Unternehmen habe etwas angekündigt oder ein Gesetz schreibe etwas vor, suchen Sie direkt nach der Studie, der Mitteilung oder dem Gesetzestext. Finden Sie keine Originalquelle, sollten Sie die Aussage nicht als bestätigte Tatsache weiterverwenden.
4. Vergleichen Sie mit unabhängigen Quellen
Eine einzelne Quelle kann unvollständig sein. Auch eine KI-Zusammenfassung kann Einschränkungen oder Gegenargumente auslassen. Suchen Sie besonders bei diesen Themen mindestens eine weitere unabhängige Quelle:
- Medizin und Gesundheit
- Recht, Steuern und Verträge
- Geldanlage, Versicherungen und andere Finanzentscheidungen
- aktuelle Nachrichten und öffentliche Ereignisse
- technische Spezifikationen, Sicherheitsrisiken und regulatorische Anforderungen
Wenn Quellen einander widersprechen, wählen Sie nicht einfach die Version, die Ihnen am plausibelsten erscheint. Gehen Sie möglichst zurück zur zuständigen Stelle, zum Originaldokument, zu einer Fachdatenbank oder zu einer professionell verantwortlichen Ansprechperson.
5. Lassen Sie KI bei riskanten Fragen nicht entscheiden
Der Risikomanagement-Ansatz von NIST betont risikobasierte Kontrollen, Monitoring und Bewertungen, statt jede KI-Ausgabe gleich zu behandeln[1][
2]. Dieselbe Logik hilft auch privat oder im Beruf: Je größer der mögliche Schaden, desto weniger darf eine KI-Antwort allein genügen.
Wenn eine Antwort Ihre Gesundheit, rechtliche Ansprüche, finanzielle Sicherheit, berufliche Entscheidungen oder die öffentliche Sicherheit berühren kann, nutzen Sie KI höchstens als Werkzeug für Vorarbeit: zum Sortieren von Fragen, zum Erklären von Begriffen oder zum Zusammenstellen einer Prüfliste. Die abschließende Einschätzung sollte aus Originaldokumenten oder von zuständigen Fachleuten kommen, etwa Ärztinnen, Juristen, Steuerberaterinnen oder qualifizierten Finanzfachleuten.
Warnsignale: Wann Sie besonders skeptisch sein sollten
KI-Halluzinationen sind gefährlich, weil sie nicht unbedingt wie Fehler aussehen. Sie können flüssig, ordentlich strukturiert und trotzdem ungenau sein[3][
4][
5]. Werden Sie vorsichtig, wenn Sie eines dieser Muster sehen:
- Die Antwort klingt sehr sicher, nennt aber keine Quelle.
- Eine Quellenangabe sieht vollständig aus, ist aber nicht auffindbar.
- Die Quelle existiert, stützt aber die Schlussfolgerung der KI nicht.
- Zahlen, Daten oder Versionsnummern stehen ohne Herkunftsangabe im Text.
- Die Antwort widerspricht sich an anderer Stelle selbst.
- Vermutungen, Alltagswissen oder Meinungen werden als Fakten dargestellt.
Prompt-Vorlagen zum Kopieren
Mit diesen Formulierungen machen Sie KI-Antworten leichter überprüfbar:
Zerlege deine Antwort bitte in vier Spalten: Tatsachenbehauptung, Quelle, genaue Textstelle oder Begründung, Unsicherheit.
Markiere, welche Aussagen durch Quellen gestützt sind und welche nur Schlussfolgerungen oder noch manuell zu prüfen sind.
Antworte ausschließlich auf Grundlage der von mir bereitgestellten Dokumente. Wenn die Dokumente etwas nicht enthalten, schreibe bitte: Dazu liegen in den Dokumenten keine ausreichenden Informationen vor.
Nenne die fünf Details in deiner Antwort, die am dringendsten überprüft werden sollten, zum Beispiel Daten, Zahlen, Zitate, Richtliniennamen oder Personennamen.
Häufige Fragen
Ist eine KI-Antwort glaubwürdig, sobald sie Quellen nennt?
Nein. Eine Quelle kann erfunden, falsch verlinkt, veraltet oder inhaltlich unpassend sein. Echte Prüfung bedeutet nicht nur, auf eine Quellenliste zu schauen. Sie müssen die Quelle öffnen, den Originaltext lesen und kontrollieren, ob die Aussage wirklich daraus folgt.
Muss ich jede KI-Antwort vollständig nachprüfen?
Nicht mit derselben Gründlichkeit. Bei niedrigerem Risiko reicht oft eine schnelle Plausibilitätsprüfung. Bei Gesundheit, Recht, Finanzen, öffentlicher Sicherheit oder wichtigen beruflichen Entscheidungen sollten Sie deutlich strenger prüfen. Auch NIST beschreibt einen risikobasierten Ansatz mit Kontrollen und Monitoring[1][
2].
Was mache ich, wenn ich keine Quelle finde?
Behandeln Sie die Aussage als unbestätigt. Zitieren, teilen oder entscheiden Sie nicht auf dieser Grundlage. Sie können die KI bitten, die Antwort nur mit überprüfbaren Quellen neu zu formulieren, oder selbst nach offiziellen Dokumenten, Originalstudien, Unternehmensmitteilungen oder vertrauenswürdigen Datenbanken suchen.
Fazit: Nicht der Ton zählt, sondern der Beleg
Ja, KI kann falsche Dinge behaupten. Die Lösung ist aber nicht, KI gar nicht mehr zu nutzen. Besser ist, sie als Recherchehilfe zu behandeln: Quellen verlangen, Originaltexte prüfen, Details kontrollieren, unabhängig gegenchecken und bei riskanten Fragen Fachleute einbeziehen. So wird KI eher zum nützlichen Assistenten – und nicht zur ungeprüften Antwortmaschine.




