Ob ein Bild seltsam wirkt, ist nur der Anfang. Entscheidend ist, ob die konkrete Geschichte dahinter belegt ist: Wer soll was gesagt, getan oder gezeigt haben — wann, wo und mit welchem Originalbeleg?
Generative KI macht diese Prüfung wichtiger, aber nicht unmöglich. NISTs GenAI-Programm evaluiert unter anderem, wie schwer KI-generierte Texte von menschlichem Schreiben zu unterscheiden sind und wie glaubwürdig erzeugte Narrative wirken können.[1] UNESCO beschreibt Deepfakes als Teil einer „crisis of knowing“, also als Problem für Vertrauen und Wissenssicherheit.[
4] Reuters berichtete zudem über einen UN-Report, der stärkere Maßnahmen zur Erkennung KI-getriebener Deepfakes fordert, auch wegen Risiken durch Misinformation und mögliche Wahlbeeinflussung.[
3]
Die Grundregel: Behauptung vor Bauchgefühl
Viele Fehlurteile entstehen, weil Menschen zuerst auf die Oberfläche schauen: Hände, Schatten, Lippenbewegungen, Stimme, Schrift im Bild. Das kann Hinweise liefern. Für einen Faktencheck reicht es aber nicht.
Starte stattdessen mit drei Fragen:
- Was wird genau behauptet? Formuliere die Aussage in einem Satz.
- Wo ist die Primärquelle? Gibt es das Originalvideo, die vollständige Tonspur, ein Dokument, ein Paper, eine offizielle Mitteilung oder den Ursprungs-Upload?
- Stimmt der Kontext? Passen Datum, Ort, Sprache, Ausschnitt, Überschrift und Begleittext zusammen?
Fehlt eine dieser Ebenen, ist ein Post nicht automatisch falsch. Er ist aber noch nicht belastbar belegt. Genau deshalb wird das Erkennen von Misinformation in KI-generierten Medien inzwischen als Teil digitaler Medienkompetenz behandelt; die N.C. Cooperative Extension ordnet das Thema ausdrücklich unter „Digital Literacy for the Age of Deepfakes“ ein.[2]
Medium und Aussage getrennt prüfen
Der wichtigste Denkfehler lautet: Wenn das Medium echt ist, muss auch die Aussage stimmen — oder umgekehrt. Beides kann auseinanderfallen.
- Ein echtes Video kann mit einer falschen Orts- oder Zeitangabe verbreitet werden.
- Ein echter Screenshot kann aus dem Kontext gerissen sein.
- Ein KI-Bild kann eine reale Nachricht nur symbolisch illustrieren.
- Ein synthetischer Clip kann mit einer Behauptung kombiniert werden, die unabhängig davon geprüft werden muss.
Darum braucht jeder Check zwei getrennte Urteile: Ist das Material authentisch, bearbeitet oder synthetisch? Und: Belegt es wirklich die Aussage, die der Post daraus ableitet?
Die 7-Punkte-Checkliste für verdächtige KI-Inhalte
Nutze diese Reihenfolge, wenn du einen Social-Post, ein Video, ein KI-Bild oder eine spektakuläre KI-Behauptung schnell einordnen willst.
- Kernbehauptung notieren. Was genau soll passiert sein? Wer ist beteiligt? Welche Aussage soll bewiesen werden?
- Primärquelle suchen. Öffne nicht nur den Repost. Suche das vollständige Video, die längere Tonspur, das Originaldokument, das Paper, die Produktdokumentation oder eine offizielle Mitteilung.
- Kontext abgleichen. Prüfe Datum, Ort, Sprache, Anlass, Bildausschnitt, Überschrift und Begleittext. Ein richtiger Ausschnitt kann durch falschen Kontext irreführen.
- Medium und Aussage trennen. Frage separat: Ist das Bild, Video, Audio oder der Text echt? Und belegt es tatsächlich die behauptete Schlussfolgerung?
- Gegenchecks nutzen. Suche rückwärts nach Bildern, prüfe einzelne Video-Frames und vergleiche Orte, Logos, Wetter, Kleidung, Schatten oder Hintergrunddetails.
- Technische Auffälligkeiten vorsichtig werten. Verzerrte Schrift, unnatürliche Lippenbewegungen, seltsame Schatten, komische Hände oder Audiofehler sind Warnsignale. Allein beweisen sie aber noch nichts.
- Unabhängige Bestätigung suchen. Behandle große Behauptungen erst dann als Tatsache, wenn belastbare Quellen denselben Kern bestätigen und idealerweise auf Originalmaterial verweisen.
Wenn nach diesen Schritten weiterhin zentrale Angaben fehlen, ist die sauberste Bewertung oft: nicht belegt.
Deepfakes und KI-Bilder: Herkunft schlägt Pixel-Fehler
Bei Deepfakes geht es nicht nur um technische Manipulation. Sie können sicht- und hörbare Belege selbst fragwürdig machen. UNESCO beschreibt dieses Problem als Krise des Wissens und Vertrauens; der von Reuters beschriebene UN-Report fordert stärkere Maßnahmen gegen KI-getriebene Deepfakes und Misinformation.[3][
4]
Praktisch heißt das: Arbeite dich rückwärts zur Herkunftskette vor.
- Vom Clip zum Gesamtmaterial: Gibt es nur einen kurzen Ausschnitt oder das vollständige Video?
- Vom Repost zum Ursprung: Wer hat den Inhalt zuerst veröffentlicht?
- Vom Screenshot zum Link: Lässt sich der angebliche Beleg öffnen, archivieren und nachvollziehen?
- Von der Szene zur Behauptung: Zeigt das Material wirklich, was der Begleittext behauptet?
- Vom Artefakt zum Beleg: Ein auffälliger Schatten oder eine merkwürdige Stimme ist ein Hinweis. Entscheidend bleibt, ob Originalquellen und unabhängige Bestätigungen existieren.
Bei bekannten Personen, Krisen, Wahlkampfthemen oder angeblichen Skandalen ist Zurückhaltung besonders wichtig. Ohne nachvollziehbare Herkunft und vollständigen Kontext solltest du nicht so tun, als sei die Sache geklärt.
Fake News über KI: Hype wie eine Behauptung prüfen
Nicht jede irreführende KI-Story wird mit KI erzeugt. Oft geht es um übertriebene Deutung: Eine Demo wird als fertiges Produkt dargestellt, ein einzelnes Testergebnis als allgemeiner Durchbruch verkauft oder ein Screenshot ersetzt die Originalquelle.
Gute Prüffragen sind:
- Gibt es ein Originalpaper, eine offizielle Produktankündigung oder technische Dokumentation?
- Wird eine Labor-Demo als allgemein verfügbare Funktion dargestellt?
- Werden Einschränkungen, Testbedingungen oder Fehlerraten weggelassen?
- Wird aus einem Beispiel eine allgemeine Aussage gemacht?
- Wer profitiert von der Zuspitzung — Reichweite, Werbung, politischer Effekt oder wirtschaftliches Interesse?
Formulierungen wie 100 % genau, endgültig bewiesen, denkt wie ein Mensch, revolutionär oder ersetzt alle Jobs ab sofort beweisen nicht, dass eine Aussage falsch ist. Sie sind aber ein guter Anlass, die Primärquelle zu suchen und die Behauptung enger zu fassen.
KI-Detektoren: Recherchehilfe, kein Urteil
KI-Detektoren können Hinweise liefern, ersetzen aber keinen Faktencheck. NISTs GenAI-Programm zeigt, dass die Unterscheidbarkeit generierter Inhalte und die Glaubwürdigkeit erzeugter Narrative Gegenstand strukturierter Evaluation sind; der NIST-Text beschreibt außerdem, dass Daten aus glaubwürdigen, aber irreführenden Narrativen zum Training von Detektoren genutzt werden können.[1]
Wenn du einen Detektor nutzt, frage:
- Prüft das Tool Text, Bild, Audio oder Video?
- Geht es um KI-Generierung, Manipulation oder nur um statistische Auffälligkeiten?
- Liefert das Tool eine nachvollziehbare Begründung oder nur einen Prozentwert?
- Passt das Ergebnis zu Primärquellen und Kontext — oder ersetzt es diese Prüfung nur scheinbar?
Wichtig: Ein Detektor kann höchstens etwas über die mögliche Entstehung eines Mediums sagen. Er beweist nicht automatisch, ob die im Post behauptete Aussage wahr ist.
KI sinnvoll beim Faktencheck einsetzen
KI-Tools können helfen, eine Recherche zu strukturieren. Die Entscheidung, was belegt ist, solltest du ihnen aber nicht überlassen.
Nützlich sind Aufgaben wie:
- die zentrale Behauptung eines Posts als prüfbaren Satz formulieren,
- fehlende Angaben zu Datum, Ort, Person, Zitat oder Kontext identifizieren,
- mögliche Primärquellen auflisten,
- passende Gegenchecks vorschlagen,
- Widersprüche zwischen Behauptung und Beleg sichtbar machen.
Öffne die genannten Quellen anschließend selbst. Eine KI-Antwort ohne überprüfbare Originalquelle ist ein Recherchehinweis, kein Beleg.
Rote Flaggen: erst prüfen, dann teilen
Stoppe besonders dann, wenn mehrere Warnzeichen zusammenkommen:
- Es gibt nur einen Screenshot, aber keinen Link.
- Ein Zitat ist abgeschnitten oder nicht auffindbar.
- Autor, Datum oder ursprünglicher Veröffentlichungsort fehlen.
- Der Post drängt zum sofortigen Teilen.
- Nur eine Quelle verbreitet die Behauptung.
- Die Sprache setzt stark auf Empörung, aber schwach auf überprüfbare Fakten.
- Ein Detektor-Screenshot wird als alleiniger Beweis präsentiert.
- Die Behauptung ist groß, die Belege sind dünn.
Die Kurzformel
Für verdächtige KI-Inhalte reicht im Alltag eine klare Reihenfolge:
- Originalquelle suchen.
- Kontext prüfen.
- Unabhängige Bestätigung suchen.
- Erst dann glauben oder teilen.
Gerade weil KI-generierte Narrative glaubwürdig wirken können und Deepfakes Vertrauen in sicht- und hörbare Belege herausfordern, ist „nicht belegt“ oft die bessere Bewertung als ein vorschnelles Urteil.[1][
4]




