KI-Betrug ist so tückisch, weil heute nicht mehr nur dubiose Absender oder schlechte Rechtschreibung verräterisch sind. Stimme, Gesicht und Identität einer vertrauten Person können künstlich nachgebildet werden. KI-Betrug kann gefälschte Identitäten, Deepfakes und Social Engineering miteinander verbinden; Deepfake-Betrug nutzt KI-generierte Bilder, Videos oder Tonaufnahmen, um vertrauenswürdige Personen zu imitieren — und kann echt aussehen oder klingen.[8][
9]
Der praktische Schutz beginnt deshalb nicht mit der Frage, ob Sie jedes Deepfake mit bloßem Auge erkennen. Wichtiger ist ein fester Ablauf für alle Situationen, in denen jemand Sie unter Druck setzt: Wenn Sie sofort Geld überweisen, einen Einmalcode weitergeben, einen Link öffnen, Software installieren, Ausweisdaten schicken oder etwas sofort weiterleiten sollen, behandeln Sie den Kontakt zunächst als ungeprüft.
Nicht hetzen lassen, kein Geld, keine Codes — erst auflegen, selbst zurückrufen, dann prüfen.
Erst den Auftrag prüfen, nicht das Gesicht im Video
Eine vertraute Stimme, ein Videocall mit scheinbar bekanntem Gesicht oder eine Nachricht im gewohnten Tonfall sind allein kein Beweis. Deepfakes können mit gefälschten Videos oder Tonaufnahmen den Eindruck erzeugen, jemand habe etwas gesagt, getan oder autorisiert.[4]
Achten Sie deshalb zuerst darauf, was die andere Seite von Ihnen will. Ratgeber zu KI- und Deepfake-Betrug warnen, dass solche Maschen häufig mit künstlicher Dringlichkeit arbeiten, um schnelle Entscheidungen zu erzwingen.[5]
Stoppen Sie besonders dann, wenn jemand:
- sofort eine Überweisung, eine Zahlung, Kryptowährungen oder eine Änderung von Bankdaten verlangt,
- Passwörter, Einmalcodes, SMS-Codes, Ausweisdokumente, Finanzdaten oder Screenshots von Konten haben will,
- Sie auf einen unbekannten Link, einen QR-Code, eine App, eine Browser-Erweiterung oder Fernwartungssoftware drängt,
- verlangt, dass Sie niemanden fragen — keine Familie, keine Kolleginnen und Kollegen, keine Bank, keinen Kundenservice, keine Vorgesetzten,
- mit Formulierungen wie „letzte Chance“, „sofort“, „Notfall“, „Rettung“, „Chef-Anweisung“ oder „vertraulich“ Druck macht,
- im Namen einer berühmten Person, einer Führungskraft, eines Angehörigen, einer Bank, eines Supports oder einer Behörde etwas fordert, das ungewöhnlich ist.
Die einfache Faustregel lautet: Vertrauenswürdige Person plus Sofortforderung = raus aus dem ursprünglichen Kanal.
Der 5-Schritte-Ablauf bei verdächtigen Nachrichten
1. Stoppen: die Unterhaltung unterbrechen
Antworten Sie nicht weiter, klicken Sie nichts an, laden Sie keine Anhänge herunter und scannen Sie keinen QR-Code. Wenn Sie gerade telefonieren oder in einem Videocall unter Druck gesetzt werden: Beenden Sie das Gespräch. Eine echte, wichtige Angelegenheit hält ein paar Minuten Überprüfung aus.
2. Kanal wechseln: nicht die Kontaktdaten aus der Nachricht verwenden
Rufen Sie nicht die Telefonnummer aus der verdächtigen Nachricht an und nutzen Sie keine dort angebotenen Links, Chatfenster oder Support-Konten. Verwenden Sie stattdessen eine Nummer, die Sie bereits gespeichert haben, die offizielle Website, die offizielle App, das Firmenverzeichnis oder einen Kontaktweg, den Sie unabhängig kennen.
Das ist der entscheidende Punkt: Wenn die Nachricht gefälscht ist, können auch Telefonnummer, Link und angeblicher Kundenservice in der Nachricht gefälscht sein.
3. Bei Geld, Konten und Codes: zweite Bestätigung erzwingen
Familien, Freundeskreise und Teams können vorab eine Zwei-Kanal-Regel vereinbaren: Alles, was Zahlungen, geliehenes Geld, geänderte Kontodaten, Login-Codes, Ausweisdaten, Notfallhilfe oder Fernzugriff betrifft, wird über einen zweiten Weg bestätigt.
Im Unternehmen sollte eine Zahlung oder Kontodatenänderung nie nur durch eine Sprachnachricht, einen Anruf oder ein Video freigegeben werden. Deepfake-Betrug kann KI-generierte Bilder, Videos oder Audio nutzen, um vertrauenswürdige Menschen zu imitieren; eine vertraute Stimme oder ein überzeugender Videocall ersetzt deshalb keine Freigabeprozesse.[8]
4. Quelle und Kontext prüfen
Bei schockierenden Nachrichten, Promi-Videos, politischen Clips, Katastrophenmeldungen oder angeblichen Investmentchancen gilt: Schauen Sie nicht nur auf den kurzen Ausschnitt. Deepfakes können gefälschte Videos oder Audios erzeugen, die so wirken, als hätten Menschen schädliche Dinge gesagt oder getan.[4]
Fragen Sie zuerst:
- Wer hat den Inhalt ursprünglich veröffentlicht?
- Gibt es das vollständige Video, den vollständigen Artikel oder den Originalbeitrag?
- Passen Zeitpunkt, Ort und Ereignis zusammen?
- Bestätigen zuverlässige Medien, offizielle Stellen oder die betroffene Person den Inhalt unabhängig?
Wenn Sie nur Screenshots, Zusammenschnitte oder massenhaft weitergeleitete Kurzvideos finden, teilen Sie den Inhalt zunächst nicht weiter.
5. Beweise sichern und Hilfe holen
Wenn Sie vermuten, dass Sie bereits betrogen wurden, löschen Sie nicht sofort alles. Sichern Sie Screenshots, URLs, Telefonnummern, Kontonamen, Chatverläufe, Transaktionsbelege, Wallet-Adressen, Videodateien und E-Mails. Geht es um Bankkonto, Kreditkarte oder Zahlungsdienst, kontaktieren Sie den Anbieter über einen offiziellen, selbst gewählten Kanal.
Die US-Verbraucherschutzbehörde Federal Trade Commission, kurz FTC, nennt für Betrugsmeldungen in den USA die Website ftc.gov/complaint und die Telefonnummer 1-877-FTC-HELP.[3] Die FTC bündelt außerdem Informationen zu künstlicher Intelligenz, Verbraucherhinweisen und Betrugsmaschen.[
1] Wer nicht in den USA ist, sollte die jeweils zuständigen lokalen Meldewege nutzen — etwa Polizei, Bank, Zahlungsdienstleister oder offizielle Stellen für Betrugsanzeigen.
Deepfake-Check: hilfreich, aber kein Beweis
Ein Blick auf technische Auffälligkeiten kann ein erstes Warnsignal liefern. Fragen Sie sich:
- Passen Lippenbewegungen und Ton wirklich zusammen?
- Flackern Gesichtskanten, Brille, Haare oder Ohren?
- Wirken Finger, Zähne oder Hautstruktur unnatürlich?
- Stimmen Hintergrund, Schrift, Licht, Schatten oder Spiegelungen?
- Klingen Pausen, Betonung oder emotionale Reaktionen wie ein normales Gespräch?
Wichtig ist aber die Umkehrung: Wenn Sie keine Auffälligkeiten sehen, ist der Inhalt nicht automatisch echt. Gerade Deepfake-Betrug ist gefährlich, weil er echt aussehen und klingen kann.[8]
Verlässlicher als der reine Blick auf Pixel ist die Kontextprüfung: Wer ist die Originalquelle? Gibt es das vollständige Material? Wann und wo wurde es veröffentlicht? Welche unabhängigen, belastbaren Quellen bestätigen es?
Drei Alltagssituationen — und die passende Schutzregel
Familie: Codewort oder Rückrufregel vereinbaren
Familien können ein nicht öffentliches Codewort oder eine Rückruffrage vereinbaren. Noch einfacher: Bei „Ich brauche sofort Geld“, „Ich habe eine neue Nummer“, „Schick mir den Code“ oder „Notfall“ wird immer über eine bekannte Nummer zurückgerufen. Das gilt besonders, wenn sich jemand als Kind, Enkel, Elternteil, Polizei, Bank oder Support ausgibt. Deepfake-Betrug kann vertrauenswürdige Personen imitieren.[8]
Beruf: Vier-Augen-Prinzip statt Videobeweis
Wenn jemand im Namen von Geschäftsführung, Finanzabteilung, Lieferant oder Kundschaft Geld, neue Bankdaten, Login-Codes oder vertrauliche Dokumente verlangt, bleiben bestehende Prozesse entscheidend. „Klang wie der Chef“ oder „war doch im Videocall zu sehen“ reicht nicht. Deepfake-Inhalte können mit gefälschten Audios oder Videos den Eindruck erwecken, eine Person habe etwas autorisiert.[4]
Social Media: Je emotionaler, desto später teilen
Falschinformationen leben von Tempo: Empörung, Angst, Mitleid oder Wut sollen zum sofortigen Teilen bringen. Bei Sätzen wie „schnell weiterleiten“, „Medien verschweigen das“, „offizielle Stellen vertuschen es“, „nur heute“ oder „garantierter Gewinn“ lohnt sich eine Pause. Deepfakes können ebenfalls genutzt werden, um gefälschte Audio- oder Videoinhalte zu erzeugen, die Menschen scheinbar schädliche Dinge sagen oder tun lassen.[4]
Der wichtigste Satz: Routine schlägt Bauchgefühl
KI macht es leichter, falsche Stimmen, falsche Bilder und falsche Identitäten in alltägliche Nachrichten einzubauen. Deepfake-Betrug kann Bilder, Videos oder Tonaufnahmen nutzen, um vertrauenswürdige Personen zu imitieren.[8][
9]
Sie müssen deshalb nicht zur Forensik-Expertin oder zum Forensik-Experten werden. Entscheidend ist Ihre Routine: nicht sofort reagieren, nicht im ursprünglichen Chat prüfen, nicht wegen einer vertrauten Stimme zahlen und niemals Codes weitergeben. Machen Sie aus jeder Hochdruckforderung automatisch: stoppen, Kanal wechseln, bestätigen.




