Die Debatte um Claude Mythos Preview dreht sich weniger um die Frage, ob dieser Name existiert. Laut Anthropic ist Claude Mythos Preview ein neues großes Sprachmodell und ein Frontier AI Model mit Fähigkeiten unter anderem in Softwareentwicklung, Schlussfolgern und Cybersicherheit.[16] Auch das britische AI Security Institute, kurz AISI, berichtet in einer eigenen Bewertung von verbesserten Fähigkeiten bei Capture-the-Flag-Aufgaben und deutlich besseren Ergebnissen in mehrstufigen Cyberangriffssimulationen.[
25]
Trotzdem ist Vorsicht angebracht. Aus den öffentlichen Informationen lässt sich nicht seriös ableiten, dass Mythos Preview bereits als vollständig unabhängig geprüfter automatischer Super-Hacker gelten kann. Die stärksten Aussagen zu Tausenden schwerwiegenden Zero-Day-Schwachstellen beruhen vor allem auf Angaben von Anthropic und deren Wiedergabe in Medien; zugleich gibt es Berichte, die nach Ausnutzbarkeit, Schweregrad und Zählweise dieser Funde fragen.[1][
26][
27]
Kurz gesagt: ernst nehmen, aber nicht verklären
Claude Mythos Preview wirkt nach den vorliegenden Quellen wie ein relevanter Sprung bei KI-gestützter Sicherheitsarbeit. Es ist kein gewöhnliches Chat-Feature, keine Prompt-Vorlage und kein frei zugängliches Claude-Projekt, sondern ein von Anthropic in einer System Card beschriebenes Modell.[16] Öffentlich belastbar ist außerdem, dass AISI in kontrollierten Cybersecurity-Tests Fortschritte gesehen hat.[
25]
Nicht belastbar ist dagegen die einfache Schlagzeile: Diese KI findet zuverlässig und automatisch Tausende ausnutzbare Zero-Days. Dafür fehlen öffentlich nachvollziehbare Einzelfalllisten, einheitliche Schweregradbewertungen und umfassende unabhängige Prüfungen.[27] Die nüchternere Lesart lautet: Mythos Preview könnte ein wichtiger Schritt in Richtung automatisierter Schwachstellensuche sein, aber die spektakulärsten Behauptungen sind noch nicht im gleichen Maß öffentlich belegt.[
25][
27]
Was ist Claude Mythos Preview?
Anthropic beschreibt Claude Mythos Preview in der eigenen System Card als neues Large Language Model und als Frontier AI Model.[16] Der Begriff Frontier-Modell meint hier ein besonders leistungsfähiges Modell an der vorderen Grenze der aktuellen KI-Entwicklung, nicht bloß eine neue Benutzeroberfläche oder ein Add-on.
Wichtig ist die Breite der genannten Fähigkeiten: Anthropic nennt Software Engineering, Reasoning und Cybersecurity als Einsatzfelder.[16] Genau deshalb sorgt Mythos Preview in der Sicherheitsbranche für Aufmerksamkeit. Wenn ein allgemeines KI-Modell nicht nur Code versteht, sondern auch Schwachstellen suchen, Angriffsschritte planen und Sicherheitsaufgaben kombinieren kann, verschiebt sich die Debatte von bloßer Produktivität zu Missbrauchsrisiken und Zugangskontrolle.[
16][
26]
Kann Mythos automatisch Zero-Day-Lücken finden?
Die kurze Antwort lautet: möglicherweise in bestimmten Szenarien, aber die öffentliche Beweislage reicht nicht für die stärkste Version dieser Behauptung.
Die New York Times berichtete, Anthropic-Führungskräfte hätten gesagt, Claude Mythos Preview könne autonome Sicherheitsforschung betreiben, einschließlich des Scannens und Ausnutzens sogenannter Zero-Day-Schwachstellen in kritischer Software. Zero-Days sind Lücken, die selbst den Entwicklern der betroffenen Software noch nicht bekannt sind.[1] The Hacker News griff zudem Anthropics Aussage auf, Mythos Preview habe bereits Tausende hochschwere Zero-Day-Schwachstellen in großen Betriebssystemen und Webbrowsern gefunden.[
26]
Das ist eine bemerkenswerte Behauptung. Sie ist aber nicht dasselbe wie eine vollständig veröffentlichte, Fall für Fall verifizierte Sicherheitsbilanz. Tom’s Hardware weist darauf hin, dass öffentlich unklar bleibe, wie realistisch diese Schwachstellen sind, wie viele tatsächlich ausnutzbar wären und wie problematisch sie im Einzelfall sind.[27]
Darum ist die präzisere Formulierung: Die vorliegenden Quellen stützen die Einschätzung, dass Mythos Preview bei Aufgaben rund um Schwachstellensuche und Angriffssimulation deutlich stärker geworden ist.[25] Sie belegen aber nicht abschließend, dass alle öffentlich kolportierten Zero-Day-Zahlen in der behaupteten Schwere und Ausnutzbarkeit unabhängig bestätigt sind.[
27]
Was AISI bestätigt – und was nicht
Eine der wichtigsten externen Quellen ist die Bewertung des britischen AI Security Institute. AISI veröffentlichte am 13. April 2026 eine Analyse zu Claude Mythos Preview, das Anthropic am 7. April angekündigt hatte, und meldete anhaltende Verbesserungen bei Capture-the-Flag-Aufgaben sowie deutliche Verbesserungen bei mehrstufigen Cyberangriffssimulationen.[25]
Das ist relevant, weil CTF-Aufgaben und Angriffssimulationen mehr verlangen als reines Textwissen. Modelle müssen Hinweise verbinden, technische Umgebungen verstehen und mehrere Schritte nacheinander ausführen. Gleichzeitig bleiben es kontrollierte Tests. Sie zeigen, dass das Modell in bestimmten Bewertungsumgebungen stärker geworden ist; sie beweisen nicht automatisch, dass jede angeblich gefundene reale Schwachstelle existiert, kritisch ist und praktisch ausgenutzt werden kann.[25][
27]
Warum Anthropic den Zugang beschränkt
Öffentliche Berichte zeichnen ein einheitliches Bild: Anthropic stellt Mythos Preview nicht als normales Publikumsmodell bereit. The Hacker News berichtet, Anthropic habe sich wegen der Cybersecurity-Fähigkeiten und möglicher Missbrauchsrisiken gegen eine allgemeine Verfügbarkeit entschieden.[26] NBC News schreibt ebenfalls, Anthropic halte Mythos Preview von einer öffentlichen Veröffentlichung zurück und teile es stattdessen mit einer begrenzten Gruppe von großen Technologieunternehmen und Partnern, um Verteidigungsmaßnahmen zu stärken.[
32]
Das verschiebt die eigentliche Frage. Es geht nicht nur darum, wie gut das Modell ist. Entscheidend ist auch, wer Zugriff erhält, wie dieser Zugriff überwacht wird, wie gefundene Schwachstellen gemeldet und geschlossen werden und wie verhindert werden soll, dass ähnliche Fähigkeiten in falsche Hände geraten.[26][
32]
Project Glasswing: Testfeld statt Massenprodukt
WIRED berichtet, Project Glasswing bringe Apple, Google und mehr als 45 weitere Organisationen zusammen. Sie sollen Claude Mythos Preview nutzen, um die wachsenden Cybersecurity-Fähigkeiten von KI zu testen.[30] Nach den öffentlichen Informationen wirkt Glasswing daher eher wie eine kontrollierte Partnerschaft und ein Verteidigungstest als wie ein Produktstart für die breite Öffentlichkeit.[
30][
32]
Die Logik dahinter ist nachvollziehbar: Wenn ein Modell tatsächlich schneller Schwachstellen in wichtiger Software findet, ist es sicherer, zuerst die Organisationen einzubinden, die solche Software pflegen und patchen können.[30][
32] Gleichzeitig lösen solche Partnerschaften nicht automatisch alle Governance-Fragen. Öffentlich sind Zugangsregeln, Audit-Prozesse, Details zur Schwachstellenoffenlegung und Missbrauchsreaktionen nicht vollständig ausbuchstabiert.[
30][
32]
Nicht nur das Modell zählt: Agenten-Orchestrierung ist entscheidend
Ein oft unterschätzter Punkt steht in Anthropics eigener Methodikbeschreibung auf red.anthropic.com. Um mehr unterschiedliche Bugs zu finden und viele Claude-Kopien parallel einzusetzen, lässt Anthropic einzelne Agenten jeweils verschiedene Dateien eines Projekts untersuchen. Vorab bewertet Claude Dateien auf einer Skala von 1 bis 5 danach, wie wahrscheinlich sie interessante Schwachstellen enthalten.[8]
Das ist wichtig: Die gezeigte Leistung entsteht offenbar nicht einfach dadurch, dass jemand eine Frage in ein Chatfenster tippt. Sie beruht auf einem Workflow aus Priorisierung, Arbeitsteilung und paralleler Analyse.[8] Für Sicherheitsverantwortliche ist genau diese Kombination brisant: leistungsfähiges Grundmodell plus Agentensteuerung plus parallele Suche. Das kann Verteidigung beschleunigen, aber auch die Skalierbarkeit von Angriffsvorbereitung verändern.[
8]
Was heute als gesichert gelten kann
- Claude Mythos Preview ist ein von Anthropic beschriebenes Modell. Die System Card nennt es ein neues großes Sprachmodell und ein Frontier AI Model mit Fähigkeiten in Software Engineering, Reasoning und Cybersecurity.[
16]
- AISI sieht messbare Fortschritte in bestimmten Cybertests. Die britische Stelle berichtet über Verbesserungen bei CTF-Aufgaben und mehrstufigen Cyberangriffssimulationen.[
25]
- Der Zugang ist eingeschränkt. Mehrere Berichte sagen, Anthropic mache Mythos Preview nicht allgemein verfügbar, sondern arbeite mit begrenzten Partnerkreisen.[
26][
30][
32]
- Der Arbeitsablauf ist agentisch und parallelisiert. Anthropics eigene Beschreibung nennt mehrere Claude-Instanzen, Dateizuweisung und eine Vorbewertung nach Schwachstellenwahrscheinlichkeit.[
8]
Wo Skepsis angebracht bleibt
- Tausende gefundene Lücken sind nicht automatisch Tausende ausnutzbare Hochrisiko-Zero-Days. Genau diesen Punkt hebt Tom’s Hardware mit Blick auf Realismus, Ausnutzbarkeit und Schweregrad hervor.[
27]
- AISI bestätigt Fortschritte, aber keinen vollständigen Realwelt-Sieg über menschliche Top-Forscher. Die Bewertung bezieht sich auf konkrete Testaufgaben, nicht auf jede Form praktischer Sicherheitsforschung.[
25]
- Die Fähigkeit gehört nicht nur dem Basismodell. Die beschriebene Parallelisierung und Dateipriorisierung zeigt, dass Systemdesign und Agenten-Orchestrierung ein wesentlicher Teil des Ergebnisses sein können.[
8]
- Eingeschränkte Veröffentlichung beseitigt Missbrauchsrisiken nicht automatisch. Öffentliche Berichte belegen begrenzte Weitergabe und Project Glasswing, aber nicht jedes Detail der Kontrolle und Aufsicht.[
30][
32]
Was Unternehmen und Sicherheitsteams daraus mitnehmen sollten
Für normale Nutzerinnen und Nutzer ist die wichtigste Klarstellung: Claude Mythos Preview ist nach den verfügbaren Berichten kein Claude-Modell, das man einfach wie einen üblichen Chatbot öffnen und ausprobieren kann.[26][
32]
Für Sicherheits- und Entwicklungsteams ist die Entwicklung trotzdem ein Warnsignal. KI-Systeme rücken näher an automatisierte Schwachstellensuche, parallele Codeprüfung und mehrstufige Angriffssimulationen heran.[8][
25] Das bedeutet nicht, dass menschliche Sicherheitsforschung morgen überflüssig wird. Es bedeutet aber, dass Prozesse für Schwachstellenmanagement, verantwortliche Offenlegung, Patch-Priorisierung und sichere Codeprüfung schneller und belastbarer werden müssen.[
25][
32]
Der beste aktuelle Befund ist daher ausgewogen: Claude Mythos Preview ist sehr wahrscheinlich ein bedeutender Schritt für KI-gestützte Cybersecurity-Automatisierung. Öffentlich belegt ist vor allem eine deutliche Fähigkeitssteigerung; die spektakulärsten Aussagen über Tausende schwerwiegende Zero-Day-Funde bleiben dagegen noch nicht vollständig unabhängig nachvollziehbar.[16][
25][
27]




