Auf den ersten Blick sieht es nach einer Kehrtwende aus: OpenAI-Chef Sam Altman hatte laut Berichten Anthropic dafür kritisiert, dessen Cybersecurity-Modell Mythos nur ausgewählten Nutzern zugänglich zu machen; India Today berichtete, Altman habe diesen Ansatz als „fear-based marketing“ bezeichnet [11]. Kurz danach kündigte OpenAI jedoch an, GPT-5.5-Cyber ebenfalls nicht allgemein freizugeben, sondern zunächst an „critical cyber defenders“ auszurollen [
22][
30].
Der Widerspruch ist real – aber die Erklärung ist etwas komplizierter als ein bloßes „OpenAI macht jetzt doch dasselbe“. Im Kern geht es um eine Frage, die bei Cyber-KI besonders heikel ist: Wer bekommt Zugriff auf Modelle, die beim Finden und Schließen von Sicherheitslücken helfen können, aber potenziell auch beim Ausnutzen solcher Lücken?
Was passiert ist
Die Debatte begann mit Anthropic und Mythos. Mehrere Berichte beschrieben, dass Anthropic sein Cybersecurity-Modell nur einem begrenzten Nutzerkreis zugänglich machte – und dass Altman diese Form der Zugangsbeschränkung kritisierte [1][
11].
Dann folgte OpenAI mit einem sehr ähnlichen Grundmuster. Business Today und Techloy berichteten, Altman habe am 30. April 2026 auf X angekündigt, OpenAI werde GPT-5.5-Cyber in den kommenden Tagen an „critical cyber defenders“ ausrollen [22][
30]. TechCrunch schrieb zudem, OpenAI betreibe dafür ein Bewerbungsverfahren, bei dem Interessenten Angaben zu Qualifikation und geplantem Einsatz machen müssen [
1].
Genau diese Reihenfolge macht den Fall brisant: Erst die Kritik an Anthropic, dann die eigene begrenzte Freigabe. The Register fasste den Streitpunkt entsprechend so zusammen, dass OpenAI GPT-5.5-Cyber einem handverlesenen Kreis von Cyber-Verteidigern zugänglich machen wolle – nachdem das Unternehmen Anthropic für etwas sehr Ähnliches kritisiert hatte [6].
Warum Cyber-KI besonders sensibel ist
Bei einem normalen Produktstart wäre ein gestaffelter Zugang kaum ungewöhnlich. Bei einem Cybersecurity-Modell liegt die Sache anders. TechCrunch berichtete, GPT-5.5-Cyber könne Aufgaben wie Penetrationstests, das Identifizieren von Schwachstellen und auch deren Ausnutzung unterstützen [1]. Datagrom schrieb zudem, das Tool könne Malware-Reverse-Engineering leisten [
14].
Für Sicherheitsteams kann das äußerst wertvoll sein: Schwachstellen werden schneller gefunden, Angriffswege besser verstanden, Patches möglicherweise früher priorisiert. Dieselben Fähigkeiten können aber auch für unerlaubte Angriffe nützlich sein. Genau darin liegt das klassische Dual-Use-Problem: Eine Fähigkeit ist nicht von sich aus „gut“ oder „böse“ – entscheidend ist, wer sie mit welchem Ziel einsetzt.
OpenAI formuliert diese Spannung in seinen eigenen Unterlagen ähnlich. Das Unternehmen beschreibt Cybersecurity als einen Bereich, in dem KI-Fortschritt das gesamte Ökosystem stärken, zugleich aber neue Risiken einführen könne [29]. Leistungsfähigere Modelle könnten die Entdeckung und Behebung von Schwachstellen deutlich beschleunigen; zugleich solle das Missbrauchsrisiko reduziert werden [
29].
OpenAIs Begründung: Erst die Verteidiger, dann breiterer Zugang
OpenAI rahmt die eingeschränkte Freigabe nicht als bloße Produktknappheit, sondern als Sicherheitsarchitektur. Altman sprach laut Berichten davon, OpenAI wolle gemeinsam mit dem Ökosystem und der Regierung herausfinden, wie „trusted access“ für Cyber funktionieren könne [22][
30].
Dieser Begriff hängt mit OpenAIs Programm „Trusted Access for Cyber“, kurz TAC, zusammen. OpenAI erklärte, TAC solle auf Tausende verifizierte individuelle Verteidiger und Hunderte Teams ausgeweitet werden, die für den Schutz kritischer Software verantwortlich sind [28]. Ziel sei es, das defensive Potenzial stärkerer Cyber-Fähigkeiten zu erschließen und gleichzeitig Missbrauchsrisiken zu senken [
29].
Aus OpenAIs Sicht ist GPT-5.5-Cyber damit nicht einfach „gesperrt“, sondern wird stufenweise an Personen und Teams gegeben, die als legitime Verteidiger geprüft wurden. Das ist der sicherheitspolitische Kern der Entscheidung: Wenn ein Modell bei Angriffsanalysen und Schwachstellenarbeit sehr leistungsfähig ist, soll der erste Nutzen bei der Abwehr liegen – nicht bei beliebigen Nutzern im offenen Netz.
Warum hat Altman dann Anthropic kritisiert?
Hier wird es heikel, denn die öffentlichen Informationen geben keinen gesicherten Einblick in Altmans interne Abwägung. Es lässt sich nicht belegen, ob er seine Position geändert hat, ob OpenAI intern neue Risikobewertungen vorgenommen hat oder ob er von Anfang an eine engere Unterscheidung treffen wollte.
Eine wohlwollende Lesart wäre: Altman kritisierte nicht jede Form von Zugriffsbeschränkung, sondern die Art, wie Anthropic Mythos öffentlich positioniert habe. Dazu passt, dass India Today die Formulierung „fear-based marketing“ berichtete [11]. In dieser Deutung hätte sich seine Kritik eher gegen ein Marketing-Narrativ gerichtet als gegen das Prinzip, Hochrisiko-Funktionen zunächst nur geprüft freizugeben.
Aber auch dann bleibt ein Kommunikationsproblem. Nach außen sieht OpenAIs Vorgehen nun sehr ähnlich aus: GPT-5.5-Cyber wird zunächst nicht allgemein verfügbar, sondern an ausgewählte Cyber-Verteidiger verteilt; Bewerber müssen laut TechCrunch Qualifikation und geplante Nutzung offenlegen [1][
22]. Die Kritik an OpenAI zielt daher weniger darauf, dass Risikomanagement falsch wäre. Sie zielt auf die Frage der Konsistenz: Warum klang ein ähnlicher Ansatz beim Wettbewerber wie Panikmache – und bei OpenAI wie verantwortungsvolle Sicherheitspolitik?
Anthropic und OpenAI sind nicht automatisch identisch
Trotz der Parallelen sollte man vorsichtig sein, beide Ansätze komplett gleichzusetzen. Aus den öffentlich vorliegenden Berichten geht nicht hervor, dass Anthropic und OpenAI identische Prüfverfahren, technische Schutzmaßnahmen, Monitoring-Regeln oder erlaubte Einsatzbereiche verwenden.
Was sich aber vergleichen lässt, ist die sichtbare Struktur: Ein leistungsfähiges Cybersecurity-Modell wird nicht sofort für alle geöffnet, sondern zunächst nur für ausgewählte beziehungsweise verifizierte Nutzer zugänglich gemacht [1][
6][
22]. Bei OpenAI ist diese Struktur stärker in das TAC-Programm eingebettet, das ausdrücklich auf verifizierte Verteidiger und Teams zum Schutz kritischer Software zielt [
28].
Die sauberere Formulierung lautet daher: OpenAI und Anthropic verfolgen nach außen nicht nachweislich dieselbe Detailpolitik. Sie konvergieren aber bei einem ähnlichen Grundmodell – starke Cyber-KI zuerst für geprüfte Verteidiger, nicht für die breite Öffentlichkeit.
Fazit: Sicherheitslogik nachvollziehbar, Botschaft beschädigt
Der wahrscheinlichste öffentlich belegbare Grund für OpenAIs eingeschränkte Freigabe ist das Dual-Use-Risiko von Cyber-KI. GPT-5.5-Cyber kann laut Berichten Aufgaben unterstützen, die für Verteidiger nützlich, aber für Angreifer ebenfalls wertvoll sein können [1][
14]. OpenAI verweist deshalb auf „Trusted Access for Cyber“, um starke Cyber-Fähigkeiten zunächst geprüften Verteidigern zugänglich zu machen und Missbrauch zu begrenzen [
28][
29].
Was sich nicht belegen lässt, ist Altmans persönliche oder interne Motivation für den scheinbaren Kurswechsel. Sicher ist nur: OpenAI kritisierte Anthropic für einen begrenzten Zugang zu Mythos – und entschied sich kurz darauf bei GPT-5.5-Cyber selbst für eine eingeschränkte, geprüfte Freigabe [1][
11][
22][
30].
Deshalb ist der Fall mehr als reine Heuchelei, aber auch mehr als reine Sicherheitsroutine. Inhaltlich kann OpenAI gute Gründe haben, ein solches Modell nicht sofort breit zu öffnen. Kommunikativ bleibt jedoch der Eindruck, dass das Unternehmen eine Praxis übernimmt, die es beim Rivalen gerade erst öffentlich problematisiert hatte.




