Wenn aus GPT-5.5 „Spud“ tatsächlich ein offizielles OpenAI-Modell wird, ist die wichtigste Frage nicht zuerst, welche Fähigkeiten ihm zugeschrieben werden. Entscheidend ist: Gibt es öffentlich überprüfbare Sicherheitsunterlagen, die genau dieses Modell abdecken?
Der belastbare Befund aus den vorliegenden Quellen lautet: Dafür gibt es derzeit nicht genügend öffentliche Belege. OpenAI hat allgemeine Verfahren zu Sicherheit, Alignment und Red Teaming beschrieben, und für GPT-5 selbst existieren System-Card- und Deployment-Safety-Unterlagen.[4][
29][
49] Diese Dokumente beweisen aber nicht automatisch, dass GPT-5.5 „Spud“ vor einer möglichen Veröffentlichung bereits öffentlich und modellbezogen geprüft wurde.
Kurzurteil
Verdikt: öffentlich nicht ausreichend belegt.
Was sich belegen lässt: OpenAI beschreibt als Unternehmen einen Sicherheitsansatz mit iterativer Bereitstellung, Lernen aus realer Nutzung und Monitoring nach dem Deployment.[4] Außerdem verweist OpenAI auf externe und automatisierte Red-Teaming-Arbeit sowie auf ein Red Teaming Network, also ein Netzwerk vertrauenswürdiger und erfahrener Fachleute zur Unterstützung von Risikobewertung und Risikominderung.[
45][
51]
Das zeigt: Es gibt allgemeine Prozesse. Es zeigt aber nicht: GPT-5.5 „Spud“ ist als konkretes Modell durch eine öffentlich nachprüfbare Sicherheitsbewertung abgedeckt. Dafür müsste ein Dokument Spud direkt nennen — oder OpenAI müsste ausdrücklich erklären, dass Spud von einer bereits veröffentlichten Sicherheitsunterlage erfasst wird.
Was wäre ein starker Nachweis?
Für Leserinnen und Leser außerhalb der KI-Sicherheitsdebatte: Eine „System Card“ ist typischerweise ein öffentliches Dokument, das Modellverhalten, Sicherheitsmaßnahmen, Evaluierungen, Grenzen und Risiken beschreibt. „Red Teaming“ meint gezielte Stresstests, bei denen interne oder externe Prüfer versuchen, Schwachstellen, Missbrauchsmöglichkeiten oder Regelverstöße zu finden.
Als belastbare Belege für eine Sicherheitsprüfung von GPT-5.5 „Spud“ kämen vor allem infrage:
- eine offizielle System Card für GPT-5.5 „Spud“ oder ein eigener Eintrag im OpenAI Deployment Safety Hub, der System Cards und verwandte Updates bündelt;[
28]
- ein Deployment-Safety-, Preparedness- oder Risikobewertungsdokument, das Spud direkt nennt;
- ein externer Red-Team-Bericht, der die getestete Modellversion, Methode, Umfang, Fehlermuster und Grenzen offenlegt;
- eine offizielle OpenAI-Mitteilung, die klar erklärt, dass Spud von einer bestimmten GPT-5-Sicherheitsunterlage mit abgedeckt ist.
YouTube-Erklärvideos, Reddit- oder Facebook-Diskussionen, Prognosemärkte und Leak-Artikel können Hinweise auf Gerüchte liefern. Sie sind aber kein Beweis dafür, dass eine formelle Sicherheitsbewertung veröffentlicht wurde.[10][
11][
12][
17][
37]
Was belegt ist: OpenAI hat allgemeine Sicherheits- und Red-Teaming-Prozesse
OpenAI beschreibt auf seiner Sicherheits- und Alignment-Seite unter anderem iterative Deployment-Strategien, das Lernen aus realer Nutzung und kontinuierliches Monitoring nach der Bereitstellung.[4]
Ein OpenAI-Dokument zum externen Red Teaming erwähnt außerdem, dass Red-Teamer unter Umständen Zugriff auf Pre-Deployment-Modelle oder Snapshots erhalten können. Zugleich warnt das Dokument, dass Snapshots ohne Post-Training in der Regel nicht das Sicherheitsprofil eines späteren Produktionsmodells repräsentieren.[39]
Genau dieser Punkt ist für Spud wichtig: Selbst wenn es Hinweise auf frühe Tests, interne Codenamen oder Vorab-Snapshots gäbe, wäre das nicht automatisch ein Sicherheitsurteil über ein später veröffentlichtes Modell. Ohne klare Modellversion, Testumfang und Deployment-Status bleibt der Schluss zu weitgehend.[39]
Was ebenfalls belegt ist: GPT-5 hat Sicherheitsunterlagen — Spud dadurch aber nicht automatisch
Für GPT-5 ist die öffentliche Dokumentation deutlich konkreter. OpenAIs GPT-5 System Card schreibt, dass die GPT-5-Modelle „safe-completions“ nutzen, also einen Sicherheitsansatz zur Vermeidung unzulässiger Inhalte.[29] Der GPT-5-Eintrag im OpenAI Deployment Safety Hub nennt unter anderem Evaluierungen zu gpt-5-thinking und gpt-5-main.[
49]
Auch die arXiv-Version der GPT-5 System Card enthält eine relevante Sicherheitsangabe: Der Microsoft AI Red Team zufolge zeigt gpt-5-thinking eines der stärksten AI-Safety-Profile unter OpenAIs Modellen.[24]
Aber: Diese Unterlagen beziehen sich ausdrücklich auf GPT-5, gpt-5-thinking, gpt-5-main oder andere in der GPT-5-Dokumentation genannte Varianten. In den hier geprüften Quellen findet sich keine direkte Nennung von GPT-5.5 „Spud“ in diesen Dokumenten und keine OpenAI-Erklärung, die Spud eindeutig auf diese Unterlagen abbildet.[24][
29][
49] Deshalb sollte man die GPT-5-System-Card nicht als Spud-spezifischen Sicherheitsnachweis behandeln.
Spud-Materialien sind überwiegend Hinweise, keine Sicherheitsdokumente
Die öffentlich auffindbaren Spud-Belege in diesem Quellenkorpus stammen vor allem aus nicht offiziellen oder sekundären Formaten: YouTube-Videos mit Titeln wie „explained“ oder „leaked“, Diskussionen auf Reddit und Facebook, eine Manifold-Prognosemarktfrage sowie Blog- und News-ähnliche Beiträge über Release-Fenster, Pretraining, Live-Testing, mögliche Fähigkeiten oder angebliche finale Sicherheitsreviews.[10][
11][
12][
13][
15][
16][
17][
27][
31][
32][
34][
37]
Solche Materialien können nützlich sein, um die Gerüchtelage zu verfolgen. Für die Frage nach einer veröffentlichten Sicherheitsprüfung reichen sie jedoch nicht. Selbst eine Überschrift, die eine Veröffentlichung oder ein „final safety review“ behauptet, ersetzt keine nachvollziehbare Dokumentation mit Testmethode, Modellversion, Risikokategorien, Red-Team-Ergebnissen und offizieller Sicherheitsbewertung.[14][
27][
34]
GPT-5- und gpt-oss-Tests lassen sich nicht auf Spud übertragen
Einige Quellen behandeln tatsächlich Sicherheitstests rund um OpenAI-Modelle — aber nicht GPT-5.5 „Spud“. Promptfoo und SPLX diskutieren Red-Teaming- oder Security-Tests für GPT-5.[2][
3] Die Kaggle Red-Teaming Challenge bezieht sich auf OpenAI gpt-oss-20b; auch Zusammenfassungen dazu drehen sich um gpt-oss-Sicherheitsbewertungen.[
7][
52]
Das hilft, Red-Teaming-Methoden besser einzuordnen. Es beweist aber nicht, dass Spud vorab geprüft wurde. Dafür müsste der Testbericht GPT-5.5 „Spud“ direkt nennen oder eine offizielle Verbindung zu Spud herstellen.
Evidenztabelle: Was lässt sich derzeit sagen?
| Prüffrage | Öffentlicher Quellenstand | Bewertung |
|---|---|---|
| Hat OpenAI allgemeine Safety-, Alignment- und Red-Teaming-Prozesse? | OpenAI beschreibt Sicherheits- und Alignment-Ansätze, externe Red-Teaming-Arbeit und ein Red Teaming Network.[ | Belegt |
| Gibt es für GPT-5 eine System Card oder Deployment-Safety-Unterlagen? | OpenAI veröffentlicht eine GPT-5 System Card und einen GPT-5-Eintrag im Deployment Safety Hub.[ | Belegt |
| Gibt es vor einer möglichen Veröffentlichung eine offizielle Spud-System-Card? | In den geprüften Quellen findet sich keine offizielle OpenAI-System-Card, die GPT-5.5 „Spud“ direkt nennt; Spud-Materialien stammen überwiegend aus Videos, Social Posts, Prognosemärkten oder nicht offiziellen Artikeln.[ | Nicht bestätigt |
| Belegen GPT-5-Unterlagen automatisch die Sicherheit von Spud? | Die GPT-5-Unterlagen nennen GPT-5, gpt-5-thinking und verwandte Varianten; eine offizielle Ausweitung auf Spud ist in den geprüften Quellen nicht erkennbar.[ | Nein, nicht automatisch |
| Gibt es einen verifizierbaren Spud-spezifischen Red-Team-Bericht? | Es gibt Materialien zu GPT-5 und gpt-oss, aber keinen öffentlich prüfbaren Red-Team-Bericht, der Spud direkt nennt.[ | Nicht bestätigt |
Was würde das Urteil ändern?
Die Bewertung müsste aktualisiert werden, falls eine der folgenden Unterlagen erscheint:
- eine offizielle GPT-5.5 „Spud“ System Card von OpenAI;
- ein neuer Eintrag im OpenAI Deployment Safety Hub, der GPT-5.5 „Spud“ direkt nennt;[
28]
- ein offizielles Deployment-Safety-, Preparedness- oder Risikobewertungsdokument mit Testumfang, Risikoklassifizierung und Grenzen;
- ein externer Red-Team-Bericht mit Modellversion, Methode, Umfang, Fehlbeispielen und Einschränkungen;
- eine offizielle OpenAI-Mitteilung, die klar erklärt, dass GPT-5.5 „Spud“ von einer bestimmten GPT-5-Sicherheitsunterlage abgedeckt ist.
Bis dahin wäre es eine Überinterpretation, aus OpenAIs allgemeinen Red-Teaming-Prozessen abzuleiten, Spud habe bereits öffentlich nachweisbar ein Red Teaming bestanden. Präziser ist: OpenAI hat allgemeine Safety-, Alignment- und Red-Teaming-Verfahren veröffentlicht; GPT-5 hat eine System Card und Deployment-Safety-Daten; für GPT-5.5 „Spud“ liefern die geprüften öffentlichen Quellen jedoch keinen direkten Nachweis für eine modellbezogene Sicherheitsbewertung, ein Red Teaming oder Alignment-Evidenz vor der Bekanntgabe.
Kurz gesagt: insufficient public evidence — die öffentliche Beweislage reicht nicht aus. Das schließt interne, nicht veröffentlichte Prüfungen nicht aus. Aber interne Arbeit, die nicht öffentlich dokumentiert ist, kann nicht als zitierbarer öffentlicher Beleg gelten.




