studioglobal
인기 있는 발견
답변게시됨9 소스

GPT-5.5 vs. GPT-5.4: Upgrade oder erst testen?

GPT 5.5 wurde am 23. April 2026 vorgestellt und ist besonders für Coding, Recherche, Wissensarbeit und Tool basierte Workflows positioniert.[22][15][13] Die Benchmark Lage ist gemischt: LLM Stats sieht GPT 5.5 in 9 von 10 direkt vergleichbaren Benchmarks vor GPT 5.4, BenchLM sieht aber GPT 5.4 Pro mit 92 zu 89 vor G...

18K0
GPT-5.5와 GPT-5.4의 성능, 비용, 컨텍스트를 비교하는 추상적 AI 그래픽
GPT-5.5 vs GPT-5.4: 업그레이드할 만한가GPT-5.5는 코딩·리서치형 워크플로에서 유력한 업그레이드 후보지만, GPT-5.4 Pro와 비교하면 일부 지표는 엇갈립니다.
AI 프롬프트

Create a landscape editorial hero image for this Studio Global article: GPT-5.5 vs GPT-5.4: 업그레이드할 만한가? 성능·비용·컨텍스트 비교. Article summary: 2026년 4월 23일 공개된 GPT 5.5는 코딩·리서치·도구 사용 워크플로에서 GPT 5.4보다 먼저 테스트할 만한 업그레이드 후보입니다. 다만 BenchLM 기준 GPT 5.4 Pro가 일부 비교에서 92 대 89로 앞서고, GPT 5.5 공개 벤치마크도 20/153개에 그칩니다.[22][13][1][4]. Topic tags: ai, openai, gpt 5, benchmarks, coding. Reference image context from search candidates: Reference image 1: visual subject "* 특별한 뉴스와 분석 보고서 접근. * 주식 시장 및 경제 동향에 대한 최신 정보. # 오픈AI, 가성비 높인 GPT 5.5 출시…앤스로픽 미토스 성능엔 못미쳐. 오픈AI가 최신 인공지능(AI) 모델 GPT-5.5를 23일(현지시간) 출시했다. 다만 제한적으로 공개된 경쟁사의 AI 모델 '미토스(mythos)의 성능은" source context "오픈AI, 가성비 높인 GPT 5.5 출시…앤스로픽 미토스 성능엔 못미쳐 | 한국경제" Reference image 2: visual subject "* 특별한 뉴스와 분석 보고서 접근. * 주식 시장 및 경제 동향에 대한 최신 정보. # 오픈AI, 가성비 높인 GPT 5.5 출시…앤스로픽 미토스 성능엔 못미쳐. 오픈AI가 최신 인공지능(AI) 모델 GPT-5.5를 23일(현지시간) 출시했다. 다만 제한적으로 공개된 경쟁사의 AI 모델 '미토스(mythos

openai.com

GPT-5.5 ist kein Fall von „neue Versionsnummer, also automatisch besser“. Für Teams, die GPT-5.4 bereits in Entwicklungs-, Recherche- oder Dokumentenprozessen einsetzen, ist es eher ein Kandidat für einen gezielten Paralleltest. OpenAI stellte GPT-5.5 am 23. April 2026 vor und beschreibt das Modell in der System Card als System für komplexe reale Arbeit: Code schreiben, online recherchieren, Informationen auswerten, Dokumente und Tabellen erstellen und zwischen Werkzeugen wechseln.[22][15]

Der Haken: Die öffentlich verfügbaren Vergleichsdaten beziehen sich nicht immer auf dasselbe Gegenüber. Mal geht es um GPT-5.4 Standard, mal um GPT-5.4 Pro, mal um gpt-5.4-thinking. Wer diese Varianten zusammenwirft, kann zu widersprüchlichen Upgrade-Empfehlungen kommen.[1][9][24]

Kurzurteil: Ja zum Test, nein zur blinden Migration

GPT-5.5 wirkt am überzeugendsten in Workflows mit Coding-Agenten, Computer-Use, Wissensarbeit und Recherche. Im Codex-Changelog nennt OpenAI GPT-5.5 das neueste Frontier-Modell in Codex für komplexes Coding, Computernutzung, Wissensarbeit und Research-Workflows.[13] Die System Card beschreibt dieselbe Richtung: praktische Aufgaben über Code, Online-Recherche, Analyse, Dokumente, Tabellen und Tool-Wechsel hinweg.[15]

Das heißt aber nicht, dass GPT-5.5 GPT-5.4 in jeder Umgebung ersetzt. LLM Stats berichtet, GPT-5.5 verbessere sich gegenüber GPT-5.4 in 9 von 10 direkt vergleichbaren Benchmarks.[9] BenchLMs Vergleich zwischen GPT-5.4 Pro und GPT-5.5 zeigt dagegen GPT-5.4 Pro auf dem provisorischen Leaderboard mit 92 zu 89 vorn.[1] Zudem weist BenchLM für das GPT-5.5-Profil nur 20 von 153 verfolgten Benchmarks öffentlich aus; fehlende Kategorien bleiben leer, bis eine quellenbasierte Evaluation vorliegt.[4]

Die wichtigsten Unterschiede im Überblick

FrageWas für GPT-5.5 sprichtWas Sie vor dem Wechsel prüfen sollten
EinsatzgebietOpenAI positioniert GPT-5.5 für reale Arbeitsabläufe mit Code, Online-Recherche, Informationsanalyse, Dokumenten, Tabellen und Tool-Wechseln.[15]Die offiziellen Materialien liefern keine vollständige Eins-zu-eins-Tabelle für alle GPT-5.4- und GPT-5.5-Metriken.[7][15]
Coding und AgentenGPT-5.5 ist in Codex als OpenAIs neuestes Frontier-Modell für komplexes Coding, Computer-Use, Wissensarbeit und Research-Workflows verfügbar.[13]Entscheidend bleibt der eigene Codebestand: Tests sollten dieselben Repositories, Tool-Aufrufe und Akzeptanzkriterien verwenden wie die Produktion.
BenchmarksLLM Stats sieht GPT-5.5 in 9 von 10 direkt vergleichbaren Benchmarks vor GPT-5.4.[9]Gegen GPT-5.4 Pro liegt GPT-5.5 bei BenchLM auf dem provisorischen Leaderboard zurück: 89 statt 92.[1]
KostenIm BenchLM-Vergleich mit GPT-5.4 Pro kostet GPT-5.5 5,00 US-Dollar Input und 30,00 US-Dollar Output pro 1 Mio. Tokens, GPT-5.4 Pro dagegen 30,00 bzw. 180,00 US-Dollar.[1]Im Vergleich mit GPT-5.4 Standard berichtet LLM Stats, dass sich der Preis pro Token bei GPT-5.5 verdoppelt habe.[9]
Kontextfenster1 Mio. Tokens sind für GPT-5.5 weiterhin ein sehr großes Kontextfenster.[1]BenchLM weist GPT-5.4 Pro mit 1,05 Mio. Tokens aus und damit etwas höher als GPT-5.5 mit 1 Mio. Tokens.[1]
SicherheitIn OpenAIs challenging-prompts-Tabelle liegt GPT-5.5 in einigen Kategorien über gpt-5.4-thinking, etwa bei violent illicit behavior, harassment und violence.[24]In anderen Kategorien liegt GPT-5.5 darunter; deshalb zählt die Risikoklasse des eigenen Produkts mehr als ein pauschales Gesamturteil.[24]

Performance: stark dort, wo Arbeit über mehrere Schritte läuft

Die Produktlogik hinter GPT-5.5 ist klar: Das Modell soll nicht nur einzelne Antworten erzeugen, sondern komplexe Aufgaben über Tools hinweg erledigen. OpenAI nennt in der System Card ausdrücklich Code-Erstellung, Online-Recherche, Informationsanalyse, Dokumente, Tabellen und das Wechseln zwischen Werkzeugen.[15] Im Codex-Changelog wird GPT-5.5 am 23. April 2026 als Modell für komplexes Coding, Computer-Use, Wissensarbeit und Research-Workflows in Codex geführt.[13]

Auch BenchLMs Profil passt zu diesem Bild. Dort wird GPT-5.5 besonders im Bereich Agentic stark eingeordnet und als nützlich für Coding-Agenten, Browser-Recherche und Computer-Use-Workflows beschrieben.[4] Für Teams, die LLMs nicht nur als Chat-Oberfläche, sondern als ausführende Komponente in Entwickler- oder Rechercheketten nutzen, ist das der wichtigste Grund, GPT-5.5 ernsthaft zu testen.

Trotzdem sollte man die Benchmark-Lage nicht überdehnen. Wenn nur 20 von 153 BenchLM-Benchmarks öffentlich sichtbar sind, ist das ein Hinweis auf eine noch unvollständige externe Datenlage, nicht auf ein abschließendes Gesamtbild.[4] Öffentliche Benchmarks zeigen eine Richtung; die Frage, ob sie im eigenen Produkt stimmt, beantwortet erst ein interner A/B-Test mit echten Prompts, Dateien und Tool-Aufrufen.

GPT-5.4 ist nicht gleich GPT-5.4 Pro

Der häufigste Denkfehler in dieser Debatte ist, GPT-5.4 Standard und GPT-5.4 Pro in einen Topf zu werfen. Gegen GPT-5.4 Standard sieht GPT-5.5 nach den LLM-Stats-Daten klar stärker aus: 9 von 10 direkt vergleichbaren Benchmarks zeigen Verbesserungen.[9] Gegen GPT-5.4 Pro kippt das Bild teilweise: BenchLM sieht GPT-5.4 Pro auf dem provisorischen Leaderboard mit 92 zu 89 vor GPT-5.5.[1]

Ein Beispiel ist MMMU-Pro: BenchLM nennt 94 % für GPT-5.4 Pro und 81,2 % für GPT-5.5.[1] Auch beim maximalen Kontextfenster liegt GPT-5.4 Pro dort leicht vorn, mit 1,05 Mio. gegenüber 1 Mio. Tokens.[1] Wer bereits GPT-5.4 Pro nutzt und genau auf solche Stärken angewiesen ist, sollte GPT-5.5 nicht als Selbstläufer behandeln.

Kosten: billiger oder teurer – beides kann stimmen

Bei den Kosten hängt die Antwort vollständig vom Vergleichsmodell ab. Im BenchLM-Vergleich mit GPT-5.4 Pro ist GPT-5.5 deutlich günstiger: GPT-5.4 Pro wird mit 30,00 US-Dollar Input und 180,00 US-Dollar Output pro 1 Mio. Tokens angegeben, GPT-5.5 mit 5,00 bzw. 30,00 US-Dollar.[1]

Anders sieht es gegen GPT-5.4 Standard aus. LLM Stats berichtet, dass sich der Preis pro Token bei GPT-5.5 gegenüber GPT-5.4 verdoppelt habe.[9] Die Aussage „GPT-5.5 ist günstiger“ stimmt also nur im Verhältnis zu GPT-5.4 Pro; gegenüber GPT-5.4 Standard kann GPT-5.5 teurer sein.[1][9]

Für die Praxis reicht der Listenpreis ohnehin nicht. DataCamp fasst zusammen, GPT-5.5 halte die Latenz pro Token auf GPT-5.4-Niveau und benötige für dieselben Codex-Aufgaben weniger Tokens.[8] Ob die Rechnung am Ende besser wird, hängt deshalb von drei Größen ab: Ihrem aktuellen Modell, dem Verhältnis aus Input- und Output-Tokens und der Frage, ob GPT-5.5 dieselbe Aufgabe tatsächlich mit weniger Tokens erledigt.[1][8][9]

Geschwindigkeit und Kontext: nicht nur auf eine Zahl schauen

DataCamp und LLM Stats beschreiben GPT-5.5 beide so, dass die Latenz pro Token ungefähr auf GPT-5.4-Niveau bleibt.[8][9] DataCamp ergänzt, GPT-5.5 erledige dieselben Codex-Aufgaben mit weniger Tokens.[8] Das kann die gefühlte Geschwindigkeit verbessern, wenn weniger Output entsteht und weniger Zwischenschritte nötig sind.

Trotzdem ist Latenz pro Token nicht dasselbe wie Antwortzeit im Produkt. Agentische Workflows hängen stark an Prompt-Struktur, Tool-Aufrufen, Ausgabeformaten und Fehlerkorrekturen. Ein Modell kann pro Token gleich schnell sein und im Gesamtlauf trotzdem schneller oder langsamer wirken. Die öffentlichen Daten liefern daher eher Entwarnung, dass GPT-5.5 bei der Token-Latenz nicht klar zurückfällt; sie garantieren aber keine identische End-to-End-Latenz in jeder Anwendung.[8][9]

Beim Kontextfenster ist GPT-5.5 groß, aber nicht immer maximal. BenchLM gibt GPT-5.5 mit 1 Mio. Tokens an, GPT-5.4 Pro mit 1,05 Mio. Tokens.[1] Für sehr lange Codebasen, große Dokumentenpakete oder lange Gesprächshistorien sollte man deshalb nicht nur die maximale Tokenzahl messen, sondern auch Retrieval-, Zusammenfassungs- und Wiederauffindungsqualität im eigenen Material.

Sicherheit: Kategorien statt Durchschnittsgefühl

OpenAIs Deployment Safety Hub vergleicht gpt-5.4-thinking und GPT-5.5 in einer Tabelle mit challenging prompts; dort gilt „höher ist besser“.[24] Das Bild ist gemischt:

Sicherheitskategoriegpt-5.4-thinkingGPT-5.5Tendenz
Gewaltbezogenes illegales Verhalten0,9710,979GPT-5.5 höher
Belästigung0,7900,822GPT-5.5 höher
Gewalt0,8310,846GPT-5.5 höher
Nicht-gewaltsames illegales Verhalten1,0000,993GPT-5.5 niedriger
Extremismus1,0000,925GPT-5.5 niedriger
Hass0,9430,868GPT-5.5 niedriger
Selbstgefährdung, Standard0,9870,959GPT-5.5 niedriger
Sexuelle Inhalte0,9330,925GPT-5.5 niedriger

Daraus folgt kein einfaches „sicherer“ oder „unsicherer“. Wenn Ihr Produkt besonders häufig mit Hassrede, Selbstgefährdung, sexuellen Inhalten oder illegalem Verhalten in Berührung kommt, sollten genau diese Kategorien separat getestet und nicht hinter einem Durchschnittswert versteckt werden.[24]

So sollte die Upgrade-Entscheidung fallen

Testen Sie GPT-5.5 zuerst, wenn Ihre wichtigsten Workflows Coding-Agenten, Codex-basierte Entwicklung, Computer-Use, Online-Recherche, Dokumenten- oder Tabellenarbeit und Tool-Orchestrierung sind. Genau diese Felder nennt OpenAI in Codex-Changelog und System Card als zentrale Einsatzbereiche von GPT-5.5.[13][15]

Bleiben Sie vorsichtig, wenn Sie schon GPT-5.4 Pro nutzen und Ihre Qualität stark von bestimmten Benchmarks oder einem maximalen Kontextfenster abhängt. In BenchLMs Vergleich liegt GPT-5.4 Pro beim provisorischen Leaderboard und beim Kontextfenster vor GPT-5.5.[1]

Rechnen Sie die Kosten mit Ihren echten Daten, nicht nur mit Preiszeilen. Gegen GPT-5.4 Pro wirkt GPT-5.5 günstiger; gegen GPT-5.4 Standard berichtet LLM Stats jedoch einen doppelt so hohen Preis pro Token.[1][9]

Nehmen Sie Benchmarks als Startpunkt, nicht als Ersatz für Produktmessung. OpenAI weist bei GPT-5.4 darauf hin, dass Benchmarks in einer Forschungsumgebung durchgeführt wurden und Produktionsergebnisse in ChatGPT in manchen Fällen leicht abweichen können.[7] Gleichzeitig ist die öffentliche GPT-5.5-Abdeckung bei BenchLM mit 20 von 153 verfolgten Benchmarks begrenzt.[4]

Fazit

GPT-5.5 ist ein ernstzunehmender Upgrade-Kandidat, vor allem für Coding-, Agenten- und Recherche-Workflows.[13][15] Es ist aber kein automatischer Ersatz für jede GPT-5.4-Installation. Gegen GPT-5.4 Standard sprechen viele Vergleichsdaten für GPT-5.5; gegen GPT-5.4 Pro sind Benchmark- und Kontextsignale teils gegenläufig.[1][9]

Die pragmatische Empfehlung lautet daher: GPT-5.5 parallel testen, die eigenen Kernaufgaben messen und erst dann migrieren. Besonders Kosten, End-to-End-Latenz, Kontextqualität und sicherheitskritische Kategorien sollten vor einer flächendeckenden Umstellung geprüft werden.[1][8][9][24]

Studio Global AI

Search, cite, and publish your own answer

Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.

Studio Global AI로 검색 및 팩트체크

주요 시사점

  • GPT 5.5 wurde am 23. April 2026 vorgestellt und ist besonders für Coding, Recherche, Wissensarbeit und Tool basierte Workflows positioniert.[22][15][13]
  • Die Benchmark Lage ist gemischt: LLM Stats sieht GPT 5.5 in 9 von 10 direkt vergleichbaren Benchmarks vor GPT 5.4, BenchLM sieht aber GPT 5.4 Pro mit 92 zu 89 vor GPT 5.5.[9][1]
  • Auch Kosten und Kontext sind kein einfacher Sieg: GPT 5.5 ist im Vergleich zu GPT 5.4 Pro günstiger, kann gegenüber GPT 5.4 Standard aber pro Token teurer sein; BenchLM gibt GPT 5.4 Pro zudem mit 1,05 Mio.

사람들은 또한 묻습니다.

"GPT-5.5 vs. GPT-5.4: Upgrade oder erst testen?"에 대한 짧은 대답은 무엇입니까?

GPT 5.5 wurde am 23. April 2026 vorgestellt und ist besonders für Coding, Recherche, Wissensarbeit und Tool basierte Workflows positioniert.[22][15][13]

먼저 검증할 핵심 포인트는 무엇인가요?

GPT 5.5 wurde am 23. April 2026 vorgestellt und ist besonders für Coding, Recherche, Wissensarbeit und Tool basierte Workflows positioniert.[22][15][13] Die Benchmark Lage ist gemischt: LLM Stats sieht GPT 5.5 in 9 von 10 direkt vergleichbaren Benchmarks vor GPT 5.4, BenchLM sieht aber GPT 5.4 Pro mit 92 zu 89 vor GPT 5.5.[9][1]

실무에서는 다음으로 무엇을 해야 합니까?

Auch Kosten und Kontext sind kein einfacher Sieg: GPT 5.5 ist im Vergleich zu GPT 5.4 Pro günstiger, kann gegenüber GPT 5.4 Standard aber pro Token teurer sein; BenchLM gibt GPT 5.4 Pro zudem mit 1,05 Mio.

다음에는 어떤 관련 주제를 탐구해야 할까요?

다른 각도와 추가 인용을 보려면 "Claude Security 공개 베타: 앤트로픽의 AI 코드 취약점 스캐너가 하는 일"으로 계속하세요.

관련 페이지 열기

이것을 무엇과 비교해야 합니까?

"Grok 4.3 API 분석: 100만 토큰과 낮은 단가, xAI의 다음 승부수"에 대해 이 답변을 대조 확인하세요.

관련 페이지 열기

연구를 계속하세요

연구 대화

당신

연구문제

GPT 5.5와 GPT 5.4의 성능을 비교해 보세요.

Studio Global AI24 소스

인용 답변

제공된 근거만으로는 GPT-5.5가 GPT-5.4보다 전반적으로 더 낫다고 확정하기 어렵습니다. 공식 자료는 GPT-5.5의 공개와 시스템 카드 존재를 확인하지만, 이 비교에 필요한 공식 정면 비교 성능 수치는 제공되지 않았고, 정량 비교는 주로 제3자 집계에 의존합니다.[1][2][5][8]

지금 확인되는 점

  • GPT-5.5는 2026년 4월 23일 기준으로 공개되었고, OpenAI는 별도의 시스템 카드를 게시했습니다.[8]
  • 제공된 공식 근거만으로는 GPT-5.4와 GPT-5.5의 직접 벤치마크 우열을 보여 주는 공식 수치가 확인되지 않습니다.[1][8]
  • BenchLM에 따르면 GPT-5.5 프로필은 현재 153개 추적 벤치마크 중 20개만 공개되어 있어, 공개 성능 정보가 아직 불완전합니다.[5]
  • 같은 BenchLM 기준으로 GPT-5.5는 GPT-5.4의 후속 관련 모델로 연결되어 있습니다.[5]

수치로 보이는 차이

  • BenchLM의 비교 페이지에서는 GPT-5.4 Pro가 GPT-5.5보다 더 비싸며, 입력 가격은 1M 토큰당 $30.00 대 $5.00, 출력 가격은 1M 토큰당 $180.00 대 $30.00으로 제시됩니다.[2]
  • 같은 페이지에서는 GPT-5.4 Pro의 컨텍스트 창이 1.05M, GPT-5.5의 컨텍스트 창이 1M으로 표기됩니다.[2]
  • 따라서 제공된 수치만 보면, 비용 효율은 GPT-5.5 쪽이 유리하고 최대 컨텍스트는 GPT-5.4 Pro가 소폭 유리합니다.[2]

해석할 때 주의할 점

  • 위 숫자는 GPT-5.4 표준 모델과 GPT-5.5 표준 모델의 공식 직접 비교가 아니라, 제3자 사이트의 GPT-5.4 Pro 대 GPT-5.5 비교입니다.[2]
  • GPT-5.5의 공개 벤치마크 범위가 아직 제한적이므로, 종합 성능 우열을 판단하기에는 근거가 부족합니다.[5]
  • 결론적으로, 제공된 근거만으로는 “GPT-5.5가 GPT-5.4보다 성능이 확실히 더 좋다” 또는 그 반대라고 단정할 수 없습니다. Insufficient evidence.[5][8]

원하시면 다음 답변에서 제가 이 근거만 바탕으로 “코딩, 비용, 컨텍스트, 신뢰도” 4축 비교표로 아주 짧게 정리해 드리겠습니다.

출처

  • [1] GPT-5.4 Pro vs GPT-5.5: AI Benchmark Comparison 2026 | BenchLM.aibenchlm.ai

    GPT-5.4 Pro is also the more expensive model on tokens at $30.00 input / $180.00 output per 1M tokens, versus $5.00 input / $30.00 output per 1M tokens for GPT-5.5. That is roughly 6.0x on output cost alone. GPT-5.4 Pro gives you the larger context window a...

  • [4] GPT-5.5 Benchmarks 2026: Scores, Rankings & Performancebenchlm.ai

    GPT-5.5 sits inside the GPT-5.5 family alongside GPT-5.5 Pro. BenchLM links it directly to GPT-5.4 as the earlier related model in that lineage. This profile currently has 20 of 153 tracked benchmarks. BenchLM only exposes non-generated benchmark rows publi...

  • [7] Introducing GPT-5.4 | OpenAIopenai.com

    Evals without reasoning EvalGPT‑5.4 (none)GPT‑5.2 (none)GPT-4.1 OmniDocBench (normalized edit distance)0.109 0.140— Tau2-bench Telecom 64.3%57.2%43.6% Evals were run with reasoning effort set to xhigh, except where specified otherwise. Benchmarks were condu...

  • [8] OpenAI's GPT-5.5: Benchmarks, Safety Classification, and Availabilitydatacamp.com

    OpenAI's GPT-5.5: Benchmarks, Safety Classification, and Availability OpenAI's latest release focuses on execution, research, and dramatically improved inference efficiency. Apr 23, 2026 · 5 min read OpenAI's latest model, GPT-5.5, matches GPT-5.4 in per-to...

  • [9] GPT-5.5 vs GPT-5.4: Pricing, Speed, Context, Benchmarksllm-stats.com

    OpenAI releasedGPT-5.5 onApril 23, 2026, seven weeks afterGPT-5.4. I've been running both against the same Codex workloads I use to evaluate every new frontier release. The per-token price doubled. The per-token latency didn't. GPT-5.5 improves on 9 of the...

  • [13] Codex changelog - OpenAI Developersdevelopers.openai.com

    Changelog Feature Maturity Open Source April 2026 March 2026 February 2026 January 2026 December 2025 November 2025 October 2025 September 2025 August 2025 June 2025 May 2025 Codex changelog Latest updates to Codex, OpenAI’s coding agent All updatesGeneralC...

  • [15] GPT-5.5 System Cardopenai.com

    GPT-5.5 System Card OpenAI Skip to main content Log inTry ChatGPT(opens in a new window) Research Products Business Developers Company Foundation(opens in a new window) GPT-5.5 System Card OpenAI April 23, 2026 SafetyPublication GPT‑5.5 System Card Read the...

  • [22] Introducing GPT-5.5openai.com

    Introducing GPT-5.5 OpenAI Skip to main content Log inTry ChatGPT(opens in a new window) Research Products Business Developers Company Foundation(opens in a new window) Try ChatGPT(opens in a new window)Login OpenAI Table of contents Model capabilities Next...

  • [24] GPT-5.5 System Card - Deployment Safety Hub - OpenAIdeploymentsafety.openai.com

    Table 1. Production Benchmarks with Challenging Prompts (higher is better) Category gpt-5.1-thinking gpt-5.2-thinking gpt-5.4-thinking gpt-5.5 --- --- Violent Illicit behavior 0.955 0.975 0.971 0.979 Nonviolent illicit behavior 0.990 0.993 1.000 0.993 haras...