OpenAI 對 GPT-5.5-Cyber 採取限制公開,第一眼看確實像前後不一。多家報導指出,山姆・奧特曼曾批評 Anthropic 只把資安模型 Mythos 開放給部分使用者;India Today 更報導,他把這種做法稱為「fear-based marketing」(恐懼式行銷)[1][
11]。但不久後,OpenAI 也表示,GPT-5.5-Cyber 不會立刻全面開放,而是先提供給「critical cyber defenders」使用 [
22][
30]。
這件事的重點,不只是 OpenAI 是否「轉彎」。更值得問的是:一個可能協助找漏洞、做滲透測試、甚至分析攻擊路徑的強大資安 AI,應該先交到誰手上?在什麼條件下開放?速度又該多快?
從公開資料來看,OpenAI 的說法相對清楚:資安 AI 可以讓防禦更快、更有效;但同一批能力也可能被攻擊者拿來放大攻擊能力。因此,OpenAI 主張先讓經過驗證的防禦者取得存取權,以降低濫用風險 [28][
29]。
已確認的事:OpenAI 也選擇「篩選後開放」
Anthropic 的 Mythos 爭議,起點正是「誰能用」。報導稱,Anthropic 只向部分使用者開放 Mythos,而奧特曼曾公開批評這種限制存取的做法 [1][
11]。
接著,OpenAI 也宣布 GPT-5.5-Cyber 會先給特定使用者。Business Today 與 Techloy 報導,奧特曼在 2026 年 4 月 30 日於 X 發文表示,OpenAI 將在接下來幾天開始把 GPT-5.5-Cyber 推向「critical cyber defenders」[22][
30]。TechCrunch 則報導,OpenAI 網站上設有申請流程,想取得存取權的人需要提交自身資格與預定用途 [
1]。
因此,外界爭議並不只在於「OpenAI 限制公開」這件事本身,而在於時間順序:奧特曼先批評 Anthropic 的限制模式,OpenAI 隨後卻採取了相當接近的結構。The Register 也把這一點列為主要矛盾:OpenAI 在批評 Anthropic 後,仍準備把 GPT-5.5-Cyber 限制提供給手選的網路防禦者 [6]。
OpenAI 的理由:先給防禦者,降低濫用
OpenAI 使用的關鍵概念是「trusted access」,也就是可信任存取。相關報導稱,奧特曼在談到 GPT-5.5-Cyber 推出時表示,OpenAI 會與整個生態系及政府合作,找出資安領域的可信任存取方式 [22][
30]。
這與 OpenAI 先前推動的 Trusted Access for Cyber(TAC)計畫相連。OpenAI 說,TAC 的目的,是釋放強大資安能力的防禦潛力,同時降低濫用風險 [29]。OpenAI 也表示,正在把 TAC 擴大到數千名已驗證的個人防禦者,以及數百個負責保護關鍵軟體的團隊 [
28]。
換句話說,GPT-5.5-Cyber 的限制公開並不是完全孤立的決策。至少從 OpenAI 自己的公開說法看,這是其既有路線的延伸:越強的資安能力,越需要先以分階段、驗證身分的方式交給防禦方 [28][
29]。
為什麼資安 AI 特別敏感?
資安模型的難題在於「一體兩面」。同樣一套能力,對防禦者是工具,對攻擊者也可能是武器。
TechCrunch 報導,GPT-5.5-Cyber 可以執行滲透測試、漏洞識別,以及漏洞利用等任務 [1]。Datagrom 也報導,這項工具能進行惡意程式逆向工程 [
14]。
對企業資安團隊而言,這些能力可能幫助他們更快找出漏洞、修補系統、檢查防線。但如果落到未授權使用者或惡意行為者手中,同樣能力也可能被用來提升攻擊效率。
OpenAI 自己也承認,網路安全是 AI 進步最能強化整體生態系、同時也最可能帶來新風險的領域之一。OpenAI 表示,這類能力可以加速漏洞發現與修復;而 TAC 的設計,就是要在釋放防禦價值的同時降低濫用風險 [29]。
在這個脈絡下,限制公開比較像是一道風險閘門,而不只是商業上的獨家策略。模型越能支援滲透測試、漏洞利用分析這類對攻擊者也有價值的工作,OpenAI 就越有誘因先採取「驗證防禦者優先」而非全面開放 [1][
29]。
那奧特曼當初為什麼批評 Anthropic?
這裡必須保留一個重要限制:僅憑公開資料,無法確認奧特曼當時的內部判斷,也無法知道 OpenAI 後續決策是否經歷了什麼轉變。
較寬容的解讀是,奧特曼批評的可能不是「限制存取」本身,而是 Anthropic 如何宣傳或定位 Mythos 的限制公開。India Today 所報導的「fear-based marketing」說法,較接近這種解讀:也就是他反感的重點,可能是用危險感來塑造產品敘事 [11]。
但即使接受這種解讀,OpenAI 最後仍採取類似的存取限制模式。OpenAI 表示 GPT-5.5-Cyber 會先提供給「critical cyber defenders」,TechCrunch 也報導申請者需要提交資格與使用計畫 [1][
22]。因此,批評聲音不一定是在說 OpenAI 的安全理由完全站不住腳,而是在質疑它的公開表態與實際行動是否一致。
OpenAI 與 Anthropic 並不能簡單畫上等號
把兩家公司政策說成完全相同,仍然過於武斷。根據目前公開報導,我們無法確認雙方在審查標準、技術限制、使用監控、允許任務範圍等細節上是否一致。
但從外部可見的核心結構來看,兩者確實相近:強大的資安 AI 沒有立刻向一般使用者開放,而是先交給被挑選或驗證過的使用者 [1][
6][
22]。
OpenAI 的不同之處,是它把這套做法包在 TAC 這個制度化框架中說明。OpenAI 表示 TAC 正擴大到已驗證的個人防禦者與關鍵軟體防禦團隊;而 GPT-5.5-Cyber 也被描述為會先交給可信任資安防禦者的模型 [22][
28]。所以,比起說「OpenAI 完全複製 Anthropic」,更精確的說法是:兩家公司在強大資安 AI 的部署上,逐漸走向相似的「驗證使用者優先」模式 [
1][
6]。
結論:安全理由成立,但溝通問題仍在
就公開資料而言,OpenAI 限制 GPT-5.5-Cyber 的最直接理由,是資安專用 AI 的雙重用途風險。OpenAI 表示,強大的資安能力可以加快漏洞發現與修補,但也可能被濫用;因此它以 TAC 作為降低風險的機制,先把存取權交給經過驗證的防禦者 [28][
29]。
不過,奧特曼為何在批評 Anthropic 限制 Mythos 之後,又讓 OpenAI 採取相似做法,其個人動機與公司內部決策過程,公開資料無法證實。能確認的是:OpenAI 在批評 Anthropic 的 Mythos 限制公開後,仍限制部署 GPT-5.5-Cyber,並以防禦者優先與 trusted access 作為理由 [1][
22][
30]。
因此,這件事不能只用「雙重標準」四個字草草帶過。從政策面看,限制公開可以被理解為面對資安 AI 濫用風險的現實安全措施;但從溝通面看,OpenAI 確實很難完全避開一個問題:它最後走上的路,和它不久前批評過的路,看起來相當接近。




