驟眼睇,OpenAI 今次好似兜咗個圈。據報,Sam Altman 之前批評 Anthropic 只向部分用戶開放網絡安全模型 Mythos;India Today 更指,佢形容呢種做法係「fear-based marketing」[1][
11]。但之後,OpenAI 又宣布 GPT-5.5-Cyber 唔會一開始向所有人開放,而係先畀「critical cyber defenders」使用 [
22][
30]。
所以問題唔係一句「OpenAI 轉軚」就講得晒。真正要問係:當一個 AI 工具可以協助做滲透測試、搵漏洞,甚至分析漏洞利用時,應該畀邊啲人用、喺咩條件下用、又應該幾快放出去?OpenAI 公開講法相當清楚:先畀可信任嘅防守者使用,希望加快防守,同時減低被濫用嘅風險 [1][
28][
29]。
已確認:OpenAI 也揀咗「先篩選、後開放」
Anthropic 的 Mythos 風波,起點就係存取限制。多間媒體報道,Anthropic 只向部分用戶提供 Mythos,而 Altman 曾經批評呢種做法 [1][
11]。
其後,OpenAI 亦選擇先向經挑選嘅用戶推出 GPT-5.5-Cyber。Business Today 同 Techloy 報道,Altman 於 2026年4月30日 在 X 發文,話 OpenAI 會喺未來幾日開始將 GPT-5.5-Cyber 推畀「critical cyber defenders」[22][
30]。TechCrunch 亦報道,OpenAI 網站設有申請流程,想取得存取權嘅人需要提交資格資料同計劃用途 [
1]。
因此,爭議最大之處唔只係「OpenAI 限制公開」,而係時間線:Altman 先批評 Anthropic 對 Mythos 設限,之後 OpenAI 又採取類似嘅把關模式。The Register 亦以此為焦點,指出 OpenAI 批評 Anthropic 後,自己又準備將 GPT-5.5-Cyber 限量提供予一圈經挑選嘅網絡防守者 [6]。
OpenAI 嘅理由:先保護防守方,減低濫用
OpenAI 用嘅關鍵詞係「trusted access」——可以理解為「可信任存取」或「受信任存取」。據報 Altman 表示,在 GPT-5.5-Cyber 的推出安排上,OpenAI 會同整個生態系統及政府合作,摸索網絡安全領域嘅可信任存取方式 [22][
30]。
呢個講法,亦同 OpenAI 之前公布嘅 TAC(Trusted Access for Cyber)計劃連起來。OpenAI 形容 TAC 的目的,是釋放強大網絡能力嘅防守潛力,同時減低濫用風險 [29]。OpenAI 又表示,正將 TAC 擴展至數以千計經驗證嘅個人防守者,以及數百個負責保護重要軟件嘅團隊 [
28]。
換句話講,GPT-5.5-Cyber 的限制開放,唔似係一個孤立決定;更似係 OpenAI 早前已經鋪排好嘅路線:越強嘅網絡能力,越要先以分階段、經驗證嘅方式交畀防守者 [28][
29]。
點解網絡安全 AI 特別敏感?
網絡安全 AI 最大難題係「同一把刀,兩邊都用得」。TechCrunch 報道指,GPT-5.5-Cyber 可以執行滲透測試、漏洞識別同漏洞利用等任務 [1]。Datagrom 亦報道,呢個工具可以做惡意軟件逆向工程 [
14]。
對保安團隊嚟講,呢啲能力可以幫手更快發現同修補漏洞。但如果落入未經授權用戶,甚至惡意攻擊者手上,同樣可以提升攻擊能力。OpenAI 自己亦承認,網絡安全係 AI 進步最清楚可以強化整個生態、但同時會帶來新風險嘅領域之一;它表示 TAC 係為咗發揮加快漏洞發現與修補嘅防守潛力,同時降低濫用風險 [29]。
喺呢個背景下,限制開放未必只係商業上「吊高嚟賣」;更可以被理解為風險管理。尤其當模型能夠支援滲透測試、漏洞利用分析呢類對攻擊者都有價值嘅工作,OpenAI 選擇先畀經驗證防守者用,而唔係即時全面開放,就有其安全邏輯 [1][
29]。
咁 Altman 當初鬧 Anthropic,係鬧乜?
最重要嘅限制係:單靠公開資料,無法確認 Altman 當時嘅內部判斷、或者 OpenAI 之後決策有冇改變。較寬鬆嘅解讀係,佢批評嘅未必係「限制存取」本身,而可能係 Anthropic 點樣宣傳或者包裝 Mythos 的限制開放。India Today 引述嘅「fear-based marketing」講法,就同呢個解讀有關 [11]。
不過,即使接受呢個解讀,OpenAI 最後仍然採取咗相近嘅結果:GPT-5.5-Cyber 先向「critical cyber defenders」開放,而 TechCrunch 報道指申請者需要提交資格同用途資料 [1][
22]。所以外界批評嘅重點,未必係 OpenAI 的安全理由完全站唔住腳,而係它前後訊息是否一致。
Anthropic 同 OpenAI 未必係完全同一套政策
要話兩間公司政策完全一樣,仍然要小心。單靠公開報道,無法確認兩者嘅審批準則、技術限制、監察方式、可用任務範圍是否相同。
但從外部可見嘅核心結構睇,兩者確有相似之處:強大嘅網絡安全 AI 唔會即時向一般用戶全面開放,而係先畀經挑選或經驗證嘅人使用 [1][
6][
22]。
OpenAI 的不同之處,在於它將呢個模式放入 TAC 計劃之中,用制度化語言解釋。OpenAI 表示 TAC 正擴展至經驗證個人防守者同重要軟件防守團隊,而 GPT-5.5-Cyber 亦被描述為先向可信任網絡防守者推出 [22][
28]。所以,比起話兩者「完全一樣」,更準確係:公開資料顯示,兩間公司都走向咗「先驗證用戶、再開放強力網絡 AI」呢種模式 [
1][
6]。
結論:安全理由清楚,但訊息上難免尷尬
只睇公開資料,OpenAI 限制開放 GPT-5.5-Cyber 最直接嘅理由係網絡安全 AI 的雙重用途風險。OpenAI 指出,強大網絡能力可以加快漏洞發現同修補,但亦會帶來濫用風險;因此以 TAC 將存取權先交畀經驗證防守者 [28][
29]。
但 Altman 點解先批評 Anthropic 的限制開放,之後 OpenAI 又用相近方式推出 GPT-5.5-Cyber?呢個人層面同內部決策層面嘅原因,公開資料並不足以定論。可以確定嘅係:OpenAI 曾批評 Anthropic 對 Mythos 設限,其後仍然限制 GPT-5.5-Cyber 的早期存取,並以「防守者優先」同「trusted access」作為主要理據 [1][
22][
30]。
所以,將今次事件簡化成一句「偽善」未必足夠。從政策角度睇,限制開放可以係面對高風險網絡 AI 時嘅現實安全措施;但從溝通角度睇,OpenAI 最後行咗一條同自己早前批評對手相當接近嘅路,爭議自然唔易散。




