如果 GPT-5.5 Spud 最後成為正式模型,最值得先查的不是傳聞能力,而是有沒有可驗證、直接對應該模型的安全文件。按今次可查來源,最穩陣結論是:公開證據仍然不足。OpenAI 有一般安全、對齊和 red-teaming 做法,GPT-5 本身亦有 system card;但這些資料不能自動證明 Spud 在公布前已有公開安全評估。[4][
29][
49]
核查結論
Verdict:公開證據不足。
目前可以支持的說法是:OpenAI 作為公司公開過安全與對齊方法,包括 iterative deployment、從真實使用理解威脅,以及部署後監測等做法。[4] OpenAI 亦公開過外部與自動化 red teaming 的方向,並設有 Red Teaming Network,定位為由可信及有經驗專家協助風險評估與緩解的社群。[
45][
51]
但這只能證明 OpenAI 有一般安全流程,不能直接證明 GPT-5.5 Spud 這個特定模型已經有公開、可核查、模型對應的安全評估。要成立後者,證據需要直接命名 Spud,或由 OpenAI 明確說明 Spud 被某份已發布安全文件覆蓋。
甚麼才算有力的安全評估證據?
核查一個新模型公布前是否已有安全評估,最有力的材料通常包括:
- 官方 system card,或 OpenAI Deployment Safety Hub 上直接列出的模型條目;該 Hub 本身就是集中發布 system cards 和相關更新的地方。[
28]
- 直接命名該模型的 deployment-safety、Preparedness 或風險評估文件。
- 直接命名該模型版本的外部 red-team report,並交代測試方法、範圍、失敗案例與限制。
- OpenAI 官方公告清楚說明 GPT-5.5 Spud 與某份 GPT-5 系列安全文件之間的覆蓋關係。
相反,YouTube 解讀、Reddit 或 Facebook 討論、預測市場問題、非官方 leak 文章,最多只能當線索;它們本身不是安全評估已公開的證明。[10][
11][
12][
17][
37]
可以確認:OpenAI 有一般安全與紅隊流程
OpenAI 的安全與對齊頁面提到 iterative deployment、從真實世界使用理解威脅,以及部署後持續監測等做法。[4] OpenAI 亦有外部 red teaming 文件;該文件指出 red teamers 有時可能接觸 pre-deployment models 或 snapshots,但同時提醒,未經 post-training 的 snapshots 通常不能代表最終 production safety profile。[
39]
這點很關鍵:即使有早期測試、內部代號或 pre-deployment snapshot 的傳聞,如果沒有清楚列出模型版本、測試範圍和部署狀態,也不能直接等同於正式發布模型的安全結論。[39]
可以確認:GPT-5 有安全文件,但不等於 Spud 有
GPT-5 的公開安全資料較清楚。OpenAI 的 GPT-5 System Card 頁面寫明,GPT-5 models feature safe-completions,用於防止 disallowed content。[29] OpenAI Deployment Safety Hub 的 GPT-5 頁面亦列出 gpt-5-thinking、gpt-5-main 等相關評估與 deployment-safety 資料。[
49]
arXiv 版 GPT-5 System Card 摘要亦提到,Microsoft AI Red Team 認為 gpt-5-thinking 在 OpenAI 模型中展現出其中一個最強的 AI safety profile。[24]
問題是:以上文件明確對象是 GPT-5、gpt-5-thinking、gpt-5-main 或 GPT-5 系列中列出的模型;今次來源未見它們直接命名 GPT-5.5 Spud,也未見 OpenAI 把 Spud 映射到這些文件。[24][
29][
49] 因此,不應把 GPT-5 的 system card 自動當成 Spud 的安全證據。
Spud 相關材料主要是線索,不是安全文件
今次來源中,Spud 主要出現在幾類非官方或二手材料:YouTube 影片以 GPT-5.5 Spud explained 或 leaked 為題;Reddit、Facebook 等平台有用戶討論;Manifold 有關於 OpenAI 是否會公布大於 5.4 的 frontier model 的預測市場問題;亦有多篇 blog 或 news-style 文章談 release window、pretraining、live testing、capability speculation,或聲稱進入 final safety review。[10][
11][
12][
13][
15][
16][
17][
27][
31][
32][
34][
37]
這些材料可以用來追蹤市場傳聞,但不足以回答有沒有正式安全評估。即使有頁面標題聲稱 GPT-5.5 Spud released,或聲稱進入 final safety review,只要沒有公開測試方法、模型版本、風險分類、紅隊結果或官方安全結論,就仍然不是可核查的 Spud-specific safety artifact。[14][
27][
34]
GPT-5 與 gpt-oss 測試也不能直接套用到 Spud
另一些來源確實涉及 OpenAI 模型安全測試,但測試對象不是 GPT-5.5 Spud。Promptfoo 和 SPLX 的頁面討論 GPT-5 red-teaming 或 security testing,對象是 GPT-5。[2][
3] Kaggle 的 OpenAI gpt-oss-20b Red-Teaming Challenge,對象則是 gpt-oss-20b;相關總結也圍繞 gpt-oss safety evaluation。[
7][
52]
這些資料有助理解 AI red teaming 怎樣做,但若要證明 Spud 公布前已有安全評估,測試文件需要直接命名 GPT-5.5 Spud,或有官方文件清楚說明兩者的關係。
證據表:可以確認甚麼?
| 核查問題 | 公開資料狀態 | 判斷 |
|---|---|---|
| OpenAI 有沒有一般 safety/alignment/red-teaming 流程? | OpenAI 有公開安全與對齊說明、外部 red teaming 材料,以及 Red Teaming Network。[ | 有證據支持 |
| GPT-5 有沒有 system card 或 deployment-safety 文件? | OpenAI 有 GPT-5 System Card 與 Deployment Safety Hub 頁面。[ | 有證據支持 |
| GPT-5.5 Spud 公布前有沒有官方 system card? | 今次來源未見 OpenAI 官方 Spud system card;Spud 相關材料多屬影片、社交帖、預測市場或非官方文章。[ | 未能確認 |
| GPT-5 的安全文件可否直接證明 Spud 安全? | GPT-5 文件的明確對象是 GPT-5、gpt-5-thinking 等;未見官方把它直接延伸到 Spud。[ | 不應直接等同 |
| 有沒有第三方 Spud-specific red-team report? | 今次來源有 GPT-5 或 gpt-oss 測試,但未見直接命名 Spud 的可核查紅隊報告。[ | 未能確認 |
甚麼資料會改變結論?
如果之後出現以下任何一類材料,判斷就應該更新:
- OpenAI 官方 GPT-5.5 Spud System Card。
- OpenAI Deployment Safety Hub 新增直接命名 GPT-5.5 Spud 的條目。[
28]
- 官方 deployment-safety、Preparedness 或風險評估文件,列明評估範圍、風險分類與限制。
- 外部 red-team report,清楚列明模型版本、測試方法、測試範圍、失敗案例與限制。
- OpenAI 官方公告,明確說明 GPT-5.5 Spud 與某份已發布 GPT-5 系列安全文件的覆蓋關係。
在這些資料出現之前,將 OpenAI 一般有紅隊流程寫成 Spud 已通過紅隊測試,會是過度推論。較準確的寫法是:OpenAI 有公開的一般安全、對齊與 red-teaming 流程;GPT-5 本身亦有 system card 與 deployment-safety 資料;但就 GPT-5.5 Spud 而言,今次可查公開資料未能證明公布前已有直接對應該模型的安全評估、紅隊測試或對齊證據。
換言之,結論是 insufficient public evidence。這不排除 OpenAI 內部做過未公開評估;但未公開的內部工作,不能當成可引用的公開證據。




