OpenAI这次的做法,乍看像是“前脚批评别人,后脚自己照做”。据报道,Sam Altman曾批评Anthropic只向部分用户开放其网络安全模型Mythos;India Today称,他把这种做法称为“fear-based marketing” [1][
11]。但不久后,OpenAI也表示,GPT-5.5-Cyber不会先面向所有人开放,而是会优先提供给“critical cyber defenders”,也就是关键网络防御者 [
22][
30]。
这件事真正值得讨论的,并不只是OpenAI有没有“转向”。更核心的问题是:当一个AI模型能帮助安全团队更快发现漏洞、做渗透测试,甚至分析漏洞利用路径时,它究竟应该先交到谁手里?OpenAI给出的公开逻辑是:网络安全AI有很强的防御价值,但同一套能力也可能被攻击者利用,所以先给经过验证的防御者使用 [28][
29]。
已确认的事实:OpenAI确实选择了“筛选式开放”
争议的起点是Anthropic对Mythos的访问限制。多家报道提到,Anthropic只向部分用户开放Mythos,而Altman曾批评这种做法 [1][
11]。
随后,OpenAI宣布GPT-5.5-Cyber也将以受限方式推出。Business Today和Techloy报道称,Altman于2026年4月30日在X上表示,OpenAI将在接下来几天把GPT-5.5-Cyber开始推送给“critical cyber defenders” [22][
30]。TechCrunch还报道称,OpenAI网站上设有申请流程,申请者需要提交资质信息和计划用途,才能获得访问资格 [
1]。
因此,外界争议的重点不只是“OpenAI限制了访问”,而是这个时间顺序:Altman先批评Anthropic限制Mythos,OpenAI随后却对GPT-5.5-Cyber采用了相近的门槛机制。The Register也把这一点作为报道重点,称OpenAI在批评Anthropic之后,又准备把GPT-5.5-Cyber限制给一批手工挑选的网络防御者使用 [6]。
OpenAI的理由:先给防御者,降低滥用风险
OpenAI使用的关键词是“trusted access”,可以理解为“可信访问”。据Business Today和Techloy报道,Altman在谈到GPT-5.5-Cyber时表示,OpenAI将与整个生态系统和政府合作,探索网络安全领域的可信访问方式 [22][
30]。
这与OpenAI此前推出的Trusted Access for Cyber(TAC)计划相呼应。OpenAI称,TAC的目标是在释放强大网络能力的防御潜力的同时,降低被滥用的风险 [29]。OpenAI还表示,正在把TAC扩大到数千名经过验证的个人防御者,以及数百个负责保护关键软件的团队 [
28]。
换句话说,GPT-5.5-Cyber的受限推出并不是一个孤立动作。它更像是OpenAI已公开阐述的一条路线的延续:越强的网络安全能力,越需要分阶段、优先交给经过验证的防御者 [28][
29]。
为什么网络安全AI格外敏感?
网络安全模型的特殊之处在于,它的很多能力天然具有“双重用途”。TechCrunch报道称,GPT-5.5-Cyber可以执行渗透测试、漏洞识别以及漏洞利用等任务 [1]。Datagrom还称,该工具能够进行恶意软件逆向工程 [
14]。
对安全团队来说,这些能力可能意味着更快找到漏洞、更快补上短板。但如果未经授权的用户或恶意行为者拿到同样的能力,也可能用来提升攻击效率。OpenAI自己也承认,网络安全是一个AI进步既能强化整个生态、也会引入新风险的领域;其推出TAC的理由,正是希望利用AI加速漏洞发现与修复的防御潜力,同时减少滥用风险 [29]。
放在这个背景下,受限开放就不只是商业上的“饥饿营销”或人为制造稀缺,也可以被解释为一种风险控制。尤其当模型能够辅助渗透测试和漏洞利用分析时,OpenAI选择先给经验证的防御者,而不是全面开放,具备明确的安全动机 [1][
29]。
那Altman为什么还要批评Anthropic?
这里需要谨慎:仅凭公开资料,无法确认Altman当时的内部判断,也无法确认OpenAI内部决策是否发生过变化。
一种较宽容的解读是,Altman批评的重点可能不是“限制访问”本身,而是Anthropic围绕Mythos限制开放所做的宣传和定位。India Today报道中提到的“fear-based marketing”说法,比较符合这种理解 [11]。
但即便接受这一解释,OpenAI最终也确实采用了类似的访问限制结构。OpenAI表示会先把GPT-5.5-Cyber提供给“critical cyber defenders”,TechCrunch也报道称,想获得访问的人需要提交资质和使用计划 [1][
22]。所以,外界质疑并不一定是在说OpenAI的安全理由没有道理,而是在追问:既然自己也要这么做,当初批评Anthropic时是否把话说得太满?
两家公司并不一定是完全相同的政策
也不能简单断言Anthropic和OpenAI的政策一模一样。根据目前公开报道,我们无法确认两家公司在审核标准、技术限制、监控方式、允许执行的任务范围等方面完全一致。
但从外部能看到的核心结构看,它们确实相近:强大的网络安全AI没有立即开放给普通用户,而是先给经过筛选或验证的人群使用 [1][
6][
22]。
OpenAI的不同之处在于,它把这套思路放进了TAC这样的项目框架里解释。OpenAI称,TAC正在扩展至经过验证的个人防御者和负责保护关键软件的团队;GPT-5.5-Cyber也被描述为先面向可信网络防御者推出的模型 [22][
28]。因此,更稳妥的说法不是“两家公司政策完全相同”,而是:它们在强网络安全AI的发布方式上,都走向了“验证用户优先”的模式 [
1][
6]。
结论:安全理由说得通,但沟通争议很难消失
就公开资料看,OpenAI限制GPT-5.5-Cyber访问的最直接原因,是网络安全AI的双重用途风险。OpenAI认为,这类能力可以加速漏洞发现与修复,也可能带来滥用风险;因此它通过TAC等机制,把更强的网络能力先交给经过验证的防御者 [28][
29]。
但Altman为什么在批评Anthropic之后,又接受了类似路径?他的个人动机和OpenAI内部决策过程,目前无法从公开资料中确定。能够确认的是:OpenAI曾批评Anthropic对Mythos的受限开放,随后自己也对GPT-5.5-Cyber采用了受限发布,并把理由归结为防御者优先和可信访问 [1][
22][
30]。
所以,这件事不能只用“打脸”两个字概括。政策层面,它可以被视为对高风险网络安全AI进行现实约束的一种安全安排;沟通层面,OpenAI也确实很难回避一个问题:它最终选择的道路,和它此前批评过的做法看起来非常相似。




