OpenAIは一般公開ではなく、Trusted Access for Cyberで審査・承認された防衛担当者や政府利用者に広げる方針と報じられている[6][9]。 AnthropicはClaude Mythos PreviewをProject Glasswingの招待制に絞り、欧州委員会は同社のサイバーセキュリティモデルはEUでまだ利用できないと述べた[1][5]。

Create a landscape editorial hero image for this Studio Global article: What is the difference between OpenAI’s and Anthropic’s approach to giving the EU access to advanced AI models for cybersecurity?. Article summary: OpenAI’s approach is to broaden access for trusted government and cybersecurity users, including the EU, so defenders can use advanced models against hackers. Anthropic’s approach is more restrictive: it has limited acce. Topic tags: general, government, general web, user generated. Reference image context from search candidates: Reference image 1: visual subject "Learn the most rigorous comparison between Anthropic and OpenAI, the two AI giants, and choose the best for your enterprise applications. Artificial intelligence is among the most" source context "Anthropic vs. OpenAI: How to Pick the Best AI Platforms in 2026" Reference image 2: visual subject "It was only a we
サイバー防衛向けの高性能AIを誰に使わせるべきか。議論は「アクセス重視のOpenAI」対「安全重視のAnthropic」と単純化されがちだが、実際はもう少し複雑だ。どちらの企業も、強力なサイバー能力を持つAIを一般公開する姿勢ではない。
違いは、OpenAIが審査済みの防衛側に利用者の輪を広げようとしているのに対し、AnthropicはClaude Mythos Previewをより小さな招待制の輪に留めている点にある。EUにとって重要なのは、欧州委員会がAnthropicのサイバーセキュリティモデルについて「EUではまだ利用可能ではない」と明言している一方、OpenAIについては一般公開ではなく、政府・サイバー防衛関係者向けの審査制アクセスが報じられていることだ[5][
6][
9]。
| 観点 | OpenAI | Anthropic |
|---|---|---|
| 基本姿勢 | 管理しながら拡大。企業や政府がサイバー防衛を強化できるよう、高度なAIモデルへのアクセスを広げていると報じられている[ | 管理しながら囲い込む。Claude Mythos Previewは、Anthropic自身の評価で公開アクセスを意図的に制限すべきサイバー能力を持つとされた[ |
Studio Global AI
Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.
OpenAIは一般公開ではなく、Trusted Access for Cyberで審査・承認された防衛担当者や政府利用者に広げる方針と報じられている[6][9]。
OpenAIは一般公開ではなく、Trusted Access for Cyberで審査・承認された防衛担当者や政府利用者に広げる方針と報じられている[6][9]。 AnthropicはClaude Mythos PreviewをProject Glasswingの招待制に絞り、欧州委員会は同社のサイバーセキュリティモデルはEUでまだ利用できないと述べた[1][5]。
欧州議会では、英国当局がMythosにアクセスし技術評価を出した一方、欧州委員会側にはアクセスと専門人材が不足しているとの懸念が示された[2]。
別の角度からの引用や追加の引用については、「ヒズボラの光ファイバー式FPVドローンはアイアン・ドームを破ったのか」に進みます。
関連ページを開くこの回答を「Alphabet初の円建て社債計画、AI投資が変えるビッグテックの資金調達」と照合してください。
関連ページを開くOn 14 April 2026, Anthropic disclosed Claude Mythos Preview — a frontier model with cybersecurity capabilities sufficient, in the developer’s own assessment, to warrant deliberate restriction of public access. Project Glasswing grants usage to a closed grou...
However, recent revelations about Anthropic’s advanced AI model called ‘Mythos’ raise serious concerns as to whether the EU has the necessary technical capacity to enforce the rules it has adopted. While the UK authorities gained access to the model and qui...
US-based artificial intelligence company Anthropic is currently in discussion with the European Commission on its different models, including its cyber security ones, which are not yet available in the EU, the Commission said on Friday. ... US-bas...
| 誰が使えるか | OpenAIのTrusted Access for Cyberプログラムで審査・承認された防衛担当者。脆弱性の発見・修正やマルウェア分析に使えると報じられている[ | Project Glasswingを通じ、重要インフラ関連パートナーの閉じたグループに招待制で提供。セルフサービス型ではない[ |
| EUでの状況 | 報道上は、政府やサイバー防衛関係者向けの審査制ルートであり、一般公開ではない[ | 欧州委員会は、AnthropicのサイバーセキュリティモデルはEUではまだ利用可能ではないと説明した[ |
| 安全性への考え方 | 審査済みの防衛側に強い道具を持たせることで、防御力を高める発想[ | アクセスを強く管理することが、グローバルなサイバー安全の向上につながるという立場[ |
OpenAIの方針は、誰でも自由に使える「全面公開」ではない。サイバー向けモデルを使えるのは、Trusted Access for Cyberプログラムを通じて審査・承認された利用者だ[6]。
ただし、その制限の内側では、OpenAIはより拡張的な立場を取っている。報道によると、同社は企業や政府がサイバー防衛を強化できるよう、より高度なAIモデルへのアクセスを広げている[9]。Politicoは、アクセスを得た利用者が脆弱性の発見・修正やマルウェア分析にモデルを使えると報じた一方、OpenAIは未承認の利用者がサイバー攻撃に悪用するのを防ぐための保護策を設けているとしている[
6]。
Euronewsも、OpenAIのサイバー防衛モデルは、正当な防御目的で使う認証済みの専門家に対して、サイバーセキュリティ関連の質問への制限を一部緩めていると報じている[7]。
要するにOpenAIの賭けは、攻撃側の手口が高度化するなかで、守る側にも高度な道具を渡すべきだというものだ。門は閉じたままだが、入れる相手の範囲は比較的広い。
Anthropicの姿勢はより慎重だ。EUのAI Allianceに掲載された投稿によると、Anthropicは2026年4月14日にClaude Mythos Previewを公表した。このモデルは、同社自身の評価で、公開アクセスを意図的に制限する必要があるほどのサイバーセキュリティ能力を持つフロンティアモデルと説明されている[1]。
利用はProject Glasswingを通じて行われる。同プロジェクトは、重要インフラ関連のパートナーからなる閉じたグループに招待制でアクセスを認める仕組みで、利用者が自分で申し込んで即座に使えるセルフサービス型ではない[1]。
これは、Anthropic以外の誰も使えないという意味ではない。だが、OpenAIが報じられているような「審査済みの政府・防衛関係者へ広げる」方向に比べると、利用者の選別はかなり狭く設計されている。
EUにとっての焦点は、単に便利なAIツールを使えるかどうかではない。EUはAI規制を運用する立場でもあり、強力なサイバーAIのリスクを自ら評価できるのかが問われている。
2026年4月17日、EUの行政執行機関にあたる欧州委員会は、Anthropicと複数のモデルについて協議中であり、その中にはサイバーセキュリティモデルも含まれると説明した。ただし、そのサイバーセキュリティモデルはEUではまだ利用可能ではないとも述べている[5]。
この点は欧州議会でも問題視された。ある議会質問では、英国当局がMythosにアクセスして短期間で技術評価を作成した一方、欧州委員会には同技術へのアクセスも、最先端AIシステムのサイバーリスクを評価する十分な専門家もいないと報じられている、と懸念が示された[2]。
ここで注意すべきなのは、OpenAIがEUに無制限アクセスを認めた、という話ではないことだ。入手できる報道から言えるのは、OpenAIは政府・サイバー防衛利用者向けの審査制アクセスの道筋を示しているのに対し、Anthropicについては、欧州委員会がサイバーセキュリティモデルのEU利用はまだ実現していないと明言していた、という違いである[5][
6][
9]。
欧州のサイバー当局や重要インフラ防衛担当者から見ると、OpenAIのモデルは「承認されれば使える」ルートが比較的見えやすい。アクセスは制限付きだが、審査・承認された防衛担当者や政府利用者を想定しているためだ[6][
9]。
規制当局にとっては、どちらにも難しさがある。審査済みアクセスを広げれば、防衛側が脆弱性の検証、修正、マルウェア分析をより速く進められる可能性があるが、悪用を防ぐ保護策が不可欠になる[6]。逆に、厳格に囲い込めば危険な能力の拡散は抑えやすいが、公的機関が最先端モデルのリスクを評価する際、企業との交渉や外部評価に依存しやすくなる[
1][
2][
5]。
結論はシンプルだ。OpenAIは「制限付きだが、より広い防衛アクセス」へ傾き、Anthropicは「より厳しい招待制管理」へ傾いている。 EUにとって当面の違いは、Anthropicのサイバーセキュリティモデルがまだ域内で利用可能ではないとされた一方で、OpenAIの報道上のアプローチは、一般公開ではなく、より広い審査制アクセスの道筋を作っている点にある[5][
6][
9]。
Those with access to the model will be able to use it to find and patch cyber vulnerabilities and analyze malware. The company claims safeguards are in place to prevent unauthorized users from using the tool to carry out cyberattacks. A spokesperson for Ope...
Chat GPT 5.4 Cyber has fewer restrictions for cybersecurity questions for the verified professionals that will use it. ... OpenAI has launched a new AI model focused on cyber defence, days after the release of rival Anthropic's Claude Mythos sparked concern...
(CNN) — OpenAI is expanding access to its most advanced AI models to help businesses and governments shore up their cyber defenses, a sharp contrast to rival Anthropic, which says controlling access to its models is the best way to boost global cybersecurit...