エージェントAI(agentic AI)は、データセンターで古くからある問いを再び前面に押し出している。GPUなどのアクセラレーターの周囲に、どれだけのCPUが必要になるのか、という問いだ。
背景にあるのは、AI推論が単発の計算ではなく、複数の判断・検索・実行・検証を重ねるワークフローになっていくという見方だ。AMDは、エージェント型の推論ではロジック、スケジューリング、データ準備、メモリとI/O、制御フロー、GPU管理といった作業が増え、CPUの重要性が高まると説明している [7]。
ただし、これは「GPUが不要になる」という話ではない。AIワークロードではGPUが依然として中心的なプロセッサーであり、並列処理性能と成熟したソフトウェアエコシステムを背景に、NvidiaはAIアクセラレーター分野で圧倒的な地位を保っている [1]。ポイントは、GPU中心のAIインフラが、より多くのCPU、より強いCPU、より統合されたCPU設計を必要とするかどうかだ。
まず押さえるべき前提:2030年の市場規模はまだ割れている
2030年のサーバーCPU市場については、強気の見方と慎重な見方が併存している。
AMDのリサ・スーCEOは、サーバーCPUの獲得可能市場(TAM)が年率35%超で成長し、2030年に1,200億ドルを超えるとの見通しを示した。これは、同社が以前に示していた年率18%成長の見方から大きく引き上げられたものだ [6]。
一方、TradingKeyが伝えたUBS予測では、エージェントAIによって計算の一部がCPU側へ移るとの前提で、2030年のサーバーCPU市場を1,700億ドルと見込んでいる [4]。かなり強いシナリオだ。
これに対し、別の2025年の市場見通しでは、データセンター向けプロセッサー全体が2030年に3,720億ドルへ拡大する一方、サーバーCPU市場は356億ドルにとどまると予測している [13]。市場定義や前提が異なる可能性があるため、以下のランキングは「エージェントAIがサーバーCPU需要を大きく押し上げるなら」という条件付きで読むべきだ。
根拠ベースのランキング
| 順位 | 企業・グループ | 主な追い風 | 注意点 |
|---|---|---|---|
| 1 | AMD | サーバーCPUそのものの売上拡大を最も直接的に取り込める。AMDは2030年のサーバーCPU TAMを1,200億ドル超と見ており、エージェントAIがAIクラスター内のCPU需要を高めると説明している [ | 追加需要の一部は、カスタムArm CPUやNvidia中心の統合AIシステムに流れる可能性がある [ |
| 2 | Arm | ハイパースケーラーやAIインフラ企業がArmベースCPUを広げる場合、アーキテクチャ採用の広がりから恩恵を受ける [ | UBSなどの強気予測はあくまで予測であり、確定した市場結果ではない [ |
| 3 | Nvidia | CPU需要がGPU中心のAIシステムと一体で増えるなら、プラットフォーム全体で価値を取り込める。NvidiaはVera CPUの単体ラック販売も始めた [ | 最大の強みは従来型サーバーCPUのシェアではなく、AIアクセラレーターとソフトウェアを含むプラットフォームにある [ |
| 4 | Intel | CPU需給が引き締まり、x86サーバー市場全体に再評価が起これば、既存大手として反発余地がある [ | AMDの勢い、Arm系設計の台頭、AIデータセンターでの電力効率・性能競争が重い課題になる [ |
| 5 | Amazon、Googleなどのハイパースケーラー | GravitonやAxionのような自社CPUで、AIインフラのコストと制御性を最適化できる可能性がある [ | これは半導体の外販売上ではなく、クラウド事業のコスト低下やマージン改善として表れやすい [ |
1. AMD:最もわかりやすい「サーバーCPU売上」の受益者
AMDを1位に置く理由は単純だ。サーバーCPU市場が大きくなるなら、AMDはその製品カテゴリを直接売っている。
同社のリサ・スーCEOは、サーバーCPUのTAMが2030年に1,200億ドル超へ成長すると述べた [6]。さらにAMDは、エージェントAIでは推論が複数ステップ化し、GPUを効率よく動かすためのロジックや管理処理が増えるため、CPUへの需要が高まると主張している [
7]。
短期のデータセンター事業にも勢いは見える。AMDのサーバー向けチップを含むデータセンター部門売上は第1四半期に57%増の58億ドルとなり、LSEGが集計したアナリスト予想の56.4億ドルを上回った [6]。TradingKeyは、AMDのデータセンター売上がIntelを上回ったとも報じている [
4]。
AMDの強みはEPYC CPUだけではない。AMDはEPYCサーバーCPU、Instinct GPU、Pensandoのネットワーク技術、ROCmソフトウェアスタックを組み合わせ、バランスの取れたAIインフラを訴求している [7]。もっとも、サーバーCPU需要が増えても、そのすべてが汎用のx86 CPUに向かうとは限らない。ArmベースのカスタムCPUや、Nvidiaが主導する統合型AIシステムが一定の需要を吸収する可能性は残る [
2][
4][
8]。
2. Arm:市場構造が動くなら最大級の変数
Armは、単独のCPU製品というより、サーバーCPUの設計思想そのものが広がる場合の大きな受益者だ。
TrendForceによると、Armは2026年3月25日にArm AGI CPUと、空冷・液冷の2種類のCPUラック構成を発表した。これは、AIデータセンターでCPUの重要性が増している構造変化の一部として位置づけられている [2]。
最も強気な見方は、TradingKeyが紹介したUBS予測だ。UBSは、2030年にArmのサーバーCPUユニットシェアが40〜45%、売上シェアが50〜55%に達し、ヘッドノードCPU市場では75%超を獲得する可能性があると見ている [4]。ヘッドノードCPUとは、AIクラスター内でGPUなどのアクセラレーター群を制御・管理する中核的なCPU領域と考えるとわかりやすい。
もちろん、これは予測であって既成事実ではない。それでもArmを上位に置く理由は、クラウド大手やAIインフラ企業がArmベースの設計を採用すれば、最終製品を作るのがクラウド事業者や別の半導体企業であっても、Armアーキテクチャの存在感が高まるからだ [4][
8]。
3. Nvidia:CPU単体ではなく、AIシステム全体で取り込む
Nvidiaは、従来型のサーバーCPU銘柄としてはAMDほど純粋ではない。しかし、AIインフラ全体で見れば、最も強力なプラットフォーム企業の一つだ。
AIワークロードではGPUが依然として中心であり、NvidiaはAIアクセラレーター市場で圧倒的な地位を持つ [1]。エージェントAIによってCPUの数や重要性が増すとしても、それがGPU中心のAIラックやシステムに組み込まれて販売されるなら、NvidiaはCPU単体シェア以上の価値を取り込める。
その方向性はすでに見え始めている。TrendForceは、Nvidiaが2026年3月16日のGTCで、単体販売向けのVera CPU Rackを発表したと報じた [2]。またTrendForceの関連分析は、NvidiaのVera CPUとArmのCPU市場への動きを、エージェントAIがAIデータセンターのCPU:GPU比率を変えつつある兆候として捉えている [
5]。
AMDが「サーバーCPU市場の拡大」を直接取りに行く企業だとすれば、Nvidiaは「GPU、CPU、ネットワーク、メモリ、ソフトウェアを一体化したAIインフラ」の中でCPU需要を吸収する企業だ [1][
2]。
4. Intel:反発余地はあるが、条件は厳しい
Intelは外せない。SemiAnalysisは、GPUとネットワークがデータセンター投資の中心になった局面でも、IntelがサーバーCPUの主要サプライヤーだったと説明している。ただし、ハイパースケーラーやネオクラウドがAIアクセラレーターとデータセンターインフラに投資を集中させたため、サーバーCPU売上は比較的停滞した [8]。
CPU需要が再び強まるなら、Intelにも追い風はある。TrendForceは、2026年第1四半期末にCPU供給の逼迫と、IntelおよびAMDの価格引き上げが市場の焦点になったと報じている [2]。SemiAnalysisも、Intelの将来世代であるDiamond RapidsやCoral Rapidsを、2026年のデータセンターCPUロードマップの一部として取り上げている [
8]。
ただし、Intelの投資ストーリーはAMDやArmより条件付きだ。AMDには明確なTAM引き上げの物語があり、ArmにはカスタムCPU採用拡大の可能性があり、NvidiaにはAIアクセラレーターの支配的プラットフォームがある [1][
4][
6]。Intelの場合、今後のXeon世代が性能、電力効率、AIシステム全体での存在感をどこまで取り戻せるかがカギになる [
8]。
5. ハイパースケーラー:外販売上より、内部の経済性で勝つ
AmazonやGoogleのようなハイパースケーラー、つまり巨大クラウド事業者も重要な受益者になり得る。ただし、半導体を外部に売って収益を伸ばすというより、自社インフラの効率を上げる形だ。
SemiAnalysisは、ハイパースケーラーが自社クラウド向けにArmベースのデータセンターCPUを開発してきたと指摘している [9]。同じ分析では、Amazon GravitonやGoogle AxionのようなカスタムCPUが、2026年のデータセンターCPU市場を形づくる要素として取り上げられている [
8][
9]。
エージェントAIによってCPU負荷が増すなら、こうした自社CPUはクラウド事業者にとってコスト、電力効率、ワークロード制御の面で意味を持つ。言い換えれば、ハイパースケーラーはCPUの単なる買い手ではなく、自社データセンター内で従来のサーバーCPUベンダーの一部需要を置き換える存在になり得る [8][
9]。
TSMCはどう見るべきか
この材料だけでTSMCを上位に入れるのは慎重であるべきだ。今回の根拠は、CPU設計企業、GPUプラットフォーム企業、クラウド事業者の動きに集中している。TSMCが半導体製造の重要企業であることと、エージェントAIによるサーバーCPU市場拡大の直接的な受益度を、このソース群だけで同じ強さで論じることはできない。
したがって、この問いに限れば、より根拠が明確なのはAMD、Arm、Nvidia、Intel、そしてAmazonやGoogleなどのカスタムCPUを持つハイパースケーラーだ。
結論:何を取りに行くかで「勝者」は変わる
エージェントAIによるサーバーCPUブームが本格化するなら、直接的なCPU売上ではAMDが最もわかりやすい。AMDはサーバーCPUのTAMが2030年に1,200億ドル超へ拡大すると見ている [6]。
一方、アーキテクチャの広がりを見るならArmが大きな変数になる。クラウド大手やAIインフラ企業がArmベースCPUを採用するほど、Armの存在感は高まる [4][
8]。GPU中心のAIシステム全体で価値を取り込むという意味では、Nvidiaが引き続き中心的なプレーヤーだ [
1][
2]。Intelは反発候補だが、ロードマップの実行力がより厳しく問われる [
2][
8]。
要するに、見るべき軸は一つではない。サーバーCPUの直接収益ならAMD。アーキテクチャ露出ならArm。フルスタックAIインフラならNvidia。既存x86市場の反発ならIntel。そしてインフラコストの最適化なら、AmazonやGoogleなどのハイパースケーラーに注目する構図になる [1][
4][
6][
8][
9]。






