ERNIE 5.1をめぐる最大のポイントは、単なる新モデル発表ではなく、AI開発の「経済性」を前面に出していることだ。Baidu(百度)は、ERNIE 5.1がERNIE 5.0の事前学習基盤を継承し、総パラメータを約3分の1、アクティブパラメータを約2分の1に圧縮しながら、同等モデルの事前学習コストの約6%で、同規模帯における先導的な基礎性能を達成したと説明している[7]。
この主張が注目される理由は明快だ。AIモデルの競争が、より大きなモデルを一から訓練する体力勝負だけでなく、既存の強い基盤をどう再利用し、どう軽くし、どう事後学習で伸ばすかという設計競争に移りつつあることを示しているからだ。
重要なのは「大きさ」よりコスト性能
Baiduの発表は、ERNIE 5.1をさらに巨大化したモデルとして打ち出すものではない。むしろ焦点は、圧縮後にどれだけ性能を維持できるかにある。Baiduは、ERNIE 5.1が同規模帯で先導的な基礎性能を示し、同等モデルと比べて事前学習コストを大きく抑えたと主張している[7]。
さらにBaiduのERNIEブログでは、ERNIE 5.1がArena Searchで中国勢トップとなり、分離型・完全非同期の強化学習と、拡張されたエージェント向け事後学習によって、エージェント、推論、創作能力を包括的に引き上げたと説明されている[12]。
世界的なAI競争という文脈で見れば、ここでの示唆は大きい。最先端に近い性能を追うために必要なのが、常に新規の巨大事前学習だけではないとすれば、競争軸はパラメータ数そのものから、学習設計、再利用、事後学習の効率へと広がる。ERNIE 5.1は、Baiduがその方向性をかなり明確に打ち出した事例だ。
「6%」は何を意味し、何を意味しないのか
この数字は慎重に読む必要がある。Baiduが主張しているのは、同等モデルと比べた「事前学習コスト」が約6%という点だ[7]。公開資料から読み取れる範囲では、これは総開発費、運用費、推論コスト、API価格、ハードウェア効率までを含む包括的な監査済み指標ではない。
また、「同等モデル」とは何を指すのかも重要だ。比較対象となるモデル、会計方法、使用ハードウェア、学習範囲、データ構成が明示されていない限り、6%という数字を業界標準の客観指標として扱うのは早い。とはいえ、主張が無意味ということではない。現時点では、Baiduが提示したコスト性能の主張として受け止めるのが適切だ。
Baiduはどうコストを下げたと説明しているのか
Baiduの説明を整理すると、技術的な柱は大きく4つある。
-
ERNIE 5.0の基盤を再利用する。
Baiduは、ERNIE 5.1がERNIE 5.0の事前学習基盤を継承していると説明している。つまり、完全に白紙から別の基盤モデルを訓練したというより、既存の強い土台を活用した構図だ。




