AIリスクの議論は、しばしばAGI(汎用人工知能)やASI(人工超知能)が人間を超えるかどうかに集中します。しかし、可進化AI(evolvable AI、eAI)が投げかける問いは少し違います。AIが複製され、少しずつ変わり、環境によって残るものが選ばれるなら、危険は意識や悪意ではなく、生存・拡散・適応の圧力から生まれ得る、という見方です[1][
4]。
eAIとは何か:AIそのものが選択の対象になる
PNAS(米国科学アカデミー紀要)掲載、PubMed収載の論考は、eAIを、AIシステムの構成要素、学習ルール、配備条件そのものがダーウィン的な進化を受け得るAIとして定義しています[1]。
ここで重要なのは、単にモデルがアップデートされることではありません。AIの複数のバージョン、ルール、ツールの組み合わせ、配備方法が、性能や広がりやすさ、環境への適応度によって残ったり消えたりする点にあります[1]。
つまりeAIは、特定の製品名でも、AGIの言い換えでもありません。AIを一つの道具としてではなく、複製・変異・選択が起こり得るシステムとして見るためのリスク枠組みです[1][
4]。




