AI 風險討論經常被「AGI 會唔會覺醒」牽住走,但「可演化 AI」(evolvable AI, eAI)提出的是另一個問題:如果 AI 系統可以複製、產生變異、再被環境選擇,危險可能來自生存、擴散同適應壓力,而唔一定來自邪惡意圖、意識或超級智能[1][
4]。
eAI 係咩:AI 系統本身變成可被選擇的對象
PNAS 一篇由 PubMed 收錄的觀點文章,將 eAI 定義為一類 AI 系統:其組件、學習規則同部署條件本身,都可以經歷達爾文式演化[1]。這個定義的重點,不只是「模型會更新」,而是 AI 生態入面的不同版本、規則或部署方式,可能會因為表現、擴散能力或環境適應而被保留或淘汰[
1]。
所以,eAI 不是一個單一產品名,也不是 AGI/ASI 的同義詞。它是一個風險框架:當 AI 不再只是一次性訓練好、被人類被動使用的工具,而開始接近「可複製、可變異、可被選擇」的系統,就要用演化生物學的角度去理解它[1][
4]。



