談 AI 風險時,討論常被 AGI(通用人工智慧)、ASI(超級人工智慧)或科幻電影式的「機器反叛」牽著走。但「可演化 AI」(evolvable AI,eAI)提出的是另一條風險路徑:AI 不一定要有意識、邪惡意圖或超越人類的智能;只要它能複製、產生變異,並在某種環境中被選擇與保留,就可能出現難以預測的演化壓力[1][
4]。
先釐清:eAI 不是新品牌,也不是 AGI 的別名
一篇由 PubMed 收錄的 PNAS 觀點文章,將 eAI 定義為一類 AI 系統:其組件、學習規則與部署條件本身,都可以經歷達爾文式演化[1]。換句話說,重點不只是「模型會更新」,而是 AI 生態中的不同版本、規則或部署方式,可能因為更適應環境而被留下、擴散,或被淘汰[
1]。
因此,eAI 不是某家公司推出的單一產品,也不是 AGI/ASI 的換名。它更像是一個風險分析框架:當 AI 不再只是被訓練好、被動等待人類使用的工具,而逐漸接近「可複製、可變異、可被選擇」的系統,就需要用演化生物學的眼光來理解它[1][
4]。
與 AGI/ASI 差在哪:一個問「有多聰明」,一個問「能不能演化」
AGI/ASI 討論通常聚焦 AI 的能力上限:它是否足夠通用?是否會超越人類?eAI 問的則是另一件事:AI 系統是否具備演化所需的條件。
相關報導也以「evolving AI may arrive before AGI」概括這個角度,也就是可演化 AI 可能早於 AGI 成為治理難題[9]。這個差別很關鍵:一個尚未達到超級智能的 AI,如果能大量複製、產生差異、在不同環境中競爭並被保留,仍可能出現難以預測的行為;相反地,一個能力很強、但被嚴格限制在固定環境內的模型,未必就符合 eAI 的風險框架[
1][
4]。
演化不需要 DNA,需要的是複製、變異與選擇
澳洲新南威爾斯大學(UNSW)對相關研究的介紹指出,演化不需要 DNA、細胞,甚至不需要生物生命;它需要的是可複製的資訊,以及會影響複製成功率的變異[4]。把這套條件放到 AI 上,判斷 eAI 風險時至少要看四件事:
- 是否有可複製的資訊或配置。 AI 系統的組件、規則或部署設定若能被保留、複製、重新使用,就提供了演化的基本材料[
1][
4]。
- 不同複本之間是否存在變異。 每次更新、組合或部署若產生差異,這些差異就可能成為被選擇的素材[
4]。
- 變異是否影響保留或擴散機會。 當某些變體更容易被採用、保留或再次部署,選擇壓力就開始出現[
4]。
- 演化循環是否超出最終輸出。 PNAS 文章特別把組件、學習規則與部署條件納入 eAI 定義,代表治理不能只看模型最後回答了什麼[
1]。
這也說明了為何 eAI 不一定需要「惡意」。自然選擇本身沒有意圖;只要複製、變異與選擇條件同時存在,演化就可能在無人刻意設計的情況下發生[4]。
為什麼現在特別值得注意
PNAS 文章認為,生成式 AI、代理式 AI(agentic AI)與具身 AI(embodied AI)的既有發展趨勢,可能使 eAI 逐步出現;作者也指出,這種可能性在 AI 安全與存在風險討論中被低估[1]。
其中,代理式 AI 是關鍵一環。它不只是產生文字,而是越來越常被放進互動環境中,負責觀察、推理、行動與調整策略。一篇關於「自我演化代理」的 arXiv 綜述指出,大型語言模型雖然能力很強,但本質上仍相對靜態,難以自行調整內部參數來適應新任務、變動的知識領域或動態互動情境;同一篇綜述也指出,當 LLM 被部署到開放、互動環境時,研究界正在探索能即時推理、行動與演化的代理系統[2]。
也就是說,eAI 不應被理解成「AI 物種已經在網路上失控」。更準確的說法是:如果 AI 代理越來越能自我適應、與環境互動,甚至改變自身策略或環境,治理框架就不能只盯著單一模型的輸出[1][
2]。
真正的風險:從單一模型變成代理生態
傳統 AI 安全常問:一個模型會不會幻覺?會不會產生危險輸出?有沒有遵循人類指令?eAI 迫使我們換一組問題:如果有大量 AI 代理、模型組件或部署變體在不同平台與環境中運作,哪些變體會被保留?哪些會被淘汰?環境會獎勵安全、誠實與可控的行為,還是獎勵更擅長擴散與適應的行為?[1][
4]
PNAS 文章將三個問題列為核心:AI 在什麼技術與生態條件下會變得可演化、可能出現哪些行為,以及應該如何治理這類系統[1]。一些研究機構與科學傳播稿件會用「AI species」或「像生物一樣演化的 AI 物種」來形容這種可能性;但這應視為風險框架與比喻,而不是已經證明成熟 AI 物種存在[
5][
10]。
最值得警惕的是,演化選擇的不是「最符合人類價值」的系統,而是在特定環境下更容易被複製、保留或擴散的變體[4]。如果開放環境的選擇壓力設計不當,最成功的 AI 代理未必等於最安全的 AI 代理[
1][
9]。
目前證據有多強?
現有資料足以支持一個謹慎結論:eAI 已經是正式的學術風險議題。PNAS 文章明確提出 eAI 定義,並將它放入 AI 安全與存在風險框架中討論[1]。關於自我演化代理的綜述也顯示,研究界正在探索可在開放互動環境中適應、行動與演化的代理系統[
2]。
但這不等於 eAI 災難已經發生。按現有來源的語氣,eAI 更適合被視為前瞻性風險分析、研究議程與治理提醒,而不是已被證實的大規模失控事件[1][
2]。把它說成科幻式「AI 已經有意識並開始反叛」,反而會模糊真正值得研究的問題:AI 代理生態是否會形成可演化、難預測、難治理的選擇循環[
1][
4]。
接下來該觀察哪些信號
判斷 eAI 風險是否升高,關鍵不是問 AI 有沒有「人格」,而是看系統是否越來越接近演化條件:
- AI 代理是否能產生可被保留、複製或再次部署的變體?[
1][
4]
- 變體之間的差異,是否會影響它們被使用、擴散或保留的機會?[
4]
- AI 代理是否被放入開放、互動環境,並能即時推理、行動與演化?[
2]
- 治理措施是否覆蓋模型組件、學習規則與部署條件,而不只是審查最終輸出?[
1]
底線
eAI 最重要的提醒是:AI 風險未必一定要等到「有意識」或「超級智能」才出現。當 AI 系統開始具備複製、變異、選擇與保留的條件,人類面對的就可能不再只是單一工具,而是一個需要被設計、監測與治理的人工演化生態[1][
4]。




