AI 風險討論經常被「AGI 會唔會覺醒」牽住走,但「可演化 AI」(evolvable AI, eAI)提出的是另一個問題:如果 AI 系統可以複製、產生變異、再被環境選擇,危險可能來自生存、擴散同適應壓力,而唔一定來自邪惡意圖、意識或超級智能[1][
4]。
eAI 係咩:AI 系統本身變成可被選擇的對象
PNAS 一篇由 PubMed 收錄的觀點文章,將 eAI 定義為一類 AI 系統:其組件、學習規則同部署條件本身,都可以經歷達爾文式演化[1]。這個定義的重點,不只是「模型會更新」,而是 AI 生態入面的不同版本、規則或部署方式,可能會因為表現、擴散能力或環境適應而被保留或淘汰[
1]。
所以,eAI 不是一個單一產品名,也不是 AGI/ASI 的同義詞。它是一個風險框架:當 AI 不再只是一次性訓練好、被人類被動使用的工具,而開始接近「可複製、可變異、可被選擇」的系統,就要用演化生物學的角度去理解它[1][
4]。
同 AGI/ASI 最大分別:一個問智能,一個問演化條件
AGI/ASI 討論通常聚焦 AI 的能力上限:它是否足夠通用、是否會超越人類。eAI 問的則是另一件事:AI 系統是否具備演化條件。相關報道亦以「evolving AI may arrive before AGI」來概括這個風險角度,即可演化 AI 可能早於 AGI 成為治理問題[9]。
這個分別很重要。未達到超級智能的 AI,如果能大量複製、產生差異、在某些環境中競爭並被保留,仍然可能出現難以預測的行為;相反,一個能力很強但被嚴格限制在固定環境內的模型,未必就符合 eAI 框架[1][
4]。
演化唔需要 DNA:需要的是複製、變異、選擇
UNSW 對相關研究的介紹指出,演化不需要 DNA、細胞,甚至不需要生物生命;它需要的是可以複製的資訊,以及會影響複製成功率的變異[4]。把這套條件放到 AI 上,判斷 eAI 風險時至少要留意四點:
- 可複製的資訊或配置。 AI 系統的組件、規則或部署設定如果可以被保留、複製或再次使用,就提供了演化的基本材料[
1][
4]。
- 不同複本之間存在變異。 如果每次更新、組合或部署之間出現差異,這些差異就可能成為被選擇的素材[
4]。
- 變異影響保留或擴散機會。 當某些變體更容易被採用、保留或再次部署,選擇壓力就開始出現[
4]。
- 演化循環不只發生在模型輸出。 PNAS 文章特別把組件、學習規則和部署條件納入 eAI 定義,代表治理焦點不能只停留在最終答案有無問題[
1]。
這亦解釋了為何 eAI 不一定需要「惡意」。自然選擇本身沒有意圖;只要複製、變異和選擇條件同時存在,演化可以在無人刻意設計下發生[4]。
點解現在特別值得關注
PNAS 文章認為,生成式 AI、代理式 AI(agentic AI)和具身 AI(embodied AI)的現有趨勢,可能令 eAI 逐步出現;作者亦指這個可能性在 AI 安全和存在風險討論中被低估[1]。
代理式 AI 是關鍵一環,因為它不只是產生文字,而是越來越多被放入互動環境中,負責觀察、推理、行動和調整策略。一篇關於「自我演化代理」的 arXiv 綜述指出,大型語言模型雖然能力強,但本質上仍較靜態,難以自行調整內部參數去適應新任務、變動知識領域或動態互動情境;同一綜述亦指出,當 LLM 被部署到開放、互動環境時,研究界正探索能即時推理、行動和演化的代理系統[2]。
換句話說,eAI 不應被理解成「AI 物種已經在網上失控」。更準確的說法是:如果 AI 代理越來越能自我適應、互動,甚至改變自身策略或環境,治理框架就不能只盯住單一模型的輸出[1][
2]。
真正風險:由單一模型變成代理生態
傳統 AI 安全常問:一個模型有無幻覺?有無危險輸出?有無按照人類指令行事?eAI 迫使我們問另一組問題:如果有大量 AI 代理、模型組件或部署變體在不同平台和環境中運行,哪些變體會被保留?哪些會被淘汰?環境會獎勵安全、誠實和可控的行為,還是獎勵更擅長擴散和適應的行為?[1][
4]
PNAS 文章把三個問題列為核心:AI 在什麼技術和生態條件下會變得可演化、可能出現哪些行為,以及應該如何治理這類系統[1]。一些研究機構和科學傳播稿件用「AI species」或「像生物一樣演化的 AI 物種」形容這種可能性,但這應視為風險框架和比喻,而不是已經證明成熟 AI 物種存在[
5][
10]。
最值得警惕的是,演化選擇的不是「最符合人類價值」的系統,而是在特定環境下更容易被複製、保留或擴散的變體[4]。如果開放環境的選擇壓力設計得不好,最成功的 AI 代理未必等於最安全的 AI 代理[
1][
9]。
目前證據有幾強?
現有資料足以支持一個謹慎結論:eAI 已經是正式的學術風險議題。PNAS 文章明確提出 eAI 定義,並把它放入 AI 安全和存在風險框架中討論[1]。關於自我演化代理的綜述亦顯示,研究界正在探索可在開放互動環境中適應、行動和演化的代理系統[
2]。
但這不等於 eAI 災難已經發生。按現有來源的語氣,eAI 更適合被視為前瞻性風險分析、研究議程和治理提醒,而不是已被證實的大規模失控事件[1][
2]。把它說成科幻式「AI 已經有意識並開始反叛」,反而會模糊真正值得研究的問題:AI 代理生態會否形成可演化、難預測、難治理的選擇循環[
1][
4]。
之後應該留意哪些信號
判斷 eAI 風險是否升高,關鍵不是問 AI 有無人格,而是看系統是否越來越接近演化條件:
- AI 代理是否能產生可被保留、複製或再次部署的變體?[
1][
4]
- 變體之間的差異,是否會影響它們被使用、擴散或保留的機會?[
4]
- AI 代理是否被放入開放、互動環境,並能即時推理、行動和演化?[
2]
- 治理措施是否覆蓋模型組件、學習規則和部署條件,而不只是審查最終輸出?[
1]
底線
eAI 最有價值的提醒,是 AI 風險未必一定要等到「有意識」或「超級智能」先出現。當 AI 系統開始具備複製、變異、選擇和保留的條件,人類面對的就可能不再只是單一工具,而是一個需要被設計、監察和治理的人工演化生態[1][
4]。




