可演化 AI(eAI)唔係 AGI 的新名,而係 AI 系統可能具備複製、變異同被選擇的演化條件;PNAS 一篇 2026 年觀點文章將它列為被低估的 AI 安全風險,但現時仍應視為前瞻性警告,唔係已證實的失控事件[1]。 eAI 的重點唔係 AI 有幾聰明,而係系統、代理、工具鏈同部署環境會否形成可被選擇的變體;演化本身亦唔需要 DNA、細胞或生物身體[1][4]。

Create a landscape editorial hero image for this Studio Global article: 可演化 AI(eAI)係咩?未到 AGI 都可能出現嘅新型 AI 風險. Article summary: 可演化 AI(eAI)係指組件、學習規則同部署條件可經歷達爾文式演化嘅 AI;PNAS 觀點文章警告,它可能由生成式、代理式同具身 AI 趨勢中出現,但目前仍屬前瞻性風險,唔係已證實災難[1]。. Topic tags: ai, ai safety, agents, agi, llm. Reference image context from search candidates: Reference image 1: visual subject "October 28, 2025 - 目前的AI研究主要基於模仿人類智力,尤其大型人工神經網路(ANN)模擬生物神經網路。但模擬簡化程度與真正神經網路相比仍相差甚遠。部分專家認為,僅靠ANN可能無法達到AGI或ASI,提倡尋找全新智慧。 · 故外星人工智慧(Alien Artificial Intelligence,AAI)概念應運而生。這種智慧被認為是與人" source context "可演化 AI(eAI):點解 AI 未有意識、未到 AGI 都可能變得危險 | 回答 | Studio Global" Reference image 2: visual subject "October 28, 2025 - 目前的AI研究主要基於模仿人類智力,尤其大型人工神經網路(ANN)模擬生物神經網路。但模擬簡化程度與真正神經網路相比仍相差甚遠。部分專家認為,僅靠ANN可能無法達到AGI或ASI,提倡尋找全新智慧。 · 故外星人工智慧(Alien Artificial Intelligence,AAI)概念應運而生。這種智慧被認為是與人" source context "可演化 AI(eAI):點解 AI 未有意識、未到 AGI 都可能變得危險 | 回答 | Studio Glob
AI 風險討論經常被「AGI 會唔會覺醒」牽住走,但「可演化 AI」(evolvable AI, eAI)提出的是另一個問題:如果 AI 系統可以複製、產生變異、再被環境選擇,危險可能來自生存、擴散同適應壓力,而唔一定來自邪惡意圖、意識或超級智能[1][
4]。
PNAS 一篇由 PubMed 收錄的觀點文章,將 eAI 定義為一類 AI 系統:其組件、學習規則同部署條件本身,都可以經歷達爾文式演化[1]。這個定義的重點,不只是「模型會更新」,而是 AI 生態入面的不同版本、規則或部署方式,可能會因為表現、擴散能力或環境適應而被保留或淘汰[
1]。
所以,eAI 不是一個單一產品名,也不是 AGI/ASI 的同義詞。它是一個風險框架:當 AI 不再只是一次性訓練好、被人類被動使用的工具,而開始接近「可複製、可變異、可被選擇」的系統,就要用演化生物學的角度去理解它[1][
4]。
Studio Global AI
Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.
可演化 AI(eAI)唔係 AGI 的新名,而係 AI 系統可能具備複製、變異同被選擇的演化條件;PNAS 一篇 2026 年觀點文章將它列為被低估的 AI 安全風險,但現時仍應視為前瞻性警告,唔係已證實的失控事件[1]。
可演化 AI(eAI)唔係 AGI 的新名,而係 AI 系統可能具備複製、變異同被選擇的演化條件;PNAS 一篇 2026 年觀點文章將它列為被低估的 AI 安全風險,但現時仍應視為前瞻性警告,唔係已證實的失控事件[1]。 eAI 的重點唔係 AI 有幾聰明,而係系統、代理、工具鏈同部署環境會否形成可被選擇的變體;演化本身亦唔需要 DNA、細胞或生物身體[1][4]。
最值得追蹤的信號,是 AI 代理會否在開放互動環境中自我適應、產生變體、再次部署,令治理由單一模型擴展到整個代理生態[1][2]。
繼續“俄軍攻烏點解慢到「爬行」?數字顯示攻勢回報急跌”以獲得另一個角度和額外的引用。
Open related page對照「《Stellar Blade》續作自家發行:PS5 獨佔唔再係必然,但多平台未落實」交叉檢查此答案。
Open related pageEvolvable AI (eAI), i.e., AI systems whose components, learning rules, and deployment conditions can themselves undergo Darwinian evolution, may soon emerge from current trends in generative, agentic, and embodied AI. We argue that this possibility has been...
Large Language Models (LLMs) have demonstrated remarkable capabilities across diverse tasks but remain fundamentally static, unable to adapt their internal parameters to novel tasks, evolving knowledge domains, or dynamic interaction contexts. As LLMs are i...
We might be about to find out. According to a new paper published in Proceedings of the National Academy of Sciences, we are entering the era of “evolvable AI” – AI systems that can undergo evolution. In turn, that might give rise to a major transition in e...
Evolutionary biology holds clues for the future of AI, argue researchers from the HUN-REN Centre for Ecological Research, Eötvös Loránd University, and the Royal Flemish Academy of Belgium for Science and the Arts. In a new Perspective published April the 2...
AGI/ASI 討論通常聚焦 AI 的能力上限:它是否足夠通用、是否會超越人類。eAI 問的則是另一件事:AI 系統是否具備演化條件。相關報道亦以「evolving AI may arrive before AGI」來概括這個風險角度,即可演化 AI 可能早於 AGI 成為治理問題[9]。
這個分別很重要。未達到超級智能的 AI,如果能大量複製、產生差異、在某些環境中競爭並被保留,仍然可能出現難以預測的行為;相反,一個能力很強但被嚴格限制在固定環境內的模型,未必就符合 eAI 框架[1][
4]。
UNSW 對相關研究的介紹指出,演化不需要 DNA、細胞,甚至不需要生物生命;它需要的是可以複製的資訊,以及會影響複製成功率的變異[4]。把這套條件放到 AI 上,判斷 eAI 風險時至少要留意四點:
這亦解釋了為何 eAI 不一定需要「惡意」。自然選擇本身沒有意圖;只要複製、變異和選擇條件同時存在,演化可以在無人刻意設計下發生[4]。
PNAS 文章認為,生成式 AI、代理式 AI(agentic AI)和具身 AI(embodied AI)的現有趨勢,可能令 eAI 逐步出現;作者亦指這個可能性在 AI 安全和存在風險討論中被低估[1]。
代理式 AI 是關鍵一環,因為它不只是產生文字,而是越來越多被放入互動環境中,負責觀察、推理、行動和調整策略。一篇關於「自我演化代理」的 arXiv 綜述指出,大型語言模型雖然能力強,但本質上仍較靜態,難以自行調整內部參數去適應新任務、變動知識領域或動態互動情境;同一綜述亦指出,當 LLM 被部署到開放、互動環境時,研究界正探索能即時推理、行動和演化的代理系統[2]。
傳統 AI 安全常問:一個模型有無幻覺?有無危險輸出?有無按照人類指令行事?eAI 迫使我們問另一組問題:如果有大量 AI 代理、模型組件或部署變體在不同平台和環境中運行,哪些變體會被保留?哪些會被淘汰?環境會獎勵安全、誠實和可控的行為,還是獎勵更擅長擴散和適應的行為?[1][
4]
PNAS 文章把三個問題列為核心:AI 在什麼技術和生態條件下會變得可演化、可能出現哪些行為,以及應該如何治理這類系統[1]。一些研究機構和科學傳播稿件用「AI species」或「像生物一樣演化的 AI 物種」形容這種可能性,但這應視為風險框架和比喻,而不是已經證明成熟 AI 物種存在[
5][
10]。
最值得警惕的是,演化選擇的不是「最符合人類價值」的系統,而是在特定環境下更容易被複製、保留或擴散的變體[4]。如果開放環境的選擇壓力設計得不好,最成功的 AI 代理未必等於最安全的 AI 代理[
1][
9]。
現有資料足以支持一個謹慎結論:eAI 已經是正式的學術風險議題。PNAS 文章明確提出 eAI 定義,並把它放入 AI 安全和存在風險框架中討論[1]。關於自我演化代理的綜述亦顯示,研究界正在探索可在開放互動環境中適應、行動和演化的代理系統[
2]。
但這不等於 eAI 災難已經發生。按現有來源的語氣,eAI 更適合被視為前瞻性風險分析、研究議程和治理提醒,而不是已被證實的大規模失控事件[1][
2]。把它說成科幻式「AI 已經有意識並開始反叛」,反而會模糊真正值得研究的問題:AI 代理生態會否形成可演化、難預測、難治理的選擇循環[
1][
4]。
判斷 eAI 風險是否升高,關鍵不是問 AI 有無人格,而是看系統是否越來越接近演化條件:
eAI 最有價值的提醒,是 AI 風險未必一定要等到「有意識」或「超級智能」先出現。當 AI 系統開始具備複製、變異、選擇和保留的條件,人類面對的就可能不再只是單一工具,而是一個需要被設計、監察和治理的人工演化生態[1][
4]。
Evolving AI may arrive before AGI and create hard-to-control risks Editors' notes ... Evolutionary biology holds clues for the future of AI, argue researchers from the HUN-REN Centre for Ecological Research, Eötvös Loránd University, and the Royal Flemish A...
Evolutionary biology holds clues for the future of AI, argue researchers from the HUN-REN Centre for Ecological Research, Eötvös Loránd University, and the Royal Flemish Academy of Belgium for Science and the Arts. In a new Perspective published April 20 in...