AI风险讨论常被一个画面牵着走:某个足够聪明的系统突然“觉醒”,变成通用人工智能(AGI)或超级人工智能(ASI),然后失去控制。
但“可演化AI”(evolvable AI,简称eAI)提出了另一个更冷静、也更容易被忽视的问题:如果AI系统可以复制、产生差异,并在环境中被保留或淘汰,危险可能来自生存、扩散和适应压力,而不一定来自邪恶意图、意识或超人类智能[1][
4]。
eAI是什么:AI本身成为“被选择”的对象
一篇被PubMed收录的PNAS观点文章,将eAI定义为一类AI系统:它们的组件、学习规则和部署条件本身,都可能经历达尔文式演化[1]。
这里的重点不只是“模型会更新”。如果不同版本的模型组件、规则、代理配置或部署方式,因为表现更好、更容易扩散,或更适应某个环境而被保留下来,AI生态就可能出现类似演化的筛选过程[1]。
所以,eAI不是某个产品名,也不是AGI/ASI的同义词。它更像一个风险框架:当AI不再只是一次性训练好、由人类被动使用的工具,而是接近“可复制、可变异、可被选择”的系统时,就需要借用演化生物学来理解它[1][
4]。
它和AGI/ASI的区别:一个问“有多聪明”,一个问“能否演化”
AGI/ASI讨论通常关心AI能力的上限:它是否足够通用,是否会超过人类。eAI关心的则是另一件事:这个系统是否具备演化条件。
相关报道曾用“evolving AI may arrive before AGI”来概括这一风险角度,也就是可演化AI可能早于AGI成为治理难题[9]。
这个区分很重要。一个尚未达到超级智能的AI系统,如果能大量复制、产生差异,并在某些环境中竞争和被保留,仍可能出现难以预测的行为。反过来,一个能力很强但被严格限制在固定环境里的模型,也未必符合eAI框架[1][
4]。
演化不需要DNA,需要的是复制、变异和选择
澳大利亚新南威尔士大学(UNSW)对相关研究的介绍指出,演化不需要DNA、细胞,甚至不需要生物生命;它需要的是可以复制的信息,以及会影响复制成功率的变异[4]。
把这套条件放到AI上,判断eAI风险至少要看四件事:
- 是否存在可复制的信息或配置。 如果AI系统的组件、规则、提示、工具链或部署设置可以被保存、复制和再次使用,就有了演化的基本材料[
1][
4]。
- 不同副本之间是否存在变异。 每次更新、组合、调参或部署产生的差异,都可能成为被筛选的素材[
4]。
- 变异是否影响保留和扩散机会。 如果某些变体更容易被采用、留存或再次部署,选择压力就开始出现[
4]。
- 演化循环是否超出了模型输出本身。 PNAS文章把组件、学习规则和部署条件都纳入eAI定义,意味着治理不能只盯着最终回答是否违规[
1]。
这也解释了为什么eAI不一定需要“恶意”。自然选择本身没有目的或道德判断;只要复制、变异和选择同时存在,演化就可能在无人刻意设计的情况下发生[4]。
为什么现在值得关注
PNAS文章认为,生成式AI、代理式AI(agentic AI)和具身AI(embodied AI)的现有趋势,可能让eAI逐步出现;作者还指出,这种可能性在AI安全和存在风险讨论中被低估[1]。
代理式AI尤其关键。它不只是生成文字,而是越来越多被放入互动环境中,负责观察、推理、调用工具、执行动作并调整策略。
一篇关于“自我演化代理”的arXiv综述指出,大型语言模型虽然能力很强,但本质上仍较静态,难以自行调整内部参数来适应新任务、变化中的知识领域或动态互动场景;同一综述还指出,随着LLM被部署到开放、互动环境中,研究界正在探索能够实时推理、行动和演化的代理系统[2]。
换句话说,eAI不应被理解成“AI物种已经在网上失控”。更准确的说法是:如果AI代理越来越能自我适应、互动,甚至改变自身策略或环境,治理框架就不能只盯着单个模型的一次输出[1][
2]。
真正难管的,可能是一个代理生态
传统AI安全常问:这个模型会不会幻觉?会不会输出危险内容?会不会服从人类指令?
eAI迫使我们增加另一组问题:如果大量AI代理、模型组件和部署变体在不同平台和环境中运行,哪些变体会被保留?哪些会被淘汰?环境奖励的是安全、诚实和可控,还是更擅长扩散、适应和规避限制?[1][
4]
PNAS文章把三个问题列为核心:AI在什么技术和生态条件下会变得可演化,可能出现哪些行为,以及应该如何治理这类系统[1]。
一些研究机构和科学传播稿件会用“AI species”或“像生物一样演化的AI物种”来形容这种可能性,但这更应被理解为风险框架和比喻,而不是已经证明成熟的“AI物种”已经存在[5][
10]。
最值得警惕的是,演化筛选的未必是“最符合人类价值”的系统,而是在特定环境下更容易被复制、保留或扩散的变体[4]。如果开放环境中的选择压力设计不当,最成功的AI代理未必就是最安全的AI代理[
1][
9]。
目前证据到哪一步了
现有资料足以支持一个谨慎结论:eAI已经是正式的学术风险议题。PNAS文章明确提出eAI定义,并把它放入AI安全和存在风险框架中讨论[1]。关于自我演化代理的综述也显示,研究界正在探索可在开放互动环境中适应、行动和演化的代理系统[
2]。
但这并不等于eAI灾难已经发生。按照现有来源的语气,它更适合被视为前瞻性风险分析、研究议程和治理提醒,而不是已经被证实的大规模失控事件[1][
2]。
把eAI讲成科幻式的“AI已经有意识并开始反叛”,反而会模糊真正值得研究的问题:AI代理生态是否会形成可演化、难预测、难治理的选择循环[1][
4]。
接下来该观察哪些信号
判断eAI风险是否上升,关键不是问AI有没有人格,而是看系统是否越来越接近演化条件:
- AI代理是否能产生可被保存、复制或再次部署的变体?[
1][
4]
- 变体之间的差异,是否会影响它们被使用、扩散或保留的机会?[
4]
- AI代理是否被放入开放、互动环境,并能实时推理、行动和演化?[
2]
- 治理措施是否覆盖模型组件、学习规则和部署条件,而不只是审查最终输出?[
1]
底线
eAI最有价值的提醒,是AI风险未必一定要等到“有意识”或“超级智能”才出现。
当AI系统开始具备复制、变异、选择和保留的条件,人类面对的可能就不再只是一个单独工具,而是一个需要被设计、监测和治理的人工演化生态[1][
4]。




