Обсуждение рисков ИИ часто упирается в знакомый сценарий: появится ли AGI, «проснётся» ли машина, превзойдёт ли она человека. Концепция evolvable AI, или eAI — ИИ, способного к эволюции, — смещает фокус. Опасность может возникнуть не из-за злого умысла, сознания или сверхинтеллекта, а из-за куда более прозаичных процессов: копирования, вариаций, отбора, адаптации и распространения[1][
4].
Что такое eAI
В статье формата Perspective в PNAS, индексируемой PubMed, eAI определяется как класс ИИ-систем, у которых компоненты, правила обучения и условия развёртывания сами могут проходить через дарвиновскую эволюцию[1]. Важно: речь не просто о модели, которую время от времени обновляют разработчики.
Смысл в другом. Если разные версии моделей, агентов, инструментов или способов их запуска начинают конкурировать за сохранение, повторное использование или распространение, то ИИ перестаёт быть только разовым продуктом. Он начинает напоминать искусственную экосистему, где одни варианты закрепляются, а другие исчезают[1][
4].
Поэтому eAI — это не бренд, не конкретная технология и не синоним AGI или ASI. Это способ описать риск: что произойдёт, если ИИ-системы станут достаточно копируемыми, изменчивыми и зависимыми от отбора среды[1][
4].
Чем eAI отличается от AGI и ASI
AGI, или искусственный общий интеллект, обычно обсуждают через вопрос способностей: сможет ли система решать широкий круг задач на уровне человека или выше. ASI — искусственный сверхинтеллект — поднимает планку ещё выше.
eAI задаёт другой вопрос: есть ли у системы условия для эволюции? В профильных материалах этот риск формулируют так: эволюционирующий ИИ может стать проблемой управления ещё до появления AGI[9].
Это различие принципиально. ИИ, который не является сверхинтеллектом, теоретически всё равно может вести себя непредсказуемо, если его варианты массово копируются, отличаются друг от друга, конкурируют в среде и сохраняются в зависимости от «успеха»[1][
4]. И наоборот: очень мощная модель, жёстко ограниченная фиксированной средой и не участвующая в цикле копирования, вариации и отбора, не обязательно подпадает под рамку eAI[
1][
4].
Эволюции не нужны ДНК и клетки
Университет Нового Южного Уэльса, объясняя это исследовательское направление, подчёркивает: эволюции не требуются ДНК, клетки или биологическая жизнь. Ей нужны копируемая информация и вариации, которые влияют на успех копирования[4].
Если перенести эту логику на ИИ, стоит смотреть как минимум на четыре признака:
- Есть ли что копировать. Компоненты модели, правила, конфигурации, цепочки инструментов или условия запуска могут становиться материалом для повторного использования[
1][
4].
- Появляются ли различия между копиями. Если разные версии агента, настройки или развёртывания отличаются, эти различия могут стать сырьём для отбора[
4].
- Влияют ли различия на выживание и распространение. Если одни варианты чаще выбирают, сохраняют, запускают снова или распространяют, возникает давление отбора[
4].
- Эволюция происходит не только в финальном ответе модели. В определении eAI отдельно упоминаются компоненты, правила обучения и условия развёртывания — значит, аудит одних только текстовых ответов недостаточен[
1].
Именно поэтому eAI не требует «злой воли». Естественный отбор не имеет намерений. Если есть копирование, вариации и отбор, эволюционные процессы могут идти без чьего-либо плана[4].
Почему об этом заговорили сейчас
Авторы статьи в PNAS считают, что нынешние тенденции в генеративном, агентном и воплощённом ИИ могут привести к появлению eAI; по их оценке, этот риск недооценён в дискуссиях об AI-безопасности и экзистенциальных рисках[1].
Особенно важны агентные ИИ-системы: это не просто модели, которые отвечают текстом, а системы, всё чаще помещаемые в интерактивные среды, где они наблюдают, рассуждают, действуют и корректируют стратегию. Обзор arXiv о «самоэволюционирующих агентах» отмечает, что большие языковые модели уже показывают сильные способности, но остаются во многом статичными: им трудно самостоятельно менять внутренние параметры под новые задачи, меняющиеся области знаний и динамические сценарии взаимодействия[2].
Тот же обзор указывает, что по мере развёртывания LLM в открытых интерактивных средах исследователи всё активнее изучают агентов, способных рассуждать, действовать и эволюционировать в реальном времени[2].
Это не означает, что «виды ИИ» уже свободно размножаются в интернете. Более аккуратная формулировка такая: если AI-агенты становятся всё более адаптивными и автономными в средах взаимодействия, то управление рисками нельзя сводить к проверке одного ответа одной модели[1][
2].
Главный риск — не отдельная модель, а экосистема агентов
Классическая AI-безопасность часто спрашивает: галлюцинирует ли модель? выдаёт ли опасные инструкции? следует ли указаниям человека? eAI заставляет добавить другие вопросы:
- какие варианты агентов или конфигураций будут сохраняться;
- какие будут вытесняться;
- что именно среда вознаграждает — безопасность, честность и управляемость или способность лучше распространяться и адаптироваться;
- кто контролирует цикл обновления, отбора и повторного запуска[
1][
4].
В статье PNAS ключевыми названы три блока вопросов: при каких технических и экологических условиях ИИ становится эволюционирующим, какие типы поведения могут возникнуть и как такими системами управлять[1].
В некоторых научно-популярных материалах используется образ «AI species» — ИИ-видов, эволюционирующих подобно организмам[5][
10]. Но это стоит воспринимать как метафору и рамку анализа риска, а не как доказательство того, что полноценные «виды ИИ» уже существуют.
Самая неприятная часть этой логики в том, что отбор не обязан выбирать варианты, наиболее соответствующие человеческим ценностям. Он закрепляет то, что лучше сохраняется, копируется или распространяется в конкретной среде[4]. Если открытая среда устроена плохо, наиболее успешный AI-агент не обязательно окажется самым безопасным[
1][
9].
Насколько сильны доказательства
На сегодня корректный вывод скорее осторожный: eAI уже стал серьёзной академической темой в обсуждении рисков ИИ. Статья PNAS явно вводит это понятие и помещает его в контекст AI-безопасности и экзистенциальных рисков[1]. Обзор самоэволюционирующих агентов показывает, что исследовательское сообщество действительно изучает системы, способные адаптироваться, действовать и эволюционировать в открытых интерактивных средах[
2].
Но это не значит, что катастрофа eAI уже произошла. По характеру имеющихся источников речь идёт о прогнозной оценке риска, исследовательской программе и предупреждении для разработчиков и регуляторов, а не о подтверждённом массовом выходе ИИ из-под контроля[1][
2].
Сводить тему к фантастическому сюжету «ИИ обрёл сознание и восстал» — значит промахнуться мимо сути. Вопрос eAI намного менее кинематографичен, но от этого не менее важен: может ли экосистема AI-агентов создать циклы отбора, которые станут трудными для прогнозирования и управления[1][
4]?
За какими сигналами стоит следить
Рост риска eAI стоит оценивать не по тому, похож ли ИИ на личность, а по тому, приближается ли система к условиям эволюции:
- могут ли AI-агенты создавать варианты, которые затем сохраняются, копируются или развёртываются снова[
1][
4];
- влияют ли различия между вариантами на их шансы быть использованными, распространёнными или сохранёнными[
4];
- помещаются ли агенты в открытые интерактивные среды, где они могут рассуждать, действовать и адаптироваться в реальном времени[
2];
- охватывает ли управление рисками компоненты моделей, правила обучения и условия развёртывания, а не только финальные ответы пользователю[
1].
Итог
eAI важен потому, что он убирает из центра обсуждения вопрос «когда ИИ станет сознательным сверхразумом». Риск может возникнуть раньше — если ИИ-системы получат условия для копирования, вариаций, отбора и сохранения. Тогда перед людьми окажется не просто отдельный инструмент, а искусственная эволюционная среда, которую нужно проектировать, наблюдать и регулировать заранее[1][
4].




