La conversación sobre riesgos de inteligencia artificial suele girar en torno a una pregunta casi cinematográfica: ¿cuándo llegará una inteligencia artificial general, o AGI, capaz de igualar la flexibilidad humana? La idea de la IA evolucionable cambia el foco. Pregunta algo menos espectacular, pero quizá más urgente: ¿qué pasa si los sistemas de IA empiezan a copiarse, variar, competir y ser seleccionados por su entorno antes de alcanzar la superinteligencia?[1][
4]
Qué significa “IA evolucionable”
Un artículo de perspectiva en PNAS, recogido en PubMed, define la IA evolucionable —eAI, por evolvable AI— como sistemas de IA cuyos componentes, reglas de aprendizaje y condiciones de despliegue pueden experimentar evolución darwiniana[1].
La clave no es simplemente que un modelo reciba una actualización. La idea es más amplia: distintas versiones de un sistema, sus herramientas, sus reglas de aprendizaje o sus formas de despliegue podrían conservarse o descartarse según su rendimiento, su capacidad de expansión o su adaptación al entorno[1].
Por eso, la eAI no es un producto concreto ni un sinónimo de AGI o ASI, la superinteligencia artificial. Es un marco de riesgo: cuando la IA deja de parecer una herramienta estática entrenada una vez y empieza a acercarse a un sistema que puede replicarse, cambiar y ser seleccionado, conviene mirarla también con lentes de biología evolutiva[1][
4].
La diferencia con AGI y ASI
La AGI y la ASI se discuten, sobre todo, en términos de capacidad: si la IA será suficientemente general, si superará a las personas, si podrá razonar mejor que nosotros en casi cualquier tarea.
La eAI plantea otra pregunta: no cuánto “piensa” una IA, sino si existen las condiciones para que sus variantes evolucionen. De hecho, algunos análisis han resumido el problema con una advertencia sencilla: una IA capaz de evolucionar podría convertirse en asunto de gobernanza antes de que llegue la AGI[9].
Esta distinción importa. Un sistema que no sea superinteligente podría volverse difícil de prever si produce muchas copias, genera diferencias entre ellas y opera en entornos donde unas variantes prosperan más que otras[1][
4]. Al revés, un modelo muy capaz pero estrictamente limitado a un entorno fijo no encaja necesariamente en el marco de la eAI[
1].
La evolución no necesita ADN
Uno de los puntos más útiles para entender el concepto es que la evolución no requiere ADN, células ni vida biológica. Según una explicación de la UNSW sobre esta línea de investigación, basta con información que pueda replicarse y con una fuente de variación que afecte al éxito de esa replicación[4].
Aplicado a la IA, eso obliga a mirar al menos cuatro condiciones:
- Información o configuraciones que puedan copiarse. Componentes, reglas, prompts, herramientas o condiciones de despliegue pueden convertirse en material sobre el que actúa la selección si se conservan y reutilizan[
1][
4].
- Variación entre copias. Si cada actualización, combinación o despliegue genera diferencias, esas diferencias pueden convertirse en “materia prima” evolutiva[
4].
- Selección. Si algunas variantes se usan más, se mantienen durante más tiempo o se despliegan con más frecuencia, aparece presión selectiva[
4].
- Un ciclo que no se limita a la respuesta final. El artículo de PNAS incluye componentes, reglas de aprendizaje y condiciones de despliegue dentro de la definición de eAI; por tanto, gobernar estos sistemas no consiste solo en revisar si la salida textual es peligrosa[
1].
Aquí está el matiz central: la evolución no necesita intención. La selección natural no “quiere” nada. Si hay copia, variación y selección, pueden aparecer dinámicas evolutivas aunque nadie las haya diseñado con ese propósito[4].
Por qué se habla de esto ahora
El artículo de PNAS sostiene que tendencias actuales en IA generativa, agentes de IA e IA encarnada o incorporada podrían acercar la aparición de sistemas evolucionables, y que esta posibilidad ha sido subestimada en los debates sobre seguridad y riesgo existencial de la IA[1].
Los agentes de IA son una pieza especialmente relevante. No se limitan a generar texto: se diseñan para observar un entorno, razonar, actuar y ajustar estrategias. Una revisión en arXiv sobre “agentes autoevolutivos” señala que los grandes modelos de lenguaje han demostrado capacidades notables, pero siguen siendo fundamentalmente estáticos: no adaptan fácilmente sus parámetros internos a tareas nuevas, dominios de conocimiento cambiantes o contextos interactivos dinámicos[2]. La misma revisión apunta que, al desplegar modelos en entornos abiertos e interactivos, la investigación explora agentes capaces de razonar, actuar y evolucionar en tiempo real[
2].
Dicho de forma simple: la cuestión no es afirmar que ya exista una “especie de IA” suelta por internet. La advertencia es que, si los agentes de IA ganan capacidad de adaptación, interacción y modificación de sus estrategias o entornos, la gobernanza no puede limitarse a auditar un único modelo como si fuera una caja aislada[1][
2].
El riesgo real: pasar de modelos aislados a ecosistemas de agentes
La seguridad de la IA suele formular preguntas como estas: ¿el modelo alucina? ¿Da instrucciones peligrosas? ¿Obedece al usuario? ¿Está alineado con determinadas normas?
La eAI añade otra capa: si hay muchos agentes, componentes o variantes de despliegue funcionando en distintas plataformas y entornos, ¿qué variantes se conservan? ¿Cuáles desaparecen? ¿El entorno premia la seguridad, la honestidad y el control, o premia la capacidad de propagarse, resistir cambios y adaptarse?[1][
4]
El artículo de PNAS resume el programa de investigación en tres preguntas: bajo qué condiciones técnicas y ecológicas la IA se vuelve evolucionable, qué comportamientos podrían aparecer y cómo deberían gobernarse estos sistemas[1]. Algunas comunicaciones científicas han usado expresiones como “especies de IA” o “IA que evoluciona como organismos”, pero conviene leerlas como metáforas y marcos de riesgo, no como prueba de que ya exista una especie madura de IA autónoma[
5][
10].
Lo inquietante es que la selección no premia automáticamente lo que más conviene a los valores humanos. Premia lo que, en un entorno concreto, se copia, se conserva o se difunde mejor[4]. Si las presiones selectivas de un ecosistema digital están mal diseñadas, el agente de IA más exitoso no tiene por qué ser el más seguro[
1][
9].
Qué tan sólida es la evidencia
La conclusión prudente es esta: la eAI ya es un tema académico serio dentro de la discusión sobre seguridad de la IA, pero no debe presentarse como una catástrofe ya ocurrida.
El artículo de PNAS ofrece una definición explícita de eAI y la coloca dentro del debate sobre seguridad y riesgo existencial[1]. La literatura sobre agentes autoevolutivos, por su parte, muestra que la investigación está explorando sistemas capaces de adaptarse y actuar en entornos abiertos e interactivos[
2].
Eso no equivale a decir que una IA evolucionable fuera de control ya esté operando a gran escala. Con las fuentes disponibles, lo correcto es tratar la eAI como una advertencia prospectiva, una agenda de investigación y un problema de gobernanza emergente[1][
2]. Convertirla en una historia de ciencia ficción sobre una IA consciente que se rebela puede ocultar la pregunta más importante: si los ecosistemas de agentes de IA podrían formar ciclos de selección difíciles de prever y de controlar[
1][
4].
Señales que conviene vigilar
Para evaluar si el riesgo aumenta, la pregunta no es si la IA “tiene personalidad”. Es si el sistema se acerca a las condiciones de la evolución:
- ¿Los agentes de IA generan variantes que pueden conservarse, copiarse o desplegarse de nuevo?[
1][
4]
- ¿Las diferencias entre variantes afectan a su probabilidad de ser usadas, difundidas o mantenidas?[
4]
- ¿Los agentes operan en entornos abiertos e interactivos donde pueden razonar, actuar y adaptarse en tiempo real?[
2]
- ¿La gobernanza cubre componentes, reglas de aprendizaje y condiciones de despliegue, y no solo la revisión del resultado final?[
1]
La idea de fondo
La advertencia más valiosa de la eAI es que algunos riesgos de la inteligencia artificial podrían aparecer antes de la conciencia artificial o la superinteligencia. Si los sistemas de IA reúnen condiciones de copia, variación, selección y conservación, el problema deja de ser únicamente controlar una herramienta concreta. Pasa a ser diseñar, observar y gobernar un ecosistema artificial capaz de evolucionar[1][
4].




