La advertencia de Jack Clark no va simplemente de que la IA escriba más código o ayude a los ingenieros a trabajar más deprisa. El punto delicado es otro: que el propio ciclo de investigación y desarrollo de la inteligencia artificial pueda automatizarse. Es decir, que un sistema de IA llegue a ser lo bastante capaz como para ayudar a crear, entrenar o mejorar a su sucesor con poca o ninguna participación humana [7].
Qué predijo Jack Clark
Clark, cofundador de Anthropic, escribió en su publicación Import AI que había llegado “a regañadientes” a la conclusión de que existe una probabilidad “probable” —superior al 60 %— de que la I+D de IA sin humanos ocurra antes de que termine 2028 [7]. Por I+D se entiende investigación y desarrollo: el conjunto de procesos que permiten diseñar, probar, entrenar y mejorar nuevos modelos.
En su formulación, ese escenario implicaría un sistema de IA lo bastante potente como para construir de forma plausible y autónoma su propio sucesor [7]. Dicho de forma más directa: el salto no sería pasar de programadores humanos a programadores humanos con mejores asistentes, sino de investigación asistida por IA a investigación automatizada de extremo a extremo [
5][
7].
Por qué se habla de “automejora recursiva”
La idea suele describirse como automejora recursiva: una IA ayuda a crear una IA más capaz, y esa nueva IA puede ayudar a crear otra todavía más capaz [5]. Si ese bucle genera mejoras acumulativas, el ritmo de avance podría acelerarse de una manera difícil de seguir para los equipos humanos [
10].
Por eso la predicción de Clark se ha interpretado como algo más que un hito técnico. La cuestión no es solo si un modelo puede generar código útil, optimizar partes del entrenamiento o analizar resultados. El riesgo aparece cuando el proceso de fabricar modelos cada vez más potentes empieza a quedar fuera de los canales normales de supervisión humana [4][
7].
Dónde está el riesgo principal
La preocupación central es la pérdida de control sobre la cadena de desarrollo de la IA. Si los sistemas pueden diseñar, probar y entrenar modelos sucesores con una participación humana mínima, empresas y gobiernos tendrían menos oportunidades para evaluar seguridad, ciberseguridad, alineamiento y posibles usos indebidos antes de que ya exista el siguiente sistema, más capaz [4][
7].
Clark y la cobertura sobre su advertencia vinculan este escenario con la posibilidad de una “explosión de inteligencia”: un momento en el que las capacidades de la IA se aceleren rápidamente porque los propios sistemas contribuyen a mejorar a los sistemas que vendrán después [10]. En ese caso, el cuello de botella ya no sería solo la capacidad de investigación humana. El avance dependería cada vez más de herramientas, métodos y modelos mejorados por IA [
10].
El problema de gobernanza es fácil de resumir: las instituciones se mueven más despacio que el software. Clark escribió que no está seguro de que la sociedad esté preparada para los cambios que implicaría una I+D de IA automatizada [7]. Si su previsión se cumple, las pruebas de seguridad, la regulación, los controles internos de las empresas y la comprensión pública tendrían que adaptarse a un proceso técnico mucho más rápido [
4][
7].
Lo que aún no está claro
La cifra de Clark —más del 60 %— es una estimación probabilística, no un hecho demostrado [7]. Hay voces que discrepan de forma marcada sobre el calendario. Una crítica a la previsión situó por debajo del 10 % la probabilidad de una automejora recursiva, completa y sin humanos para 2028, aunque admitía que podría ser posible en un plazo más largo [
12].
También existe un desacuerdo técnico más profundo: si esa automejora produciría realmente beneficios compuestos y sostenidos. Un informe que cita al informático Pedro Domingos señala que la pregunta clave no es solo si los sistemas de IA pueden generar o modificar software, sino si esa capacidad produce mejoras fiables y crecientes; según esa crítica, eso aún no se ha demostrado con claridad [6].
La idea de fondo
La previsión de Clark inquieta porque apunta a un posible cambio de control. Si para finales de 2028 una IA puede realizar I+D de IA de forma autónoma y construir modelos sucesores, el problema no sería únicamente una innovación más rápida. Sería que la creación de sistemas más poderosos avanzara más deprisa que la supervisión humana, la evaluación de seguridad y las reglas capaces de encauzarla [4][
7][
10].






