studioglobal
Tendencias en Descubrir
RespuestasPublicado6 fuentes

La advertencia de Jack Clark para 2028: cuando la IA empiece a crear la siguiente IA

Jack Clark, cofundador de Anthropic, estima una probabilidad superior al 60 % de que, para finales de 2028, existan sistemas capaces de hacer I+D de IA sin intervención humana y de construir plausiblemente su propio s... El gran temor es la automejora recursiva: si una IA puede mejorar la siguiente generación de IA,...

1590
# AI systems might be able to rebuild themselves from 2028, says Anthropic co-founder. * Anthropic’s Clark says AI systems might be capable of rebuilding themselves from 2028. **An
# AI systems might be able to rebuild themselves from 2028, says Anthropic co-founder# AI systems might be able to rebuild themselves from 2028, says Anthropic co-founder. * Anthropic’s Clark says AI systems might be capable of rebuilding themselves from 2028. **Anthropic’s co-founder Jack Clark has made a bold prediction that AI systems may be capable of rebuilding themselves from 2028. In a SubstackAI systems might be able to rebuild themselves from 2028, says Anthropic co-founder - Cryptopolitan

La advertencia de Jack Clark no va simplemente de que la IA escriba más código o ayude a los ingenieros a trabajar más deprisa. El punto delicado es otro: que el propio ciclo de investigación y desarrollo de la inteligencia artificial pueda automatizarse. Es decir, que un sistema de IA llegue a ser lo bastante capaz como para ayudar a crear, entrenar o mejorar a su sucesor con poca o ninguna participación humana [7].

Qué predijo Jack Clark

Clark, cofundador de Anthropic, escribió en su publicación Import AI que había llegado “a regañadientes” a la conclusión de que existe una probabilidad “probable” —superior al 60 %— de que la I+D de IA sin humanos ocurra antes de que termine 2028 [7]. Por I+D se entiende investigación y desarrollo: el conjunto de procesos que permiten diseñar, probar, entrenar y mejorar nuevos modelos.

En su formulación, ese escenario implicaría un sistema de IA lo bastante potente como para construir de forma plausible y autónoma su propio sucesor [7]. Dicho de forma más directa: el salto no sería pasar de programadores humanos a programadores humanos con mejores asistentes, sino de investigación asistida por IA a investigación automatizada de extremo a extremo [5][7].

Por qué se habla de “automejora recursiva”

La idea suele describirse como automejora recursiva: una IA ayuda a crear una IA más capaz, y esa nueva IA puede ayudar a crear otra todavía más capaz [5]. Si ese bucle genera mejoras acumulativas, el ritmo de avance podría acelerarse de una manera difícil de seguir para los equipos humanos [10].

Por eso la predicción de Clark se ha interpretado como algo más que un hito técnico. La cuestión no es solo si un modelo puede generar código útil, optimizar partes del entrenamiento o analizar resultados. El riesgo aparece cuando el proceso de fabricar modelos cada vez más potentes empieza a quedar fuera de los canales normales de supervisión humana [4][7].

Dónde está el riesgo principal

La preocupación central es la pérdida de control sobre la cadena de desarrollo de la IA. Si los sistemas pueden diseñar, probar y entrenar modelos sucesores con una participación humana mínima, empresas y gobiernos tendrían menos oportunidades para evaluar seguridad, ciberseguridad, alineamiento y posibles usos indebidos antes de que ya exista el siguiente sistema, más capaz [4][7].

Clark y la cobertura sobre su advertencia vinculan este escenario con la posibilidad de una “explosión de inteligencia”: un momento en el que las capacidades de la IA se aceleren rápidamente porque los propios sistemas contribuyen a mejorar a los sistemas que vendrán después [10]. En ese caso, el cuello de botella ya no sería solo la capacidad de investigación humana. El avance dependería cada vez más de herramientas, métodos y modelos mejorados por IA [10].

El problema de gobernanza es fácil de resumir: las instituciones se mueven más despacio que el software. Clark escribió que no está seguro de que la sociedad esté preparada para los cambios que implicaría una I+D de IA automatizada [7]. Si su previsión se cumple, las pruebas de seguridad, la regulación, los controles internos de las empresas y la comprensión pública tendrían que adaptarse a un proceso técnico mucho más rápido [4][7].

Lo que aún no está claro

La cifra de Clark —más del 60 %— es una estimación probabilística, no un hecho demostrado [7]. Hay voces que discrepan de forma marcada sobre el calendario. Una crítica a la previsión situó por debajo del 10 % la probabilidad de una automejora recursiva, completa y sin humanos para 2028, aunque admitía que podría ser posible en un plazo más largo [12].

También existe un desacuerdo técnico más profundo: si esa automejora produciría realmente beneficios compuestos y sostenidos. Un informe que cita al informático Pedro Domingos señala que la pregunta clave no es solo si los sistemas de IA pueden generar o modificar software, sino si esa capacidad produce mejoras fiables y crecientes; según esa crítica, eso aún no se ha demostrado con claridad [6].

La idea de fondo

La previsión de Clark inquieta porque apunta a un posible cambio de control. Si para finales de 2028 una IA puede realizar I+D de IA de forma autónoma y construir modelos sucesores, el problema no sería únicamente una innovación más rápida. Sería que la creación de sistemas más poderosos avanzara más deprisa que la supervisión humana, la evaluación de seguridad y las reglas capaces de encauzarla [4][7][10].

Studio Global AI

Search, cite, and publish your own answer

Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.

Buscar y verificar hechos con Studio Global AI

Conclusiones clave

  • Jack Clark, cofundador de Anthropic, estima una probabilidad superior al 60 % de que, para finales de 2028, existan sistemas capaces de hacer I+D de IA sin intervención humana y de construir plausiblemente su propio s...
  • El gran temor es la automejora recursiva: si una IA puede mejorar la siguiente generación de IA, el progreso podría acelerarse más rápido que la supervisión, las pruebas de seguridad y la regulación [4][10].

Imágenes de apoyo

Anthropic co-founder forecasts ‘self-developing AI’ by 2028. Anthropic’s Jack Clark sees “self-developing” AI arriving by 2028. By 2028, AI systems capable of designing and trainin
Anthropic co-founder forecasts ‘self-developing AI’ by 2028Anthropic co-founder forecasts ‘self-developing AI’ by 2028. Anthropic’s Jack Clark sees “self-developing” AI arriving by 2028. By 2028, AI systems capable of designing and training their own successors without human involvement could reach the market, Anthropic co-founder Jack Clark said. I come to this conclusion relAnthropic co-founder forecasts ‘self-developing AI’ by 2028 | ForkLog
Anthropic Co-founder Predicts AI Could Achieve Recursive Self-Improvement by 2028 Tidepool Anthropic Co-founder Predicts: AI Could Achieve Recursive Self-Improvement by 2028 Jack C
Anthropic Co-founder Predicts AI Could Achieve Recursive Self-Improvement by 2028 Tidepool Anthropic Co-founder Predicts: AI Could Achieve RAnthropic Co-founder Predicts AI Could Achieve Recursive Self-Improvement by 2028 Tidepool Anthropic Co-founder Predicts: AI Could Achieve Recursive Self-Improvement by 2028 Jack Clark, co-founder and new Head of Public Relations at Anthropic, recently made a cautious yet stunning prediction: based on an analysis of exAnthropic Co-founder Predicts AI Could Achieve Recursive Self-Improvement by 2028 - Houdao AI

La gente también pregunta

¿Cuál es la respuesta corta a "La advertencia de Jack Clark para 2028: cuando la IA empiece a crear la siguiente IA"?

Jack Clark, cofundador de Anthropic, estima una probabilidad superior al 60 % de que, para finales de 2028, existan sistemas capaces de hacer I+D de IA sin intervención humana y de construir plausiblemente su propio s...

¿Cuáles son los puntos clave a validar primero?

Jack Clark, cofundador de Anthropic, estima una probabilidad superior al 60 % de que, para finales de 2028, existan sistemas capaces de hacer I+D de IA sin intervención humana y de construir plausiblemente su propio s... El gran temor es la automejora recursiva: si una IA puede mejorar la siguiente generación de IA, el progreso podría acelerarse más rápido que la supervisión, las pruebas de seguridad y la regulación [4][10].

¿Qué tema relacionado debería explorar a continuación?

Continúe con "OpenSearch-VL: la apuesta abierta de Tencent para agentes de búsqueda multimodal" para conocer otro ángulo y citas adicionales.

Abrir página relacionada

¿Con qué debería comparar esto?

Verifique esta respuesta con "La previsión de JPMorgan sobre Strategy: hasta 30.000 millones de dólares más en Bitcoin".

Abrir página relacionada

Continúe su investigación

Fuentes

  • [4] Anthropic expert predicts AI will automate its own research and ...aitechsuite.com

    Anthropic expert predicts AI will automate its own research and development by 2028 With autonomous AI research projected by 2028, the era of recursive self-improvement threatens to outpace human oversight and control. ... The possibility of artificial inte...

  • [5] Anthropic联创定下deadline:2028年AI实现自我进化finance.sina.cn

    Anthropic联创定下deadline:2028年AI实现自我进化,没有人类了 (来源:机器之心Pro) ... Anthropic 联合创始人 Jack Clark 发帖称,他最近几周阅读了大量公开的 AI 开发数据后,认为到 2028 年底,递归自我改进(recursive self-improvement)发生的概率有 60%。 也就是说,AI 系统可能很快就能自主构建和改进自己,进入自我加速的阶段。 ... Jack Clark 将这一现象描述为「分形」式的向上向右趋势,即在不同分辨率和尺度上,都...

  • [6] Anthropic联创定下deadline:2028年AI实现自我进化,没有人类了finance.sina.cn

    Anthropic联创定下deadline:2028年AI实现自我进化,没有人类了 (来源:机器之心Pro) ... Anthropic 联合创始人 Jack Clark 发帖称,他最近几周阅读了大量公开的 AI 开发数据后,认为到 2028 年底,递归自我改进(recursive self-improvement)发生的概率有 60%。 ... Jack Clark 将这一现象描述为「分形」式的向上向右趋势,即在不同分辨率和尺度上,都能观察到有意义的进展。他认为,AI 正在逐步接近端到端自动化研发的能力,一...

  • [7] Jack Clark | Import AIjack-clark.net

    AI systems are about to start building themselves. What does that mean? I’m writing this post because when I look at all the publicly available information I reluctantly come to the view that there’s a likely chance (60%+) that no-human-involved AI R&D – an...

  • [10] Behind the Curtain: Intelligence explosioninkl.com

    Anthropic, the AI lab whose identity is wrapped around warning the world about AI risk, is claiming "early signs" of AI not just coding its own products but building itself. Why it matters: Anthropic co-founder Jack Clark predicted this week that there's a...

  • [12] Will We See AI with Recursive Self Improvement in 2028? Likely Not.hashcollision.substack.com

    Will We See AI with Recursive Self Improvement in 2028? Likely Not. Jack Clark of Anthropic recently made a startling claim: “there’s a likely chance (60%+) that no-human-involved AI R&D - an AI system powerful enough that it could plausibly autonomously bu...