La prédiction 2028 de Jack Clark : quand l’IA pourrait bâtir son propre successeur
Jack Clark évalue à plus de 60 % la probabilité qu’une R&D en IA sans intervention humaine — capable de construire un successeur — apparaisse d’ici à fin 2028 [7]. La crainte centrale est l’auto amélioration récursive : l’IA pourrait accélérer la création de modèles plus puissants plus vite que les contrôles humains...
Jack Clark’s 2028 AI Warning: The Risk of AI Building Its Own SuccessorAI-generated editorial illustration of recursive self-improvement in AI.
Prompt IA
Create a landscape editorial hero image for this Studio Global article: Jack Clark’s 2028 AI Warning: The Risk of AI Building Its Own Successor. Article summary: Anthropic co founder Jack Clark says there is a 60%+ chance that by the end of 2028, AI systems could conduct no human involved AI R&D — plausibly building successor models without humans.. Topic tags: ai, ai safety, anthropic, recursive self improvement, artificial general intelligence. Reference image context from search candidates: Reference image 1: visual subject "Anthropic co-founder Jack Clark predicts that AI R&D could be fully automated by 2028, with a 60%+ chance of no human involvement. AI is already handling code writing, model traini" source context "Anthropic co-founder predicts AI R&D will become fully automated by 2028. | KuCoin" Reference image 2: visual subject "A screenshot of Jack Clark's Twitter posts discus
openai.com
Jack Clark ne dit pas seulement que l’IA écrira davantage de code. Son alerte porte sur un seuil bien plus sensible : le moment où la recherche qui fabrique les modèles d’IA les plus avancés pourrait être elle-même automatisée.
Dans Import AI, le cofondateur d’Anthropic estime qu’il existe une « likely chance (60%+) » — autrement dit plus de 60 % de probabilité selon lui — que la R&D en IA « sans intervention humaine » devienne possible d’ici à la fin de 2028. Il définit ce seuil comme l’apparition d’un système d’IA assez puissant pour pouvoir plausiblement construire de manière autonome son propre successeur [7].
Ce point est crucial : il ne s’agit pas d’un assistant de programmation un peu plus performant, mais d’une possible automatisation de la boucle de recherche qui produit les générations suivantes de modèles de pointe [4][7].
Ce que Jack Clark prédit exactement
La prédiction de Clark comporte deux idées distinctes.
D’abord, il avance une probabilité supérieure à 60 % que la R&D en IA puisse devenir « sans intervention humaine » d’ici fin 2028 [7]. Ensuite, le seuil qui l’intéresse n’est pas une simple aide à la recherche : c’est un système capable de « plausiblement » bâtir de façon autonome son propre successeur [7].
Studio Global AI
Search, cite, and publish your own answer
Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.
Jack Clark évalue à plus de 60 % la probabilité qu’une R&D en IA sans intervention humaine — capable de construire un successeur — apparaisse d’ici à fin 2028 [7].
La crainte centrale est l’auto amélioration récursive : l’IA pourrait accélérer la création de modèles plus puissants plus vite que les contrôles humains, les tests de sûreté et la gouvernance ne s’adaptent [4][10].
Ce calendrier reste contesté : une critique juge une version entièrement autonome improbable d’ici 2028, à moins de 10 % [12].
Les gens demandent aussi
Câu trả lời ngắn gọn cho "La prédiction 2028 de Jack Clark : quand l’IA pourrait bâtir son propre successeur" là gì?
Jack Clark évalue à plus de 60 % la probabilité qu’une R&D en IA sans intervention humaine — capable de construire un successeur — apparaisse d’ici à fin 2028 [7].
Những điểm chính cần xác nhận đầu tiên là gì?
Jack Clark évalue à plus de 60 % la probabilité qu’une R&D en IA sans intervention humaine — capable de construire un successeur — apparaisse d’ici à fin 2028 [7]. La crainte centrale est l’auto amélioration récursive : l’IA pourrait accélérer la création de modèles plus puissants plus vite que les contrôles humains, les tests de sûreté et la gouvernance ne s’adaptent [4][10].
Tôi nên làm gì tiếp theo trong thực tế?
Ce calendrier reste contesté : une critique juge une version entièrement autonome improbable d’ici 2028, à moins de 10 % [12].
Tôi nên khám phá chủ đề liên quan nào tiếp theo?
Tiếp tục với "Vì sao Bitcoin vẫn bám quanh 80.000 USD dù ETF giao ngay bị rút vốn?" để có góc nhìn khác và trích dẫn bổ sung.
Anthropic expert predicts AI will automate its own research and development by 2028 With autonomous AI research projected by 2028, the era of recursive self-improvement threatens to outpace human oversight and control. ... The possibility of artificial inte...
Anthropic联创定下deadline:2028年AI实现自我进化,没有人类了 (来源:机器之心Pro) ... Anthropic 联合创始人 Jack Clark 发帖称,他最近几周阅读了大量公开的 AI 开发数据后,认为到 2028 年底,递归自我改进(recursive self-improvement)发生的概率有 60%。 也就是说,AI 系统可能很快就能自主构建和改进自己,进入自我加速的阶段。 ... Jack Clark 将这一现象描述为「分形」式的向上向右趋势,即在不同分辨率和尺度上,都...
Anthropic联创定下deadline:2028年AI实现自我进化,没有人类了 (来源:机器之心Pro) ... Anthropic 联合创始人 Jack Clark 发帖称,他最近几周阅读了大量公开的 AI 开发数据后,认为到 2028 年底,递归自我改进(recursive self-improvement)发生的概率有 60%。 ... Jack Clark 将这一现象描述为「分形」式的向上向右趋势,即在不同分辨率和尺度上,都能观察到有意义的进展。他认为,AI 正在逐步接近端到端自动化研发的能力,一...
Des articles consacrés à cette alerte décrivent ce scénario comme un passage vers une automatisation de bout en bout de la recherche et développement des modèles d’IA de pointe [4][5]. Un autre résumé présente la prédiction comme l’idée qu’un modèle d’IA pourrait entraîner entièrement son successeur d’ici fin 2028 [10].
En clair : Clark redoute un basculement où l’IA ne se contente plus d’aider les humains à construire de meilleures IA, mais prend en charge une part suffisante du processus pour produire la génération suivante avec peu ou pas de participation humaine [7].
Que signifie « construire son successeur » ?
Un « successeur » désigne ici le prochain système, plus capable, dans une séquence de développement de modèles. L’inquiétude de Clark est qu’une IA suffisamment avancée puisse participer aux étapes critiques — ou les automatiser — pour créer ce modèle suivant [7].
Il faut donc distinguer ce scénario de l’usage déjà familier d’une IA comme copilote de code. Écrire ou corriger du code n’est qu’une tâche dans un ensemble beaucoup plus vaste. Le scénario discuté concerne toute la chaîne de R&D : conception, entraînement, évaluation et amélioration de modèles de frontière [4][5][7].
Autre nuance importante : Clark n’affirme pas que ce seuil est déjà franchi. Il formule une prévision probabiliste sur ce qui pourrait arriver d’ici à la fin de 2028 [7].
Pourquoi on parle d’auto-amélioration récursive
Le mécanisme est souvent appelé auto-amélioration récursive : une IA aide à créer une IA plus capable, qui peut ensuite aider à créer une IA encore plus capable [5].
La version la plus risquée de cette boucle ne se résume pas à « l’IA améliore des logiciels ». Elle implique un effet cumulatif : à chaque génération, le système qui améliore l’IA devient lui-même plus performant. Les discussions autour de l’alerte de Clark relient ce scénario au risque d’« explosion d’intelligence », c’est-à-dire une accélération des capacités quand les IA commencent à améliorer les systèmes qui leur succèdent [10].
C’est pourquoi cette prédiction dépasse le simple jalon technique. Si le principal goulot d’étranglement du progrès en IA se déplace des chercheurs humains vers des systèmes d’IA qui améliorent d’autres IA, le rythme pourrait devenir bien plus difficile à suivre, à tester et à encadrer [4][10].
Où se situe le risque majeur
Le risque n’est pas l’image de science-fiction d’un robot qui en assemble un autre. Il se situe plutôt dans une chaîne de production de modèles avancés qui deviendrait plus rapide, plus autonome et moins lisible pour les humains [4][7][10].
Trois inquiétudes en découlent :
Moins de points d’arrêt humains. Si les systèmes d’IA peuvent mener seuls une grande partie de la recherche, de l’entraînement et de l’amélioration, les chercheurs et les entreprises pourraient avoir moins de temps pour évaluer la sûreté avant l’apparition d’un système plus puissant [4][7].
Une accélération des capacités. L’alerte de Clark est liée à l’idée que le progrès pourrait s’emballer lorsque l’IA commence à améliorer l’IA, dynamique décrite dans certains articles comme un risque d’« explosion d’intelligence » [10].
Une pression accrue sur la gouvernance. Clark écrit que les implications sont considérables et qu’il n’est pas certain que la société soit prête aux changements qu’impliquerait une R&D en IA automatisée [7].
Autrement dit, le danger principal n’est pas seulement d’innover plus vite. Il est de voir la création de systèmes plus puissants avancer plus rapidement que les mécanismes humains de supervision, de tests de sûreté, de régulation et de compréhension publique [4][7][10].
Ce qui reste très incertain
Le chiffre de Clark reste un jugement probabiliste, pas un fait établi [7]. Et le calendrier fait débat.
Une critique de cette prévision estime qu’une auto-amélioration récursive entièrement autonome et de bout en bout d’ici 2028 est improbable, avec une probabilité inférieure à 10 %, tout en reconnaissant qu’un scénario de ce type pourrait devenir possible sur une période plus longue, jusqu’en 2036 [12].
Il existe aussi un désaccord technique sur la question de savoir si l’auto-amélioration récursive produirait réellement des gains de plus en plus rapides. Un article citant l’informaticien Pedro Domingos souligne que le point clé n’est pas seulement de savoir si des systèmes d’IA peuvent générer ou modifier du logiciel, mais si cela entraîne des rendements croissants fiables ; selon lui, cela n’a pas été clairement démontré [6].
Ces distinctions comptent. « L’IA aide la recherche en IA », « l’IA automatise la majeure partie de la R&D en IA » et « l’IA s’améliore elle-même assez vite pour provoquer une explosion d’intelligence » sont des affirmations liées, mais elles ne disent pas exactement la même chose [6][12]. Clark alerte surtout sur la version la plus lourde de conséquences de cette progression [7].
Le point à retenir
Selon Jack Clark, il est plus probable qu’improbable que, d’ici à la fin de 2028, des systèmes d’IA puissent mener une R&D en IA sans intervention humaine et plausiblement construire leurs propres successeurs [7].
S’il a raison, l’enjeu n’est pas seulement une nouvelle accélération technologique. C’est le risque que la fabrication d’IA plus puissantes commence à aller plus vite que la supervision humaine, les tests de sûreté et les règles capables de l’encadrer [4][10]. La réserve essentielle : cette prévision reste contestée, et plusieurs critiques jugent le calendrier de 2028 trop ambitieux [12].
Không kích ở Gaza phơi bày điểm yếu của lệnh ngừng bắn do Mỹ làm trung gian
Các cuộc không kích của Israel cho thấy lệnh ngừng bắn ở Gaza mong manh đến đâu
AI systems are about to start building themselves. What does that mean? I’m writing this post because when I look at all the publicly available information I reluctantly come to the view that there’s a likely chance (60%+) that no-human-involved AI R&D – an...
Anthropic, the AI lab whose identity is wrapped around warning the world about AI risk, is claiming "early signs" of AI not just coding its own products but building itself. Why it matters: Anthropic co-founder Jack Clark predicted this week that there's a...
Will We See AI with Recursive Self Improvement in 2028? Likely Not. Jack Clark of Anthropic recently made a startling claim: “there’s a likely chance (60%+) that no-human-involved AI R&D - an AI system powerful enough that it could plausibly autonomously bu...