Jack Clark 的警告,重點不是「AI 會不會寫更多程式」。真正令人緊張的是:前沿 AI 系統背後的研發循環,可能逐步被自動化。換句話說,未來某個 AI 系統或許不只是協助研究,而是有能力參與建立、訓練,甚至改進自己的下一代,且幾乎不需要人類介入 [7]。
Clark 到底預測了什麼?
Anthropic 共同創辦人 Jack Clark 在 Import AI 中寫道,他「不情願地」形成一個判斷:到 2028 年底前,出現「無人類參與的 AI 研發」有相當可能性,機率或達 60% 以上 [7]。他所指的情境,是一個足夠強大的 AI 系統,已經能合理地自主打造自己的後繼系統 [
7]。
用白話說,這代表前沿 AI 研發可能從「AI 輔助研究」走向「端到端自動化研究」。現在常見的情況,是人類研究員使用模型來寫程式、設計實驗、分析結果;Clark 擔心的是,足夠強的模型可能自行完成開發下一代 AI 所需的關鍵步驟 [5][
7]。
什麼是「遞迴式自我改進」?
這類情境常被稱為「遞迴式自我改進」(recursive self-improvement):一個 AI 系統協助打造更強的 AI,而更強的新系統又能再協助打造下一個更強的系統 [5]。
如果這個循環帶來的是一層接一層的複利式提升,AI 進展速度就可能突然變得更快,也更難由人類持續掌握 [10]。因此,Clark 的預測不只是技術里程碑,而是控制權問題:打造更強 AI 的流程,是否會從正常的人類監督下滑出去 [
4][
7]。
為什麼這被視為重大風險?
核心風險是監督能力跟不上研發速度。若 AI 能在極少人類參與下設計、測試、訓練後繼系統,企業與政府在下一代更強模型誕生前,可能就少了進行安全、資安與對齊評估的機會 [4][
7]。
Clark 的警告也被連結到所謂「智慧爆炸」(intelligence explosion)的可能性:一旦 AI 能改善後續 AI 系統,能力進展可能快速加速 [10]。屆時,限制 AI 發展速度的瓶頸不再只是人類研究能力,而可能變成 AI 自己改善工具、方法與模型的能力 [
10]。
治理上的難題也很直接:制度通常比軟體慢。Clark 寫道,他不確定社會是否已準備好面對自動化 AI 研發所意味的變化 [7]。如果他的預測成真,安全測試、監管、企業內控與公眾理解,都必須追上一個可能更高速運轉的技術流程 [
4][
7]。
仍然有很大不確定性
Clark 的「60% 以上」是機率判斷,不是既成事實 [7]。也有人明確不同意他的時間表:一篇批評文章認為,到 2028 年出現完全無人類參與、端到端的遞迴式自我改進,機率低於 10%;但該文也承認,若時間拉長,這件事仍可能發生 [
12]。
技術上還有更深層的分歧。引述電腦科學家 Pedro Domingos 的報導指出,關鍵不只是 AI 能不能產生或修改軟體,而是這種能力能否帶來可靠且持續增加的回報;他認為,目前這一點尚未被清楚證明 [6]。
一句話結論
Clark 的 2028 預測之所以令人警惕,是因為它指向一個權力轉移:誰在控制前沿 AI 的創造過程?如果 AI 真的能自主進行 AI 研發、並打造後繼模型,問題就不只是創新變快,而是更強大的 AI 可能比人類監督、安全評估與治理機制適應得更快 [4][
7][
10]。






