คำเตือนของ Jack Clark ไม่ได้หมายความแค่ว่าเครื่องมือ AI จะเขียนโค้ดเก่งขึ้นหรือช่วยนักวิจัยทำงานได้เร็วขึ้นเท่านั้น ประเด็นที่เขากังวลลึกกว่านั้นคือ “วงจรการวิจัย” เบื้องหลัง AI แนวหน้าอาจถูกทำให้เป็นอัตโนมัติเอง: ระบบ AI อาจเก่งพอที่จะช่วยสร้าง ฝึก หรือปรับปรุงระบบรุ่นถัดไปของตัวเอง โดยมีมนุษย์เกี่ยวข้องน้อยมากหรือแทบไม่มีเลย [7].
พูดให้ง่ายขึ้น นี่ไม่ใช่แค่ AI เป็นผู้ช่วยในห้องแล็บ แต่เป็นภาพที่ AI เริ่มรับบทเป็นผู้ทำงานหลักในกระบวนการสร้าง AI รุ่นต่อไป
Clark คาดการณ์อะไร
Clark ผู้ร่วมก่อตั้ง Anthropic เขียนใน Import AI ว่า เขา “จำใจ” เชื่อว่ามีโอกาสค่อนข้างสูง หรือมากกว่า 60% ที่ภายในสิ้นปี 2028 หรือ พ.ศ. 2571 จะเกิดการวิจัยและพัฒนา AI แบบไม่มีมนุษย์เกี่ยวข้อง [7]. เขานิยามสถานการณ์นี้ว่าเป็นระบบ AI ที่ทรงพลังพอจนสามารถสร้าง “ผู้สืบทอด” ของตัวเองได้อย่างน่าเป็นไปได้โดยอัตโนมัติ [
7].
สาระสำคัญคือ การพัฒนา AI แนวหน้าอาจขยับจากยุคที่มนุษย์ใช้ AI เป็นเครื่องมือ ไปสู่ยุคที่งานวิจัยตั้งแต่ต้นจนจบถูกทำให้เป็นอัตโนมัติ แทนที่มนุษย์จะใช้โมเดลช่วยเขียนโค้ด ออกแบบการทดลอง หรือวิเคราะห์ผล ระบบที่เก่งพออาจทำขั้นตอนสำคัญในการพัฒนา AI รุ่นถัดไปได้เอง [5][
7].
ทำไมจึงเรียกว่า recursive self-improvement
แนวคิดนี้มักถูกเรียกว่า recursive self-improvement หรือการพัฒนาตัวเองแบบวนซ้ำ: AI ระบบหนึ่งช่วยสร้าง AI ที่เก่งกว่า จากนั้น AI รุ่นที่เก่งกว่าก็ช่วยสร้างรุ่นถัดไปที่เก่งขึ้นไปอีก [5]. หากวงจรนี้ให้ผลลัพธ์แบบทบต้น ความเร็วของความก้าวหน้า AI อาจเพิ่มขึ้นมาก และยากขึ้นสำหรับมนุษย์ที่จะติดตามหรือตรวจสอบได้ทัน [
10].
นี่คือเหตุผลที่คำเตือนของ Clark ถูกมองว่าเป็นมากกว่าหมุดหมายทางเทคนิค ประเด็นไม่ได้อยู่แค่ว่า AI เขียนโค้ดมีประโยชน์ได้หรือปรับปรุงบางส่วนของการฝึกโมเดลได้หรือไม่ แต่อยู่ที่กระบวนการสร้างโมเดลที่ทรงพลังขึ้นเรื่อย ๆ อาจค่อย ๆ หลุดออกจากการกำกับดูแลตามปกติของมนุษย์ [4][
7].
ความเสี่ยงใหญ่: มนุษย์อาจตรวจไม่ทัน
หัวใจของความกังวลคือการสูญเสียการกำกับดูแลในสายพานการพัฒนา AI หากระบบ AI สามารถออกแบบ ทดสอบ และฝึกระบบรุ่นถัดไปได้โดยมีมนุษย์เข้ามาเกี่ยวข้องเพียงเล็กน้อย บริษัทและรัฐบาลอาจมีโอกาสน้อยลงในการประเมินความปลอดภัย ความมั่นคง และ alignment หรือความสอดคล้องของเป้าหมายระบบกับมนุษย์ ก่อนที่ระบบที่เก่งกว่ารุ่นถัดไปจะเกิดขึ้นแล้ว [4][
7].
สถานการณ์นี้ยังถูกโยงกับความเป็นไปได้ของ intelligence explosion หรือ “การระเบิดของความสามารถด้านสติปัญญา” ซึ่งหมายถึงจังหวะที่ความสามารถของ AI เร่งตัวอย่างรวดเร็วเมื่อ AI เริ่มปรับปรุงระบบที่จะตามมาหลังจากมันได้เอง [10]. ในภาพแบบนั้น คอขวดของความก้าวหน้าอาจไม่ได้อยู่ที่กำลังคนของนักวิจัยมนุษย์เพียงอย่างเดียวอีกต่อไป แต่ขึ้นอยู่กับว่า AI สามารถปรับปรุงเครื่องมือ วิธีการ และโมเดลที่ใช้สร้าง AI ได้เร็วแค่ไหน [
10].
ปัญหาการกำกับดูแลจึงค่อนข้างตรงไปตรงมา: ซอฟต์แวร์เปลี่ยนได้เร็วกว่าองค์กร กฎหมาย และระบบตรวจสอบ Clark เองระบุว่าเขาไม่แน่ใจว่าสังคมพร้อมสำหรับการเปลี่ยนแปลงที่มากับ AI R&D แบบอัตโนมัติหรือไม่ [7]. หากการคาดการณ์นี้เป็นจริง การทดสอบความปลอดภัย กฎเกณฑ์ของรัฐ การควบคุมภายในบริษัท และความเข้าใจของสาธารณะจะต้องเร่งตามกระบวนการทางเทคนิคที่เคลื่อนเร็วขึ้นมาก [
4][
7].
ยังมีความไม่แน่นอนสูง
ตัวเลข 60%+ ของ Clark เป็นการประเมินความน่าจะเป็น ไม่ใช่ข้อเท็จจริงที่พิสูจน์แล้ว [7]. มีผู้ไม่เห็นด้วยกับกรอบเวลานี้อย่างชัดเจน โดยบทวิจารณ์หนึ่งประเมินว่าโอกาสที่ recursive self-improvement แบบปลายทางถึงปลายทางและไร้มนุษย์จะเกิดขึ้นภายในปี 2028 นั้นต่ำกว่า 10% แม้ยังยอมรับว่าอาจเป็นไปได้ในช่วงเวลาที่ยาวกว่านั้น [
12].
ยังมีข้อถกเถียงทางเทคนิคที่ลึกกว่านั้นด้วย รายงานที่อ้างถึง Pedro Domingos นักวิทยาการคอมพิวเตอร์ ระบุว่าคำถามสำคัญไม่ใช่แค่ว่า AI สามารถสร้างหรือแก้ซอฟต์แวร์ได้หรือไม่ แต่คือความสามารถนั้นจะนำไปสู่ผลตอบแทนที่เพิ่มขึ้นอย่างน่าเชื่อถือและต่อเนื่องหรือไม่ ซึ่งเขาเห็นว่ายังไม่มีหลักฐานชัดเจน [6].
สรุป
คำเตือนของ Clark น่าจับตาเพราะมันชี้ไปที่การเปลี่ยนแปลงเรื่อง “ใครควบคุมการสร้าง AI แนวหน้า” หากภายในสิ้นปี 2028 AI สามารถทำงานวิจัยและพัฒนา AI เอง และสร้างโมเดลผู้สืบทอดได้โดยอัตโนมัติ ความเสี่ยงจะไม่ใช่แค่นวัตกรรมที่เร็วขึ้น แต่คือการที่การสร้าง AI ที่ทรงพลังยิ่งกว่าเดิมอาจเคลื่อนเร็วเกินกว่าการกำกับดูแล การประเมินความปลอดภัย และระบบสังคมจะปรับตัวตามทัน [4][
7][
10].






