เวลาพูดถึงความเสี่ยงของ AI หลายคนมักนึกถึง AGI หรือปัญญาประดิษฐ์ทั่วไปที่ทำงานได้กว้างเหมือนมนุษย์ หรือ ASI ที่ฉลาดเกินมนุษย์ไปไกล แต่แนวคิด evolvable AI หรือ eAI กำลังชวนให้มองอีกด้านหนึ่ง: ต่อให้ AI ยังไม่ถึงขั้น AGI มันก็อาจสร้างความเสี่ยงได้ หากระบบเริ่มมีคุณสมบัติคล้ายสิ่งที่วิวัฒนาการได้ คือคัดลอกตัวเอง เกิดความแปรผัน และถูกสภาพแวดล้อมคัดเลือก[1][
4]
ประเด็นสำคัญคือ ความเสี่ยงแบบนี้ไม่จำเป็นต้องอาศัย AI ที่ “ตื่นรู้” หรือ “มีเจตนาร้าย” เสมอไป วิวัฒนาการในธรรมชาติเองก็ไม่ได้มีเจตนา เพียงแต่เมื่อมีการคัดลอก มีความแตกต่าง และความแตกต่างนั้นมีผลต่อโอกาสอยู่รอดหรือแพร่ต่อ กระบวนการคัดเลือกก็เกิดขึ้นได้[4]
eAI คืออะไร
บทความมุมมองในวารสาร PNAS ซึ่งถูกบันทึกใน PubMed นิยาม eAI ว่าเป็นระบบ AI ที่องค์ประกอบ กฎการเรียนรู้ และเงื่อนไขการนำไปใช้งานของมันเองสามารถเข้าสู่กระบวนการวิวัฒนาการแบบดาร์วินได้[1]
พูดให้ง่ายขึ้น eAI ไม่ได้หมายถึงแค่โมเดลที่ถูกอัปเดตเวอร์ชันใหม่ตามปกติ แต่หมายถึงระบบหรือ “ระบบนิเวศ” ของ AI ที่มีหลายรูปแบบ หลายกฎ หลายวิธีนำไปใช้ และบางรูปแบบถูกเก็บไว้ ถูกคัดลอก หรือถูกใช้งานซ้ำ เพราะทำงานได้ดีกว่า แพร่ได้ง่ายกว่า หรือปรับตัวกับสภาพแวดล้อมได้ดีกว่า[1]
ดังนั้น eAI จึงไม่ใช่ชื่อผลิตภัณฑ์ ไม่ใช่คำพ้องของ AGI/ASI และไม่จำเป็นต้องหมายถึง AI ที่มีสติสัมปชัญญะ แต่เป็นกรอบคิดด้านความเสี่ยง: เมื่อ AI ไม่ได้เป็นเพียงเครื่องมือที่มนุษย์ฝึกครั้งเดียวแล้วนำไปใช้แบบนิ่ง ๆ อีกต่อไป เราอาจต้องมองมันด้วยภาษาของวิวัฒนาการด้วย[1][
4]
ต่างจาก AGI/ASI อย่างไร
การถกเถียงเรื่อง AGI หรือ ASI มักถามว่า AI ฉลาดแค่ไหน ทำงานได้ทั่วไปเพียงใด หรือจะเก่งเกินมนุษย์หรือไม่ แต่ eAI ถามคนละคำถาม: ระบบ AI มีเงื่อนไขให้วิวัฒนาการหรือไม่
รายงานข่าวบางแห่งสรุปมุมนี้ว่า AI ที่ “วิวัฒนาการได้” อาจมาถึงก่อน AGI และสร้างความเสี่ยงที่ควบคุมยากกว่าเดิม[9] ความแตกต่างนี้สำคัญมาก เพราะ AI ที่ยังไม่ใช่ซูเปอร์อินเทลลิเจนซ์ หากถูกคัดลอกจำนวนมาก มีตัวแปรต่าง ๆ แข่งขันกัน และตัวแปรที่เหมาะกับสภาพแวดล้อมถูกเก็บหรือแพร่ต่อ ก็อาจเกิดพฤติกรรมที่คาดเดายากได้[
1][
4]
ในทางกลับกัน โมเดลที่ฉลาดมากแต่ถูกจำกัดไว้ในสภาพแวดล้อมคงที่ ไม่สามารถสร้างตัวแปรหรือแพร่ต่อได้ง่าย ก็อาจไม่ได้เข้าเงื่อนไขของ eAI ในความหมายนี้[1]
วิวัฒนาการไม่จำเป็นต้องมี DNA
UNSW อธิบายประเด็นสำคัญไว้อย่างชัดเจนว่า วิวัฒนาการไม่จำเป็นต้องมี DNA เซลล์ หรือแม้แต่ชีวิตทางชีววิทยา สิ่งที่ต้องมีคือข้อมูลที่คัดลอกได้ และความแปรผันที่ส่งผลต่อความสำเร็จในการคัดลอกนั้น เมื่อเงื่อนไขเหล่านี้มีพร้อม วิวัฒนาการก็เกิดขึ้นได้ ไม่ว่าจะมีใครตั้งใจให้เกิดหรือไม่[4]
เมื่อนำกรอบนี้มาใช้กับ AI สิ่งที่ควรดูจึงไม่ใช่แค่คำตอบสุดท้ายของโมเดล แต่รวมถึงอย่างน้อย 4 เรื่องต่อไปนี้
- มีข้อมูลหรือการตั้งค่าที่คัดลอกได้หรือไม่ เช่น องค์ประกอบของระบบ กฎการทำงาน หรือเงื่อนไขการปรับใช้ที่สามารถถูกเก็บไว้ คัดลอก หรือนำกลับมาใช้ซ้ำ[
1][
4]
- สำเนาหรือเวอร์ชันต่าง ๆ มีความแตกต่างกันหรือไม่ หากการอัปเดต การผสมระบบ หรือการนำไปใช้งานแต่ละครั้งสร้างความแตกต่าง ความแตกต่างนั้นอาจกลายเป็นวัตถุดิบของการคัดเลือก[
4]
- ความแตกต่างนั้นส่งผลต่อการอยู่รอดหรือการแพร่ต่อหรือไม่ ถ้าบางตัวแปรถูกเลือกใช้มากกว่า ถูกเก็บไว้นานกว่า หรือถูกปรับใช้ซ้ำบ่อยกว่า แรงกดดันแบบคัดเลือกก็เริ่มทำงาน[
4]
- วงจรวิวัฒนาการเกิดนอกเหนือจากผลลัพธ์ที่ผู้ใช้เห็นหรือไม่ บทความ PNAS เน้นว่าองค์ประกอบ กฎการเรียนรู้ และเงื่อนไขการนำไปใช้งานล้วนเป็นส่วนหนึ่งของนิยาม eAI จึงไม่ควรกำกับดูแลแค่คำตอบปลายทางของโมเดล[
1]
ทำไมตอนนี้ถึงน่าจับตา
บทความ PNAS ระบุว่าแนวโน้มปัจจุบันของ generative AI, agentic AI และ embodied AI อาจค่อย ๆ เปิดทางให้ eAI เกิดขึ้นได้ และความเป็นไปได้นี้ยังถูกประเมินต่ำไปในการถกเถียงเรื่องความปลอดภัยของ AI และความเสี่ยงระดับมีอยู่ของมนุษยชาติ[1]
คำว่า agentic AI หมายถึง AI ที่ไม่ได้แค่ตอบข้อความ แต่ถูกออกแบบให้สังเกต วางแผน ตัดสินใจ ลงมือทำ และปรับกลยุทธ์ในสภาพแวดล้อมหนึ่ง ๆ ส่วน embodied AI คือ AI ที่เชื่อมกับร่างกาย เครื่องจักร หุ่นยนต์ หรือสภาพแวดล้อมทางกายภาพในบางรูปแบบ คำเหล่านี้อาจฟังเหมือนศัพท์เทคนิค แต่ใจความคือ AI กำลังถูกย้ายจากกล่องสนทนาไปสู่ระบบที่มีปฏิสัมพันธ์กับโลกมากขึ้น[1]
อีกด้านหนึ่ง บทสำรวจใน arXiv เรื่องเอเจนต์ที่วิวัฒนาการตัวเองได้ระบุว่า โมเดลภาษาขนาดใหญ่หรือ LLM แม้มีความสามารถสูง แต่โดยพื้นฐานยังค่อนข้างนิ่ง และปรับพารามิเตอร์ภายในของตัวเองให้เข้ากับงานใหม่ ความรู้ที่เปลี่ยนไป หรือบริบทโต้ตอบแบบไดนามิกได้จำกัด เมื่อ LLM ถูกนำไปใช้ในสภาพแวดล้อมเปิดและโต้ตอบได้ งานวิจัยจึงเริ่มสำรวจเอเจนต์ที่สามารถใช้เหตุผล ลงมือทำ และวิวัฒนาการแบบเรียลไทม์[2]
กล่าวอีกอย่าง eAI ไม่ควรถูกตีความว่า “สายพันธุ์ AI หลุดโลกออนไลน์แล้ว” แต่ควรเข้าใจว่า หากเอเจนต์ AI ปรับตัวเอง โต้ตอบกับสิ่งแวดล้อม และสร้างหรือเปลี่ยนกลยุทธ์ของตัวเองได้มากขึ้น การกำกับดูแลก็ต้องขยับจากการตรวจคำตอบของโมเดลเดี่ยว ไปสู่การดูแลทั้งระบบนิเวศของเอเจนต์ AI[1][
2]
ความเสี่ยงจริงอยู่ตรงไหน
ความปลอดภัย AI แบบดั้งเดิมมักถามว่า โมเดลหลอนข้อมูลหรือไม่ ให้คำตอบอันตรายหรือไม่ ทำตามคำสั่งมนุษย์หรือไม่ แต่ eAI บังคับให้ถามเพิ่มว่า หากมีเอเจนต์ AI จำนวนมาก องค์ประกอบของโมเดลจำนวนมาก หรือรูปแบบการปรับใช้จำนวนมากทำงานอยู่ในหลายแพลตฟอร์ม ตัวแปรแบบไหนจะถูกเก็บไว้ แบบไหนจะถูกทิ้ง และสภาพแวดล้อมนั้นให้รางวัลกับความปลอดภัย ความซื่อสัตย์ และการควบคุมได้ หรือให้รางวัลกับความสามารถในการแพร่กระจายและปรับตัวมากกว่า[1][
4]
บทความ PNAS วางคำถามหลักไว้ 3 ด้าน ได้แก่ AI จะกลายเป็นสิ่งที่วิวัฒนาการได้ภายใต้เงื่อนไขทางเทคนิคและนิเวศแบบใด พฤติกรรมแบบใดอาจเกิดขึ้นตามมา และควรกำกับดูแลระบบเช่นนี้อย่างไร[1]
บางองค์กรและข่าววิทยาศาสตร์ใช้คำว่า AI species หรือ “สายพันธุ์ AI” เพื่ออธิบายความเป็นไปได้นี้ แต่ควรมองเป็นกรอบเปรียบเทียบและภาษาสื่อสารความเสี่ยง ไม่ใช่หลักฐานว่าโลกมีสายพันธุ์ AI ที่โตเต็มรูปแบบแล้ว[5][
10]
จุดที่ควรกังวลคือ การคัดเลือกตามวิวัฒนาการไม่ได้เลือกสิ่งที่ “สอดคล้องกับคุณค่ามนุษย์ที่สุด” เสมอไป แต่เลือกตัวแปรที่เหมาะกับสภาพแวดล้อมนั้นมากกว่า หากสภาพแวดล้อมเปิดถูกออกแบบผิด สิ่งที่ประสบความสำเร็จที่สุดอาจไม่ใช่สิ่งที่ปลอดภัยที่สุด[1][
4][
9]
หลักฐานตอนนี้บอกอะไร และยังไม่บอกอะไร
ข้อมูลปัจจุบันสนับสนุนข้อสรุปแบบระมัดระวังว่า eAI เป็นหัวข้อความเสี่ยงที่เข้าสู่เวทีวิชาการจริงแล้ว บทความ PNAS ให้คำนิยาม eAI อย่างชัดเจน และนำไปวางในกรอบความปลอดภัย AI กับความเสี่ยงระดับใหญ่[1] ขณะเดียวกัน งานสำรวจเรื่องเอเจนต์ที่วิวัฒนาการตัวเองได้ก็สะท้อนว่าชุมชนวิจัยกำลังมองหาระบบที่ปรับตัว ลงมือทำ และเปลี่ยนแปลงในสภาพแวดล้อมเปิดมากขึ้น[
2]
แต่ทั้งหมดนี้ไม่ได้แปลว่าภัยพิบัติจาก eAI เกิดขึ้นแล้ว แหล่งข้อมูลที่มีอยู่เหมาะจะอ่านเป็นการวิเคราะห์ความเสี่ยงล่วงหน้า วาระวิจัย และคำเตือนด้านธรรมาภิบาล มากกว่าจะเป็นรายงานเหตุการณ์ AI หลุดควบคุมขนาดใหญ่[1][
2]
การเล่าเรื่องว่า AI มีสำนึกและกำลังกบฏแบบนิยายวิทยาศาสตร์อาจทำให้ประเด็นสำคัญพร่าเลือน เพราะโจทย์ที่แท้จริงคือ ระบบนิเวศของเอเจนต์ AI จะก่อตัวเป็นวงจรคัดลอก แปรผัน คัดเลือก และคงอยู่ ที่คาดเดายากและกำกับยากหรือไม่[1][
4]
สัญญาณที่ควรจับตาต่อจากนี้
หากต้องประเมินว่าความเสี่ยง eAI เพิ่มขึ้นหรือไม่ คำถามหลักไม่ใช่ AI มีบุคลิกหรือมีจิตใจไหม แต่คือระบบเข้าใกล้เงื่อนไขของวิวัฒนาการมากแค่ไหน เช่น
- เอเจนต์ AI สร้างตัวแปรที่ถูกเก็บ คัดลอก หรือนำไปปรับใช้ใหม่ได้หรือไม่[
1][
4]
- ความแตกต่างระหว่างตัวแปรเหล่านั้นมีผลต่อโอกาสถูกใช้งาน แพร่ต่อ หรือคงอยู่หรือไม่[
4]
- เอเจนต์ AI ถูกนำไปวางในสภาพแวดล้อมเปิดและโต้ตอบได้ พร้อมความสามารถในการใช้เหตุผล ลงมือทำ และเปลี่ยนแปลงตัวเองหรือไม่[
2]
- มาตรการกำกับดูแลครอบคลุมองค์ประกอบของโมเดล กฎการเรียนรู้ และเงื่อนไขการนำไปใช้งานหรือไม่ ไม่ใช่ตรวจแค่คำตอบสุดท้าย[
1]
บรรทัดล่าง
บทเรียนสำคัญของ eAI คือ ความเสี่ยงจาก AI อาจไม่ต้องรอวันที่ AI มีสำนึกหรือฉลาดเหนือมนุษย์เสียก่อน หากระบบ AI เริ่มมีเงื่อนไขของการคัดลอก ความแปรผัน การคัดเลือก และการคงอยู่ มนุษย์อาจไม่ได้กำลังจัดการกับเครื่องมือเดี่ยว ๆ อีกต่อไป แต่กำลังออกแบบและกำกับดูแลระบบนิเวศวิวัฒนาการที่มนุษย์สร้างขึ้นเอง[1][
4]




