ถ้ามองผิวเผิน เรื่องนี้ดูย้อนแย้งไม่น้อย แซม อัลต์แมน ซีอีโอของ OpenAI เคยวิจารณ์ Anthropic ว่าจำกัดการเข้าถึงโมเดลไซเบอร์ Mythos ให้เฉพาะผู้ใช้บางกลุ่ม และ India Today รายงานว่าเขาเรียกแนวทางนั้นว่า ‘fear-based marketing’ หรือการตลาดที่อาศัยความกลัว [1][
11] แต่ไม่นานหลังจากนั้น OpenAI เองก็ประกาศว่า GPT-5.5-Cyber จะไม่ได้เปิดให้ทุกคนใช้ทันที แต่จะเริ่มจากกลุ่ม ‘critical cyber defenders’ ก่อน [
22][
30]
คำถามจึงไม่ใช่แค่ว่า OpenAI กลับลำหรือไม่ แต่คือ AI ด้านความมั่นคงไซเบอร์ที่มีศักยภาพสูงควรถูกเปิดให้ใครใช้ ภายใต้เงื่อนไขแบบใด และเร็วแค่ไหน เพราะเครื่องมือแบบเดียวกันอาจช่วยทีมรักษาความปลอดภัยปิดช่องโหว่ได้เร็วขึ้น หรืออาจเพิ่มขีดความสามารถให้ผู้โจมตีได้เช่นกัน [28][
29]
สิ่งที่ยืนยันได้: OpenAI ก็เลือกทาง ‘คัดกรองก่อนเปิดใช้’
จุดเริ่มของกระแสวิจารณ์อยู่ที่ Mythos ของ Anthropic รายงานหลายแห่งระบุว่า Anthropic เปิดให้เข้าถึงโมเดลไซเบอร์ดังกล่าวเฉพาะผู้ใช้บางกลุ่ม และอัลต์แมนวิจารณ์แนวทางนั้น [1][
11]
ต่อมา OpenAI ประกาศแนวทางที่คล้ายกันสำหรับ GPT-5.5-Cyber โดย Business Today และ Techloy รายงานว่า อัลต์แมนโพสต์บน X เมื่อ 30 เมษายน 2026 ว่า OpenAI จะเริ่มทยอยเปิดใช้ GPT-5.5-Cyber ให้กับ ‘critical cyber defenders’ ภายในไม่กี่วัน [22][
30] TechCrunch ยังรายงานด้วยว่า OpenAI มีขั้นตอนสมัครใช้งานที่ให้ผู้ขอเข้าถึงส่งข้อมูลคุณสมบัติและแผนการใช้งานก่อน [
1]
ด้วยเหตุนี้ ประเด็นถกเถียงจึงไม่ได้อยู่ที่การจำกัดการเข้าถึงเพียงอย่างเดียว แต่อยู่ที่ลำดับเหตุการณ์: อัลต์แมนเพิ่งวิจารณ์ Anthropic แล้ว OpenAI ก็ใช้โครงสร้างที่ดูคล้ายกัน The Register จึงหยิบยกเรื่องนี้ขึ้นมาว่า OpenAI กำลังจำกัด GPT-5.5-Cyber ให้กับกลุ่มนักป้องกันไซเบอร์ที่คัดเลือกมา หลังจากเพิ่งโจมตี Anthropic ในประเด็นใกล้เคียงกัน [6]
เหตุผลของ OpenAI: ให้ฝ่ายป้องกันก่อน ลดโอกาสถูกใช้ผิดทาง
คำอธิบายหลักของ OpenAI คือแนวคิด ‘trusted access’ หรือการเข้าถึงโดยผู้ใช้ที่เชื่อถือได้ รายงานระบุว่าอัลต์แมนกล่าวว่า OpenAI จะทำงานร่วมกับทั้งระบบนิเวศและรัฐบาล เพื่อหาวิธีจัดการการเข้าถึงด้านไซเบอร์ที่เชื่อถือได้ [22][
30]
แนวคิดนี้เชื่อมกับโครงการ Trusted Access for Cyber หรือ TAC ของ OpenAI เอง บริษัทอธิบายว่า TAC มีเป้าหมายเพื่อปลดล็อกศักยภาพเชิงป้องกันของความสามารถไซเบอร์ขั้นสูง ขณะเดียวกันก็ลดความเสี่ยงจากการนำไปใช้ในทางที่ผิด [29] OpenAI ยังระบุว่าจะขยาย TAC ไปยังนักป้องกันรายบุคคลที่ผ่านการยืนยันตัวตนหลายพันคน และทีมหลายร้อยทีมที่มีหน้าที่ป้องกันซอฟต์แวร์สำคัญ [
28]
ดังนั้น การเปิด GPT-5.5-Cyber แบบจำกัดจึงไม่ใช่มาตรการโดดเดี่ยว แต่เข้ากับแนวทางที่ OpenAI วางไว้ก่อนหน้า นั่นคือ ความสามารถไซเบอร์ที่ทรงพลังขึ้นควรถูกปล่อยให้ผู้ใช้ที่ผ่านการตรวจสอบ โดยเฉพาะฝ่ายป้องกัน ก่อนจะขยายวงกว้างกว่าเดิม [28][
29]
ทำไม AI ไซเบอร์ถึงอ่อนไหวกว่าเครื่องมือ AI ทั่วไป
เหตุผลสำคัญคือความสามารถด้านไซเบอร์มักเป็นแบบสองคม ฟังก์ชันเดียวกันอาจช่วยทั้งคนป้องกันระบบและคนพยายามเจาะระบบ TechCrunch รายงานว่า GPT-5.5-Cyber สามารถทำงานอย่างการทดสอบเจาะระบบ การระบุช่องโหว่ และการใช้ประโยชน์จากช่องโหว่ได้ [1] ส่วน Datagrom รายงานว่าเครื่องมือนี้ยังสามารถทำ reverse engineering มัลแวร์ได้ด้วย [
14]
สำหรับทีมรักษาความปลอดภัย ความสามารถเหล่านี้อาจช่วยให้พบปัญหาเร็วขึ้น วิเคราะห์ช่องโหว่ได้ลึกขึ้น และอุดช่องโหว่ก่อนเกิดความเสียหาย แต่ถ้าผู้ใช้ไม่มีสิทธิ์หรือมีเจตนาร้าย เครื่องมือแบบเดียวกันก็อาจถูกใช้เพื่อเพิ่มศักยภาพการโจมตีได้เช่นกัน
OpenAI เองอธิบายว่า ความมั่นคงไซเบอร์เป็นหนึ่งในพื้นที่ที่ความก้าวหน้าของ AI สามารถเสริมความแข็งแรงให้ระบบนิเวศโดยรวมได้อย่างมีนัยสำคัญ แต่ก็อาจนำความเสี่ยงใหม่เข้ามาพร้อมกัน บริษัทจึงเสนอ TAC เพื่อใช้ศักยภาพเชิงป้องกัน เช่น การเร่งค้นหาและแก้ไขช่องโหว่ พร้อมลดโอกาสนำไปใช้ผิดทาง [29]
ในบริบทนี้ การจำกัดการเข้าถึงจึงอาจถูกมองได้ว่าเป็นกลไกจัดการความเสี่ยงมากกว่ากลยุทธ์ผูกขาดเพียงอย่างเดียว ยิ่งโมเดลช่วยงานที่ผู้โจมตีก็อยากได้ เช่น การทดสอบเจาะระบบหรือการวิเคราะห์ช่องโหว่ OpenAI ก็ยิ่งมีแรงจูงใจที่จะเปิดให้ผู้ป้องกันที่ตรวจสอบแล้วก่อน มากกว่าจะเปิดสาธารณะทันที [1][
29]
แล้วอัลต์แมนวิจารณ์ Anthropic เพราะอะไร
จุดที่ต้องระวังคือ ข้อมูลสาธารณะยังไม่เพียงพอที่จะยืนยันแรงจูงใจภายในของอัลต์แมน หรือบอกได้แน่ชัดว่าเขาเปลี่ยนความเห็นอย่างไร การตีความแบบผ่อนปรนที่สุดคือ เขาอาจไม่ได้คัดค้านการจำกัดการเข้าถึงในตัวมันเอง แต่อาจคัดค้านวิธีที่ Anthropic สื่อสารหรือวางตำแหน่ง Mythos ซึ่งสอดคล้องกับถ้อยคำ ‘fear-based marketing’ ที่ India Today รายงาน [11]
อย่างไรก็ตาม แม้จะตีความเช่นนั้น ข้อเท็จจริงก็ยังคงอยู่: OpenAI เลือกใช้โมเดลการเข้าถึงแบบคัดกรองเช่นกัน บริษัทกล่าวว่าจะเปิด GPT-5.5-Cyber ให้ ‘critical cyber defenders’ ก่อน และ TechCrunch รายงานว่าผู้ต้องการเข้าถึงต้องส่งข้อมูลคุณสมบัติและแผนการใช้งาน [1][
22]
ดังนั้น เสียงวิจารณ์ต่อ OpenAI ไม่ได้จำเป็นต้องหมายความว่าเหตุผลด้านความปลอดภัยของบริษัทไม่มีน้ำหนัก แต่เป็นคำถามเรื่องความสม่ำเสมอระหว่างคำพูดกับการกระทำมากกว่า
Anthropic กับ OpenAI เหมือนกันทุกอย่างหรือไม่
ยังไม่ควรสรุปว่านโยบายของทั้งสองบริษัทเหมือนกันทุกประการ จากข้อมูลที่เปิดเผยต่อสาธารณะ เรายังยืนยันไม่ได้ว่าเกณฑ์คัดกรองผู้ใช้ ข้อจำกัดทางเทคนิค ระบบติดตามการใช้งาน หรือขอบเขตงานที่อนุญาตของทั้งสองบริษัทเหมือนกันหรือไม่
แต่ถ้ามองจากภายนอก โครงสร้างหลักใกล้เคียงกันมาก: โมเดลไซเบอร์ที่มีความสามารถสูงไม่ได้ถูกเปิดให้ผู้ใช้ทั่วไปทันที แต่ให้กลุ่มที่คัดเลือกหรือผ่านการตรวจสอบก่อน [1][
6][
22]
จุดที่ OpenAI พยายามแยกตัวเองออกมาคือการอธิบายผ่านโครงการ TAC ซึ่งมีกรอบเป็นทางการกว่า OpenAI ระบุว่าจะขยายโครงการนี้ไปยังนักป้องกันที่ยืนยันตัวตนแล้วและทีมที่ดูแลซอฟต์แวร์สำคัญ ขณะที่ GPT-5.5-Cyber ก็ถูกนำเสนอว่าเป็นโมเดลที่จะเริ่มจากผู้ป้องกันไซเบอร์ที่เชื่อถือได้ [22][
28]
พูดให้พอดีที่สุดคือ ยังไม่ควรบอกว่าสองบริษัทใช้นโยบายเดียวกันทุกข้อ แต่พูดได้ว่าทั้งคู่กำลังขยับเข้าหาโมเดล ‘ให้ผู้ใช้ที่ตรวจสอบแล้วก่อน’ สำหรับ AI ไซเบอร์ที่มีความเสี่ยงสูง [1][
6]
สรุป: เหตุผลด้านความปลอดภัยชัด แต่ปัญหาการสื่อสารยังอยู่
จากข้อมูลที่เปิดเผย เหตุผลโดยตรงที่สุดที่ OpenAI จำกัดการเข้าถึง GPT-5.5-Cyber คือความเสี่ยงแบบสองทางของ AI ด้านไซเบอร์ บริษัทอธิบายว่าความสามารถเหล่านี้ช่วยเร่งการค้นพบและแก้ไขช่องโหว่ได้ แต่ก็อาจถูกใช้ผิดทาง จึงใช้ TAC เพื่อให้ผู้ป้องกันที่ตรวจสอบแล้วเข้าถึงก่อน [28][
29]
แต่สิ่งที่ยังตอบไม่ได้จากข้อมูลสาธารณะคือ อัลต์แมนคิดอย่างไรภายในเมื่อวิจารณ์ Anthropic แล้ว OpenAI กลับเลือกแนวทางคล้ายกัน สิ่งที่ยืนยันได้มีเพียงว่า OpenAI เคยวิจารณ์การจำกัด Mythos ของ Anthropic ก่อนจะจำกัดการเปิดใช้ GPT-5.5-Cyber โดยให้เหตุผลเรื่องการเข้าถึงที่เชื่อถือได้และการให้ฝ่ายป้องกันก่อน [1][
22][
30]
เพราะฉะนั้น กรณีนี้ไม่ควรถูกลดทอนเหลือแค่คำว่า ‘ย้อนแย้ง’ หรือ ‘หน้าไหว้หลังหลอก’ อย่างเดียว ในเชิงนโยบาย มันอาจเป็นมาตรการความปลอดภัยที่สมเหตุสมผลสำหรับเครื่องมือที่ใช้ได้ทั้งป้องกันและโจมตี แต่ในเชิงการสื่อสาร OpenAI ก็หนีไม่พ้นคำถามว่าเหตุใดจึงเดินบนเส้นทางที่คล้ายกับสิ่งที่ตนเองเพิ่งวิจารณ์ไปไม่นาน




