AI ทำให้การหลอกลวงดูแนบเนียนขึ้น เพราะสิ่งที่เราเคยใช้ตัดสินความน่าเชื่อถือ เช่น เสียงของคนรู้จัก ใบหน้าของหัวหน้า ชื่อบัญชีที่ดูเป็นทางการ หรือข้อความที่เขียนเหมือนคนในครอบครัว อาจถูกปลอมแปลงได้ การฉ้อโกงด้วย AI อาจใช้ทั้งตัวตนปลอม ดีปเฟก และกลวิธีทางจิตวิทยาหรือ social engineering ส่วนดีปเฟกสามารถใช้ภาพ วิดีโอ หรือเสียงที่ AI สร้างขึ้นเพื่อสวมรอยเป็นคนที่เราวางใจ และอาจดูหรือฟังเหมือนจริงมาก [8][
9]
ดังนั้น วิธีป้องกันที่ใช้ได้จริงไม่ใช่การฝึกตัวเองให้เป็นผู้เชี่ยวชาญด้านพิสูจน์คลิป แต่คือการมีขั้นตอนประจำ เมื่อมีใครเร่งให้โอนเงิน ให้รหัส กดลิงก์ ติดตั้งแอป ส่งเอกสาร หรือแชร์ต่อทันที ให้ถือว่ายังไม่ผ่านการตรวจสอบก่อน
ไม่รีบ ไม่กลัว ไม่โอน ไม่ให้รหัส — หยุดก่อน โทรกลับเอง แล้วค่อยตรวจสอบ
อย่าเริ่มจากการเดาว่าคลิปจริงหรือปลอม ให้ดูว่าเขากำลังเร่งให้คุณทำอะไร
เสียงเหมือนคนรู้จัก วิดีโอคอลเห็นหน้าเหมือนหัวหน้า หรือข้อความที่ใช้สำนวนเหมือนคนในบ้าน ไม่ควรใช้เป็นหลักฐานอนุมัติเรื่องสำคัญเพียงอย่างเดียว ดีปเฟกอาจทำให้คนดูเข้าใจผิดว่าบุคคลหนึ่งพูด ทำ หรืออนุมัติบางอย่างจริง ผ่านเสียงหรือวิดีโอปลอม [4]
สัญญาณที่ควรระวังเป็นพิเศษคือความเร่งด่วน คู่มือรับมือ AI และดีปเฟกเตือนว่ามิจฉาชีพมักใช้ความกดดันให้คนตัดสินใจอย่างรีบเร่ง [5]
ถ้าเจอคำขอเหล่านี้ ให้หยุดก่อนเสมอ:
- ให้โอนเงิน จ่ายแทน ซื้อคริปโต โอนเข้าบัญชีใหม่ หรือเปลี่ยนบัญชีรับเงินทันที
- ขอรหัสผ่าน OTP รหัส SMS ข้อมูลบัตร เอกสารประจำตัว หรือภาพหน้าจอบัญชีการเงิน
- ให้กดลิงก์ที่ไม่คุ้นเคย สแกนคิวอาร์โค้ด ดาวน์โหลดแอป ติดตั้งส่วนเสริม หรือเปิดรีโมตให้เข้าควบคุมเครื่อง
- สั่งให้เก็บเป็นความลับ ห้ามถามคนในบ้าน เพื่อนร่วมงาน ธนาคาร ฝ่ายบุคคล หัวหน้า หรือฝ่ายบริการลูกค้า
- ใช้คำกดดัน เช่น ด่วนมาก โอกาสสุดท้าย เกิดเรื่องแล้ว ต้องช่วยเดี๋ยวนี้ งานหัวหน้าสั่ง หรือถ้าไม่ทำตอนนี้จะเสียหาย
- อ้างชื่อคนดัง ผู้บริหาร ญาติ ธนาคาร ฝ่ายบริการลูกค้า หรือหน่วยงานทางการ เพื่อให้คุณทำสิ่งที่ปกติจะไม่ทำ
ถ้าสถานการณ์มีสองอย่างพร้อมกัน คือดูเหมือนมาจากคนที่น่าเชื่อถือ และเร่งให้คุณทำทันที ให้หยุดโต้ตอบในช่องทางเดิมก่อน
SOP 5 ขั้นตอนเมื่อเจอข้อความ เสียง หรือคลิปที่น่าสงสัย
1. หยุด: ตัดวงจรก่อนถูกพาไปต่อ
อย่าตอบกลับ อย่ากดลิงก์ อย่าดาวน์โหลดไฟล์ อย่าสแกนคิวอาร์โค้ด และอย่าให้ข้อมูลเพิ่ม ถ้าอีกฝ่ายกำลังโทรหรือวิดีโอคอลเร่งคุณอยู่ ให้บอกว่าจะตรวจสอบก่อนแล้ววางสาย เรื่องสำคัญจริงควรรอการยืนยันได้อีกไม่กี่นาที
2. เปลี่ยนช่องทาง: อย่าเช็กผ่านเบอร์หรือลิงก์ที่เขาส่งมา
อย่าใช้เบอร์โทร ลิงก์ หน้าแชต หรือบัญชีบริการลูกค้าที่อยู่ในข้อความน่าสงสัย ให้ติดต่อใหม่ผ่านช่องทางที่คุณหาเองหรือเคยใช้อยู่แล้ว เช่น เบอร์ที่บันทึกไว้ เว็บไซต์ทางการ แอปทางการ อีเมลบริษัท หรือสมุดรายชื่อภายในองค์กร
เหตุผลสำคัญคือ ถ้าข้อความแรกเป็นของปลอม เบอร์โทร ลิงก์ และฝ่ายบริการลูกค้าที่แนบมาก็อาจเป็นของปลอมเช่นกัน
3. เรื่องเงินและบัญชี ต้องมีการยืนยันครั้งที่สอง
ครอบครัว ทีมงาน และบริษัทควรตกลงกติกาล่วงหน้าไว้เลยว่า อะไรก็ตามที่เกี่ยวกับการโอนเงิน ยืมเงิน เปลี่ยนบัญชีรับเงิน ส่งรหัสล็อกอิน ส่งเอกสาร ขอความช่วยเหลือฉุกเฉิน หรือให้รีโมตเข้าควบคุมเครื่อง ต้องยืนยันซ้ำผ่านอีกช่องทาง
ในที่ทำงาน ไม่ควรอนุมัติการจ่ายเงินหรือเปลี่ยนข้อมูลการเงินจากเสียง วิดีโอคอล หรือข้อความที่ดูเหมือนมาจากผู้บริหารเพียงอย่างเดียว เพราะดีปเฟกสามารถใช้ภาพ วิดีโอ หรือเสียงที่ AI สร้างขึ้นเพื่อสวมรอยเป็นคนที่น่าเชื่อถือได้ [8] และอาจทำให้เข้าใจผิดว่าบุคคลนั้นได้พูดหรืออนุมัติบางอย่างจริง [
4]
4. ตรวจแหล่งที่มาและบริบทเต็ม
เมื่อเห็นข่าวแรง คลิปคนดัง คลิปการเมือง เหตุภัยพิบัติ หรือคำชวนลงทุน อย่าดูแค่คลิปตัดสั้น ๆ ดีปเฟกสามารถสร้างวิดีโอหรือเสียงปลอมให้คนดูเหมือนพูดหรือทำสิ่งที่เป็นอันตรายหรือสร้างความเข้าใจผิดได้ [4]
ให้ถามตัวเองอย่างน้อย 4 ข้อ:
- ใครเป็นคนเผยแพร่ครั้งแรก
- มีคลิปเต็ม บทความเต็ม หรือโพสต์ต้นทางหรือไม่
- เวลา สถานที่ และเหตุการณ์ตรงกับข้อมูลอื่นหรือเปล่า
- มีสื่อที่น่าเชื่อถือ หน่วยงานทางการ หรือเจ้าตัวออกมายืนยันตรงกันหรือไม่
ถ้าหาแหล่งต้นทางไม่เจอ หรือเห็นแค่ภาพแคปหน้าจอ คลิปสั้น หรือการแชร์ต่อจำนวนมาก ให้ชะลอการส่งต่อไว้ก่อน
5. เก็บหลักฐาน แล้วขอความช่วยเหลือหรือรายงาน
ถ้าสงสัยว่าถูกหลอกแล้ว อย่าเพิ่งลบแชตหรือไฟล์ ให้เก็บภาพหน้าจอ ลิงก์ เบอร์โทร ชื่อบัญชี เลขบัญชี รายการโอน ที่อยู่กระเป๋าคริปโต คลิปวิดีโอ ไฟล์เสียง และประวัติการสนทนาไว้ก่อน
ถ้าเกี่ยวข้องกับบัญชีธนาคาร บัตรเครดิต หรือแพลตฟอร์มชำระเงิน ให้ติดต่อสถาบันการเงินหรือผู้ให้บริการผ่านช่องทางทางการทันที ในสหรัฐฯ เอกสารประชาสัมพันธ์ของหน่วยงานรัฐระบุว่าสามารถรายงานต่อ Federal Trade Commission หรือ FTC ได้ที่ ftc.gov/complaint หรือโทร 1-877-FTC-HELP [3] FTC ยังมีหน้ารวบรวมข้อมูลเกี่ยวกับ artificial intelligence, consumer advice และ scams สำหรับอ่านต่อ [
1] หากไม่ได้อยู่ในสหรัฐฯ ให้ใช้ช่องทางทางการของประเทศที่คุณอยู่ เช่น ตำรวจ สถาบันการเงิน หรือหน่วยงานรัฐที่รับเรื่องหลอกลวงออนไลน์
คลิปปลอมและดีปเฟกควรเช็กอย่างไร
การดูด้วยตาเปล่าเป็นได้แค่ด่านแรก ไม่ใช่ข้อสรุปสุดท้าย ลองใช้รายการตรวจสั้น ๆ นี้เมื่อเจอคลิปที่น่าสงสัย:
- ปากกับเสียงตรงกันหรือไม่
- ขอบใบหน้า แว่นตา เส้นผม หรือใบหูกระพริบ บิดเบี้ยว หรือเปลี่ยนรูปแปลก ๆ หรือไม่
- นิ้ว ฟัน ผิวหนัง หรือรายละเอียดเล็ก ๆ ดูไม่เป็นธรรมชาติหรือเปล่า
- ฉากหลัง ตัวหนังสือ แสงเงา หรือภาพสะท้อนในกระจกมีจุดผิดปกติหรือไม่
- จังหวะพูด การหยุดหายใจ และปฏิกิริยาทางอารมณ์ดูแข็งหรือไม่เข้ากับสถานการณ์หรือไม่
แต่ต้องจำไว้กลับกันด้วยว่า ถ้าไม่เห็นข้อผิดพลาดเหล่านี้ ไม่ได้แปลว่าคลิปนั้นจริง เพราะดีปเฟกอาจทั้งดูจริงและฟังจริงได้ [8]
วิธีที่น่าเชื่อถือกว่าคือกลับไปตรวจบริบท: ใครเป็นผู้เผยแพร่ต้นทาง มีคลิปเต็มไหม เผยแพร่เมื่อใด เกิดที่ไหน มีแหล่งข้อมูลอิสระหรือหน่วยงานที่น่าเชื่อถือยืนยันตรงกันหรือไม่ สำหรับดีปเฟก ข่าวปลอม และคลิปปลอม การตรวจแหล่งที่มาและบริบทมักสำคัญกว่าการจับผิดด้วยสายตา
กติกาสั้น ๆ สำหรับ 3 สถานการณ์ใกล้ตัว
ครอบครัว: ตั้งคำถามลับและกติกาโทรกลับ
ในบ้านควรตกลงกันล่วงหน้าว่า หากมีคนอ้างว่าเป็นลูก หลาน ญาติ ตำรวจ ธนาคาร หรือฝ่ายบริการลูกค้า แล้วขอเงิน ขอรหัส หรือบอกว่าเปลี่ยนเบอร์ ให้ต้องโทรกลับผ่านเบอร์เดิมหรือถามคำถามที่คนนอกไม่รู้ก่อนเสมอ ดีปเฟกสามารถสวมรอยเป็นคนที่น่าเชื่อถือได้ [8]
ที่ทำงาน: จ่ายเงินหรือเปลี่ยนบัญชีต้องไม่ข้ามระบบอนุมัติ
ถ้ามีคนอ้างชื่อหัวหน้า ฝ่ายการเงิน คู่ค้า หรือผู้ขาย ขอให้โอนเงิน เปลี่ยนบัญชีรับเงิน หรือส่งรหัสเข้าใช้งาน ให้ทำตามขั้นตอนเดิมขององค์กร อย่าให้เสียงที่คุ้น วิดีโอคอลที่หน้าเหมือน หรือข้อความที่ดูเร่งด่วนมาทำให้ข้ามการตรวจสอบ เพราะสื่อดีปเฟกอาจทำให้คนเข้าใจผิดว่ามีการอนุมัติจริง [4]
โซเชียล: ยิ่งปลุกอารมณ์ ยิ่งควรแชร์ช้า
ข้อความหรือคลิปปลอมมักอาศัยความโกรธ ความกลัว ความสงสาร หรือความโลภให้คนรีบส่งต่อ ถ้าเห็นคำอย่าง รีบแชร์ สื่อไม่กล้ารายงาน ทางการปิดข่าว ช่วยกันด่วน หรือกำไรแน่นอน ให้หยุดก่อน ตรวจแหล่งที่มา แล้วค่อยตัดสินใจว่าจะส่งต่อหรือไม่ ดีปเฟกสามารถใช้สร้างสื่อปลอมให้คนดูเหมือนพูดหรือทำสิ่งที่ก่อความเสียหายได้ [4]
สรุป: กัน AI scam ด้วยขั้นตอน ไม่ใช่ด้วยตาวิเศษ
AI ทำให้เสียงปลอม ภาพปลอม และตัวตนปลอมเข้ามาอยู่ในข้อความประจำวันได้ง่ายขึ้น การฉ้อโกงด้วย AI อาจผสมตัวตนปลอม ดีปเฟก และ social engineering ส่วนดีปเฟกอาจใช้ภาพ วิดีโอ หรือเสียงเพื่อสวมรอยเป็นคนที่เราไว้ใจ [8][
9]
สิ่งที่คุณควบคุมได้คือขั้นตอนของตัวเอง: ไม่รีบตอบ ไม่เช็กในช่องทางเดิม ไม่โอนเพราะเสียงเหมือน ไม่ให้รหัสเพราะเห็นหน้าในวิดีโอ และไม่แชร์ต่อเพราะข้อความบอกว่าด่วนมาก
จำสูตรเดียวให้ขึ้นใจ: หยุดก่อน เปลี่ยนช่องทาง แล้วค่อยตรวจสอบ สูตรนี้ไม่ได้ทำให้ทุกคลิปปลอมถูกจับได้ทันที แต่ช่วยลดโอกาสที่คุณจะถูกความเร่งด่วนและภาพเสียงที่ดูเหมือนจริงลากไปสู่การตัดสินใจผิดพลาด




