หลักคิดที่ปลอดภัยที่สุดคือ มอง ChatGPT และเครื่องมือ AI อื่น ๆ เหมือนบริการคลาวด์ภายนอกก่อนเสมอ ข้อมูลที่เป็นสาธารณะ ข้อมูลสมมติ ข้อมูลสังเคราะห์ หรือข้อมูลที่นิรนามจริงมักเสี่ยงน้อยกว่า แต่ข้อมูลที่ระบุตัวบุคคล เปิดทางเข้าระบบ เป็นความลับตามสัญญา หรือเป็นความลับทางธุรกิจ ไม่ควรถูกคัดลอกลงในเครื่องมือ Consumer ที่ยังไม่ได้ผ่านการตรวจสอบ
เหตุผลสำคัญคือ OpenAI ระบุในนโยบายความเป็นส่วนตัวว่า อาจเก็บข้อมูลส่วนบุคคลที่ผู้ใช้ใส่เป็น Content ในบริการ รวมถึง Prompts และสิ่งที่อัปโหลด เช่น ไฟล์ รูปภาพ เสียง และวิดีโอ[5] ดังนั้นคำถามไม่ใช่แค่ว่า เครื่องมือนี้เอาข้อมูลไปฝึกโมเดลไหม แต่ต้องถามต่อว่า เครื่องมือนี้ได้รับอนุญาตให้ประมวลผลข้อมูลชนิดนี้ เพื่อวัตถุประสงค์นี้ ภายใต้เงื่อนไขนี้หรือไม่
ไฟเขียว–เหลือง–แดง: ข้อมูลอะไรควรใส่ใน AI ได้แค่ไหน
| สถานะ | ตัวอย่าง | คำแนะนำ |
|---|---|---|
| เขียว | ข้อมูลสาธารณะ คำถามทั่วไป ตัวอย่างที่แต่งขึ้นเอง Dummy data ชุดข้อมูลสังเคราะห์ ข้อความที่นิรนามจริง | โดยทั่วไปใช้ได้ หากไม่มีข้อมูลส่วนบุคคล ข้อมูลลับ หรือข้อมูลที่มีสิทธิ์คุ้มครองปะปนอยู่ |
| เหลือง | ข้อความภายในที่ไม่มีความลับ กรณีลูกค้าหลังลบตัวตน โค้ดที่ไม่มี Secrets ตารางที่ลบชื่อ รหัสประจำตัว และช่องทางติดต่อแล้ว | ใช้เฉพาะเมื่อจำกัดข้อมูลเท่าที่จำเป็น ใช้เครื่องมือที่องค์กรอนุมัติ และตรวจสอบการตั้งค่าเรื่องการฝึกโมเดล การเก็บรักษา และการเข้าถึงแล้ว |
| แดง | รหัสผ่าน API keys Tokens ข้อมูลล็อกอิน เลขบัตรประชาชนหรือเอกสารยืนยันตัวตน เลขบัญชี ข้อมูลภาษี ข้อมูลสุขภาพและผู้ป่วย รายชื่อลูกค้าหรือพนักงานแบบเต็ม สัญญาลับ เอกสาร M&A ตัวเลขการเงินที่ยังไม่เผยแพร่ โค้ดที่มี Secrets หรือแกนทรัพย์สินทางปัญญา | อย่าคัดลอกลงใน Consumer tools ที่ยังไม่ได้ตรวจสอบ หากจำเป็นต้องประมวลผล ให้ใช้สภาพแวดล้อม Business, Enterprise หรือ API ที่ได้รับอนุมัติ และผ่านกระบวนการภายในก่อน |
ตารางนี้ไม่ใช่คำแนะนำทางกฎหมาย แต่เป็นตัวกรองความเสี่ยงแบบใช้งานจริง ยิ่งข้อมูลทำให้ระบุตัวบุคคล ลูกค้า พนักงาน ผู้ป่วย สัญญา หรือระบบภายในได้ง่ายเท่าไร ก็ควรตัดสินใจแบบระมัดระวังมากขึ้นเท่านั้น
ทำไม ChatGPT สำหรับผู้ใช้ทั่วไปต้องระวังเป็นพิเศษ
บทสนทนาใน Consumer ChatGPT ไม่ใช่โน้ตที่อยู่ในเครื่องคุณเท่านั้น OpenAI ระบุว่า User Content อาจมีข้อมูลส่วนบุคคล และยกตัวอย่าง Prompts รวมถึงไฟล์หรือเนื้อหาที่อัปโหลดไว้อย่างชัดเจน[5]
Data Controls ของ ChatGPT ช่วยให้ผู้ใช้เลือกได้ว่าบทสนทนาและการโต้ตอบของตนจะถูกใช้เพื่อปรับปรุงโมเดลหรือไม่[9] การปิดการใช้ข้อมูลเพื่อปรับปรุงโมเดลอาจเป็นขั้นตอนป้องกันที่สำคัญ แต่ไม่ได้แปลว่าข้อมูลอ่อนไหวทุกชนิดสามารถใส่ได้ทันที เพราะยังมีคำถามเรื่องสิทธิในการประมวลผล ความลับทางธุรกิจ สัญญากับลูกค้า การเก็บรักษา และการเข้าถึงข้อมูลอยู่ดี
Temporary Chats ช่วยลดความเสี่ยงบางส่วน โดย OpenAI อธิบายว่าแชตประเภทนี้จะไม่ถูกบันทึกในประวัติ ไม่ใช้กับ Memories ไม่ใช้เพื่อฝึกโมเดล และจะถูกลบหลัง 30 วัน อย่างไรก็ตาม OpenAI ระบุว่ายังอาจตรวจสอบเพื่อเฝ้าระวังการใช้งานที่ไม่เหมาะสมได้[9][
11] ดังนั้น Temporary Chats ไม่ใช่ใบอนุญาตให้ส่งเอกสารลับของบริษัท ข้อมูลลูกค้าจริง หรือข้อมูลสุขภาพโดยไม่ตรวจสอบ
Business, Enterprise, Edu, Healthcare และ API ต่างจาก Consumer อย่างไร
OpenAI แยกการใช้งาน Consumer ออกจากผลิตภัณฑ์สำหรับงานองค์กร โดย OpenAI อธิบายว่า Business Data คือ Inputs และ Outputs จาก ChatGPT Business, ChatGPT Enterprise, ChatGPT for Healthcare, ChatGPT Edu, ChatGPT for Teachers และ API Platform[7]
สำหรับ Business Data เหล่านี้ OpenAI ระบุว่า โดยค่าเริ่มต้นจะไม่ใช้เพื่อฝึกโมเดล[7] นอกจากนี้ OpenAI ระบุว่าสามารถทำ Data Processing Addendum หรือข้อตกลงเพิ่มเติมด้านการประมวลผลข้อมูลสำหรับ ChatGPT Business, ChatGPT Enterprise และ API เพื่อสนับสนุนข้อกำหนดด้าน GDPR และกฎหมายความเป็นส่วนตัวอื่น ๆ ส่วน ChatGPT Edu และ ChatGPT for Teachers อ้างอิงข้อตกลง Student Data Privacy Agreement[
7] OpenAI ยังให้ข้อมูลด้าน Business Data Privacy, Security, Compliance และนโยบายการเก็บรักษาข้อมูลสำหรับ Enterprise, Business, Edu, ChatGPT for Healthcare และ API[
6]
แต่การใช้ผลิตภัณฑ์ Business ไม่ได้หมายความว่าใส่ข้อมูลอะไรก็ได้โดยอัตโนมัติ องค์กรยังต้องตรวจสอบวัตถุประสงค์ ชนิดข้อมูล สิทธิ์การเข้าถึง ระยะเวลาเก็บรักษา นโยบายภายใน สัญญากับลูกค้า และข้อกำหนดกำกับดูแลที่เกี่ยวข้อง
คำถามที่ควรตอบให้ได้ก่อนอัปโหลดข้อมูลจริง
ก่อนใส่หรืออัปโหลดข้อมูลจริงเข้าเครื่องมือ AI อย่างน้อยควรเช็กให้ชัดเจนว่า:
- เครื่องมือนี้ผ่านการอนุมัติจากฝ่ายข้อมูลส่วนบุคคล กฎหมาย และ IT แล้วหรือยัง
- ผู้ให้บริการใช้ Prompts ไฟล์ หรือ Outputs เพื่อฝึกโมเดลหรือปรับปรุงบริการหรือไม่
- มีการตั้งค่า Opt-out หรือมีสัญญาที่ตัดสิทธิ์การนำข้อมูลไปฝึกโมเดลหรือไม่
- Inputs, Uploads และ Outputs ถูกเก็บไว้นานแค่ไหน
- บุคลากรของผู้ให้บริการอาจเข้าตรวจสอบเนื้อหาได้หรือไม่ เช่น เพื่อซัพพอร์ต ความปลอดภัย หรือเฝ้าระวังการใช้งานผิดประเภท
- แอปภายนอก Connectors Plugins หรือ Subprocessors ใดบ้างที่อาจเข้าถึงข้อมูลได้
- มี DPA หรือข้อตกลงประมวลผลข้อมูล การควบคุมสำหรับผู้ดูแลระบบ สิทธิ์ตามบทบาท Audit logs และกฎเก็บรักษาข้อมูลที่ชัดเจนหรือไม่
- นโยบายภายในและสัญญาภายนอกอนุญาตให้ประมวลผลข้อมูลชุดนี้ในเครื่องมือนี้จริงหรือไม่
ถ้าตอบคำถามเหล่านี้ไม่ได้อย่างชัดเจน ให้ใช้ข้อมูลสมมติ ตัดข้อมูลให้ไม่ระบุตัวตน หรือเปลี่ยนเป็น Placeholder ก่อน
วิธีเขียน Prompt ให้ปลอดภัยขึ้น: ลดข้อมูล ไม่ใช่คัดลอกทั้งก้อน
Prompt ที่ปลอดภัยกว่าคือ Prompt ที่มีเฉพาะข้อมูลจำเป็นต่อคำตอบจริง ๆ ลบชื่อ อีเมล เบอร์โทร ที่อยู่ เลขลูกค้า เลขผู้ป่วย เลขสัญญา และตัวระบุอื่น ๆ ออก หากสิ่งเหล่านั้นไม่จำเป็นต่อการวิเคราะห์
กรณีลูกค้า: แทนที่จะคัดลอกเคสพร้อมชื่อ เลขลูกค้า และช่องทางติดต่อ ให้ใช้ Placeholder เช่น [ลูกค้า], [หมายเลขลูกค้า] และ [วันที่]
ตารางข้อมูล: อย่าอัปโหลดรายชื่อลูกค้าหรือพนักงานทั้งชุด ถอดตัวระบุโดยตรงออก และเหลือเฉพาะคอลัมน์ที่จำเป็นต่อการวิเคราะห์
โค้ด: อย่าใส่ API keys, Tokens, ใบรับรองส่วนตัว, รหัสผ่าน หรือข้อมูลเข้าระบบที่ใกล้เคียง Production ลงใน Prompt ให้ส่งเฉพาะส่วนของโค้ดที่เกี่ยวข้อง และแทนค่าคอนฟิกด้วย Placeholder
สัญญาและข้อมูลการเงิน: หากต้องการดูเฉพาะถ้อยคำ เงื่อนไข หรือรูปแบบประโยค ให้ใช้ข้อความตัดตอนที่นิรนามแล้ว แทนการอัปโหลดเอกสารทั้งฉบับ
ถ้าจำเป็นต้องใช้ข้อมูลจริงจริง ๆ
บางงานใช้ Dummy data ไม่พอ หากต้องใช้ข้อมูลจริง ควรเดินตามลำดับที่ระมัดระวังนี้:
- ชัดเจนเรื่องวัตถุประสงค์: ตรวจว่าจำเป็นต้องใช้ข้อมูลจริงหรือไม่ หรือใช้ตัวอย่างที่นิรนามแล้วพอหรือเปล่า
- ลดข้อมูลให้เหลือน้อยที่สุด: ใช้เฉพาะข้อมูลชุดเล็กที่สุดที่จำเป็นต่อคำตอบ
- ลบตัวระบุ: ลดการเชื่อมโยงกับบุคคล ลูกค้า ผู้ป่วย และองค์กรให้มากที่สุด
- ลบ Secrets: รหัสผ่าน Tokens API keys และใบรับรองส่วนตัวไม่ควรอยู่ใน Prompt
- ใช้สภาพแวดล้อมที่ได้รับอนุมัติ: สำหรับข้อมูลขององค์กร ควรใช้ Business, Enterprise หรือ API setup ที่ผ่านการตรวจสอบแล้ว โดย OpenAI ระบุว่าสำหรับผลิตภัณฑ์เหล่านี้มีแนวทาง Enterprise privacy แยกต่างหาก รวมถึงโดยค่าเริ่มต้นไม่ฝึกโมเดลด้วย Business Data[
7]
- ตรวจการตั้งค่าและสัญญา: เช็กการใช้ข้อมูลเพื่อฝึกโมเดล การเก็บรักษา สิทธิ์ตามบทบาท DPA หรือข้อตกลงประมวลผลข้อมูล และนโยบาย retention ก่อนใช้งาน[
6][
7][
9]
- บันทึกการใช้งาน: เก็บหลักฐานว่าใช้เครื่องมือใด เพื่อวัตถุประสงค์อะไร ใช้ข้อมูลชนิดใด ตั้งค่าอย่างไร และใครอนุมัติ
สรุปสั้น ๆ
ไม่มีคำตอบแบบเหมารวมว่า ChatGPT ใช้ได้หรือใช้ไม่ได้เสมอไป ในบริบท Consumer นั้น Prompts และ Uploads อาจมีข้อมูลส่วนบุคคล และ OpenAI ระบุว่าสิ่งเหล่านี้เป็น User Content ที่อาจถูกเก็บในบริการได้[5] Data Controls และ Temporary Chats ช่วยควบคุมบางเรื่อง เช่น การใช้บทสนทนาเพื่อปรับปรุงโมเดล ประวัติแชต และ Memories โดย OpenAI ระบุว่า Temporary Chats จะถูกลบหลัง 30 วัน แต่ยังอาจถูกตรวจสอบเพื่อเฝ้าระวังการใช้งานที่ไม่เหมาะสมได้[
9][
11]
สำหรับการใช้งาน Business, Enterprise, Edu, Healthcare และ API OpenAI ระบุกติกาเฉพาะ รวมถึงโดยค่าเริ่มต้นจะไม่ใช้ Business Data เพื่อฝึกโมเดล[7] ถ้าไม่แน่ใจ ให้ใช้กฎอนุรักษนิยมที่สุด: อย่าเพิ่งใส่ข้อมูลจริง ให้ทำให้ไม่ระบุตัวตน ใช้ Placeholder หรือย้ายไปใช้สภาพแวดล้อม Business, Enterprise หรือ API ที่องค์กรอนุมัติแล้ว




