Patokan paling aman: perlakukan ChatGPT dan tool AI lain seperti layanan cloud eksternal. Kalau informasinya sudah publik, sintetis, atau benar-benar anonim, risikonya biasanya lebih rendah. Kalau data bisa mengidentifikasi seseorang, membuka akses ke sistem, terikat kerahasiaan kontrak, atau memuat rahasia bisnis, jangan masukkan ke tool konsumen yang belum diperiksa.
Alasannya sederhana. Dalam kebijakan privasinya, OpenAI menyatakan dapat mengumpulkan data pribadi yang pengguna berikan sebagai Content ke layanannya, termasuk prompt dan unggahan seperti file, gambar, audio, dan video.[5] Jadi, pertanyaan pentingnya bukan hanya apakah input dipakai untuk melatih model. Yang harus dijawab adalah: apakah tool ini boleh memproses data ini, untuk tujuan ini, dengan pengaturan dan kontrak yang tepat?
Rambu hijau, kuning, merah untuk data di ChatGPT
| Kategori | Contoh | Rekomendasi |
|---|---|---|
| Hijau | Informasi publik, pertanyaan umum, contoh karangan sendiri, dummy data, dataset sintetis, potongan yang benar-benar anonim | Umumnya lebih aman, selama tidak memuat data pribadi, informasi rahasia, atau materi yang dilindungi. |
| Kuning | Teks internal tanpa rahasia, kasus dukungan pelanggan yang sudah dianonimkan, kode tanpa secrets, tabel setelah nama, ID, dan kontak dihapus | Gunakan hanya dengan prinsip minimisasi data, tool yang sudah disetujui, serta pengaturan training, penyimpanan, dan akses yang sudah dicek. |
| Merah | Kata sandi, API key, token, kredensial login, nomor identitas, data rekening atau pajak, data kesehatan dan pasien, data lengkap pelanggan atau karyawan, kontrak rahasia, dokumen M&A, angka keuangan yang belum dipublikasikan, source code dengan secrets atau IP inti | Jangan salin ke tool konsumen yang belum diperiksa. Jika memang harus diproses, gunakan lingkungan Business, Enterprise, atau API yang sudah disetujui dan mengikuti persetujuan internal. |
Rambu ini bukan nasihat hukum. Anggap saja sebagai filter keamanan praktis. Makin mudah sebuah isi mengarah ke orang, pelanggan, karyawan, pasien, kontrak, atau sistem internal tertentu, makin konservatif keputusan yang sebaiknya diambil.
Mengapa ChatGPT versi konsumen perlu ekstra hati-hati
Percakapan di ChatGPT versi konsumen bukan catatan lokal di laptop Anda. OpenAI menyebut prompt dan unggahan sebagai contoh User Content yang dapat memuat data pribadi.[5]
ChatGPT memiliki Data Controls yang memungkinkan pengguna memilih apakah percakapan dan interaksi mereka ikut membantu peningkatan model.[9] Mematikan opsi semacam ini bisa menjadi langkah perlindungan penting. Namun, itu tidak otomatis membuat data sensitif boleh dimasukkan, karena pengaturan tersebut hanya menjawab sebagian dari isu privasi, kepatuhan, dan izin pemrosesan.
Temporary Chats juga mengurangi sebagian risiko: OpenAI menjelaskannya sebagai chat yang tidak disimpan di riwayat, tidak dipakai untuk Memories, tidak digunakan untuk training, dan dihapus setelah 30 hari; menurut OpenAI, chat tersebut masih dapat ditinjau untuk pemantauan penyalahgunaan.[9][
11] Karena itu, Temporary Chats bukan lampu hijau untuk menempel dokumen bisnis rahasia, data pelanggan asli, atau data kesehatan.
Apa yang berubah di Business, Enterprise, Edu, Healthcare, dan API
OpenAI membedakan penggunaan konsumen dari produk bisnis. OpenAI menyebut Business Data sebagai input dan output dari ChatGPT Business, ChatGPT Enterprise, ChatGPT for Healthcare, ChatGPT Edu, ChatGPT for Teachers, dan API Platform.[7]
Untuk Business Data tersebut, OpenAI menyatakan bahwa data tidak digunakan untuk training secara default.[7] OpenAI juga menyebut dapat menandatangani Data Processing Addendum atau DPA untuk ChatGPT Business, ChatGPT Enterprise, dan API guna mendukung kebutuhan kepatuhan seperti GDPR dan aturan privasi lain; untuk ChatGPT Edu dan ChatGPT for Teachers, OpenAI merujuk pada Student Data Privacy Agreement.[
7] Selain itu, OpenAI menyediakan informasi tentang Business Data Privacy, Security, Compliance, dan kebijakan retensi data untuk Enterprise, Business, Edu, ChatGPT for Healthcare, serta API.[
6]
Tetap saja, memakai produk bisnis tidak berarti semua jenis data otomatis boleh dimasukkan. Organisasi masih perlu memeriksa tujuan pemrosesan, tipe data, hak akses, durasi penyimpanan, kebijakan internal, kontrak dengan pelanggan, dan kewajiban regulasi yang berlaku.
Pertanyaan cek sebelum mengunggah data
Sebelum memasukkan atau mengunggah data asli ke tool AI, jawab dulu pertanyaan berikut:
- Apakah tool ini sudah disetujui oleh tim privasi, legal, dan IT?
- Apakah penyedia memakai prompt, file, atau output untuk training atau peningkatan model?
- Apakah ada pengaturan opt-out atau larangan penggunaan untuk training secara kontraktual?
- Berapa lama input, unggahan, dan output disimpan?
- Apakah manusia di pihak penyedia dapat meninjau konten, misalnya untuk support, keamanan, atau pemantauan penyalahgunaan?
- Apakah aplikasi pihak ketiga, connector, plugin, atau subprosesor dapat memperoleh akses?
- Apakah tersedia DPA, kontrol admin, pengaturan peran, audit, dan aturan retensi yang jelas?
- Apakah kebijakan internal dan kontrak eksternal memang mengizinkan data tersebut diproses di tool itu?
Jika jawabannya belum jelas, jangan pakai data asli. Gunakan placeholder, potongan yang sudah dianonimkan, atau data sintetis.
Praktik prompt yang lebih aman: minimalkan, jangan asal salin-tempel
Prompt paling aman hanya berisi informasi yang benar-benar dibutuhkan untuk menyelesaikan tugas. Hapus nama, alamat email, nomor telepon, alamat rumah, nomor pelanggan, nomor pasien, nomor kontrak, dan pengenal lain jika tidak diperlukan.
Kasus pelanggan: Jangan menempel seluruh kasus lengkap dengan nama, nomor pelanggan, dan kontak. Ganti dengan placeholder seperti [PELANGGAN], [NOMOR_PELANGGAN], dan [TANGGAL].
Tabel: Jangan unggah daftar pelanggan atau karyawan secara penuh. Hapus pengenal langsung dan sisakan hanya kolom yang benar-benar diperlukan untuk analisis.
Kode: Jangan memasukkan API key, token, sertifikat privat, kata sandi, atau kredensial produksi ke prompt. Bagikan hanya potongan kode yang relevan dan ganti nilai konfigurasi dengan placeholder.
Kontrak dan data keuangan: Jika yang ingin diperiksa hanya satu klausul, pola, atau rumusan kalimat, gunakan potongan yang sudah dianonimkan, bukan dokumen lengkap.
Jika data asli memang harus diproses
Kadang dummy data tidak cukup. Dalam situasi seperti itu, urutannya sebaiknya konservatif:
- Pastikan tujuan: Cek apakah model benar-benar membutuhkan data asli atau cukup dengan potongan anonim.
- Minimalkan data: Gunakan dataset sekecil mungkin sesuai kebutuhan.
- Hapus pengenal: Kurangi kaitan ke orang, pelanggan, pasien, dan organisasi sejauh mungkin.
- Buang secrets: Kata sandi, token, API key, dan sertifikat privat tidak semestinya masuk ke prompt.
- Pilih lingkungan yang disetujui: Untuk data perusahaan, gunakan setup Business, Enterprise, atau API yang sudah diperiksa; OpenAI menjelaskan aturan privasi enterprise tersendiri, termasuk default tidak menggunakan Business Data untuk training.[
7]
- Cek pengaturan dan kontrak: Pastikan penggunaan untuk training, penyimpanan, hak akses, DPA, dan retensi data sudah jelas sebelum data diproses.[
6][
7][
9]
- Dokumentasikan penggunaan: Catat tool, tujuan, tipe data, pengaturan, dan persetujuan agar dapat ditelusuri kembali.
Kesimpulan singkat
Tidak ada jawaban mutlak “ChatGPT boleh” atau “ChatGPT tidak boleh”. Dalam konteks konsumen, prompt dan unggahan dapat memuat data pribadi dan dikumpulkan OpenAI sebagai User Content.[5] Data Controls dan Temporary Chats memengaruhi apakah percakapan dipakai untuk peningkatan model, disimpan di riwayat, atau digunakan untuk Memories; Temporary Chats menurut OpenAI dihapus setelah 30 hari, tetapi masih dapat diperiksa untuk pemantauan penyalahgunaan.[
9][
11]
Untuk penggunaan Business, Enterprise, Edu, Healthcare, dan API, OpenAI menjelaskan aturan tersendiri, termasuk default tidak menggunakan Business Data untuk training.[7] Jika ragu, pakai aturan paling aman: jangan tempel. Anonimkan, gunakan placeholder, atau pindah ke setup Business, Enterprise, atau API yang sudah disetujui.




