AI generatif memang praktis untuk merangkum bahan bacaan, menjelaskan konsep yang rumit, membuat daftar ide, atau memberi gambaran awal tentang sebuah topik. Namun, ia juga bisa menghasilkan informasi yang tidak akurat, bahkan salah, lalu menyajikannya dengan gaya bahasa yang sangat meyakinkan. Dalam materi keamanan informasi dan pendidikan, kondisi seperti ini sering disebut AI hallucination atau halusinasi AI[4][
5]. Harvard Kennedy School Misinformation Review juga membahas halusinasi AI sebagai salah satu sumber baru ketidakakuratan dalam penggunaan AI generatif[
3].
Karena itu, pertanyaan terpenting saat membaca jawaban AI bukanlah: apakah jawabannya terdengar pintar? Pertanyaan yang lebih aman adalah: apakah klaim ini bisa dilacak ke sumber yang dapat diperiksa?
Pegangan utama: AI adalah petunjuk, bukan bukti
Anggap AI seperti asisten riset awal. Ia bisa membantu menyusun arah pencarian, menerjemahkan istilah teknis, atau memecah masalah besar menjadi daftar hal yang perlu dicek. Tetapi jika jawabannya menyangkut nama orang, tanggal, angka, aturan hukum, hasil penelitian, berita, kesehatan, keputusan kerja, atau uang, jangan berhenti di jawaban AI.
NIST, National Institute of Standards and Technology di Amerika Serikat, dalam dokumen manajemen risiko AI generatif memasukkan data provenance atau pelacakan asal data, auditing and assessment atau audit dan penilaian, monitoring, serta risk-based controls atau kontrol berbasis risiko sebagai bagian dari tata kelola yang relevan[1][
2]. Dalam penggunaan sehari-hari, pesannya sederhana: jangan hanya percaya pada nada AI yang percaya diri; cek sumber, teks asli, dan rantai buktinya.
5 langkah mengecek jawaban AI
1. Minta AI mencantumkan sumber yang bisa diperiksa
Jangan hanya bertanya: jawabannya apa? Minta AI menghubungkan setiap klaim penting dengan sumbernya. Misalnya:
Tolong cantumkan sumber yang mendukung jawaban ini. Prioritaskan dokumen resmi, riset asli, situs pemerintah, pengumuman perusahaan, atau basis data tepercaya. Jelaskan juga klaim mana yang didukung oleh masing-masing sumber.
Jika AI hanya menulis frasa seperti menurut penelitian, para ahli menyebutkan, atau banyak laporan mengatakan tanpa nama dokumen, lembaga penerbit, tautan, tanggal, atau informasi yang bisa dicari, perlakukan bagian itu sebagai belum terverifikasi. Sumber yang bisa ditelusuri lebih penting daripada jawaban yang tampak rapi; NIST juga menempatkan pelacakan asal data serta audit dan penilaian sebagai praktik yang relevan dalam pengelolaan risiko AI generatif[1][
2].
2. Buka sumbernya, lalu cek apakah teks asli benar-benar mendukung jawaban
AI mencantumkan sumber bukan berarti jawabannya otomatis benar. Minimal, periksa tiga hal berikut:
- Apakah tautannya benar-benar ada dan bisa dibuka?
- Apakah teks asli memuat informasi yang disebut AI?
- Apakah AI melebih-lebihkan, menyederhanakan secara berlebihan, atau mengubah makna sumber menjadi kesimpulan yang berbeda?
Kesalahan yang sering terjadi adalah jawaban terlihat punya rujukan, tetapi isi rujukannya tidak sesuai dengan klaim. Tujuan pengecekan adalah mengubah klaim AI dari katanya ada sumber menjadi saya sudah melihat sendiri sumbernya.
3. Prioritaskan detail yang paling mudah salah
Anda tidak harus langsung membaca semua dokumen dari awal sampai akhir. Mulailah dari detail yang paling mudah diverifikasi dan paling cepat membongkar kesalahan, seperti:
- nama orang dan nama lembaga;
- tanggal, tahun, nomor versi, atau periode berlaku;
- angka statistik, persentase, peringkat, atau jumlah;
- nama aturan, kebijakan, pasal, atau judul dokumen;
- judul makalah, nama penulis, dan nama jurnal;
- kutipan langsung.
Jika AI menulis bahwa sebuah riset menyimpulkan sesuatu, sebuah perusahaan mengumumkan sesuatu, atau sebuah aturan menyatakan sesuatu, cari riset, pengumuman, atau aturan aslinya. Kalau sumber primer tidak ditemukan, jangan perlakukan klaim itu sebagai fakta yang sudah pasti.
4. Bandingkan dengan sumber independen
Satu sumber bisa saja tidak lengkap. Ringkasan AI juga bisa menghilangkan batasan, konteks, atau pengecualian penting. Untuk topik-topik berikut, sebaiknya cari setidaknya satu sumber independen tambahan:
- informasi medis dan kesehatan;
- hukum, pajak, kontrak, atau hak kewajiban;
- investasi, keuangan, asuransi, atau keputusan pembelian besar;
- berita terkini dan peristiwa publik;
- spesifikasi teknis, risiko keamanan, atau persyaratan kebijakan.
Jika dua sumber berbeda memberikan informasi yang tidak sama, jangan langsung memilih versi yang paling sesuai dengan dugaan Anda. Kembali ke dokumen resmi, riset asli, basis data profesional, atau pihak yang memiliki tanggung jawab langsung atas informasi tersebut.
5. Untuk keputusan berisiko tinggi, jangan jadikan AI penentu akhir
Pendekatan manajemen risiko AI generatif dari NIST menekankan kontrol berbasis risiko, pemantauan, dan penilaian—bukan memperlakukan semua keluaran AI sebagai sama-sama dapat dipercaya[1][
2]. Logika yang sama bisa dipakai secara pribadi: semakin besar dampak sebuah keputusan, semakin kuat pula proses pengecekannya.
Jika jawaban AI dapat memengaruhi kesehatan, hak hukum, keamanan finansial, keputusan kerja penting, atau keselamatan publik, gunakan AI hanya untuk menyusun latar belakang dan daftar pertanyaan. Keputusan akhirnya tetap perlu dirujukkan ke dokumen asli atau dikonfirmasi kepada profesional terkait, seperti dokter, pengacara, akuntan, penasihat keuangan, atau ahli yang relevan.
Tanda-tanda jawaban AI perlu dicurigai
Halusinasi AI berbahaya karena tidak selalu tampak seperti kesalahan. Jawabannya bisa lancar, terstruktur, dan terdengar masuk akal, tetapi tetap tidak akurat[3][
4][
5]. Berhati-hatilah jika Anda melihat tanda-tanda berikut:
- AI sangat yakin, tetapi tidak memberi sumber apa pun.
- Rujukan terlihat lengkap, tetapi teks aslinya tidak bisa ditemukan.
- Sumbernya ada, tetapi tidak mendukung kesimpulan AI.
- Angka, tanggal, versi, atau kutipan tidak disertai asal-usul yang jelas.
- Jawaban yang sama saling bertentangan di bagian berbeda.
- AI menyamarkan dugaan, opini, atau penalaran umum sebagai fakta.
Prompt yang bisa langsung dipakai untuk mengecek jawaban AI
Agar jawaban AI lebih mudah diperiksa, Anda bisa menempelkan instruksi seperti ini:
Pecah jawabanmu menjadi empat kolom: klaim fakta, sumber, bagian teks asli yang mendukung, dan hal yang masih tidak pasti.
Tandai mana pernyataan yang didukung sumber, mana yang hanya inferensi, dan mana yang perlu dicek manusia.
Jawab hanya berdasarkan dokumen yang saya berikan. Jika dokumen tidak memuat informasinya, katakan bahwa datanya tidak cukup.
Sebutkan 5 detail dalam jawaban ini yang paling perlu diverifikasi, misalnya tanggal, angka, kutipan, nama kebijakan, atau nama orang.
Pertanyaan umum
Kalau AI sudah mencantumkan sumber, apakah jawabannya pasti bisa dipercaya?
Belum tentu. Sumber bisa tidak ada, tautan bisa rusak, atau isi sumber tidak mendukung kesimpulan AI. Pengecekan yang sebenarnya bukan sekadar melihat ada rujukan, melainkan membuka sumber, membaca bagian relevan, lalu memastikan klaim dan bukti memang cocok.
Apakah semua jawaban AI harus dicek sedetail itu?
Tidak semua perlu diperlakukan dengan tingkat ketat yang sama. Untuk hal berisiko rendah, pengecekan cepat mungkin cukup. Namun, untuk kesehatan, hukum, keuangan, keselamatan publik, atau keputusan kerja besar, tingkat verifikasi perlu dinaikkan. Dokumen manajemen risiko NIST juga menggunakan pendekatan kontrol dan pemantauan berbasis risiko[1][
2].
Bagaimana jika saya tidak menemukan sumbernya?
Tandai jawaban itu sebagai belum terkonfirmasi. Jangan mengutip, membagikan, atau menjadikannya dasar keputusan penting. Anda bisa meminta AI menjawab ulang hanya dengan sumber yang dapat diperiksa, atau mencari sendiri dokumen resmi, riset asli, pengumuman perusahaan, dan basis data tepercaya.
Intinya: percaya pada bukti yang bisa dicek, bukan pada gaya bahasa
AI bisa salah, bahkan ketika jawabannya terdengar sangat meyakinkan. Itu bukan alasan untuk tidak memakai AI sama sekali, tetapi alasan untuk memakainya dengan cara yang lebih aman. Alur praktisnya: minta sumber, buka teks asli, cek detail penting, lakukan pembandingan, dan cari bantuan ahli untuk keputusan berisiko tinggi. Dengan begitu, AI lebih berguna sebagai asisten riset—bukan mesin jawaban yang diterima mentah-mentah.




