Jawaban AI perlu dicek bukan karena bahasanya sering janggal, tetapi karena kesalahan paling berbahaya justru sering terdengar lancar, yakin, dan masuk akal. Dalam GenAI text-2026, NIST mengevaluasi seberapa sulit teks buatan AI dibedakan dari tulisan manusia dan seberapa meyakinkan narasi yang dihasilkan. Program itu juga menyebut penggunaan narasi yang tampak kredibel tetapi menyesatkan untuk melatih detektor mengenalinya [1]. Artikel Harvard Kennedy School Misinformation Review membangun kerangka konseptual yang menempatkan AI hallucinations sebagai sumber ketidakakuratan [
2]. Panduan digital pemerintah Selandia Baru juga menyebut hallucinations terkait, tetapi berbeda, dari misinformation dan disinformation [
4].
Prinsip utamanya sederhana: percaya pada sumber yang bisa dicek, bukan pada nada percaya diri AI.
AI adalah titik awal, bukan bukti
AI berguna untuk merapikan pertanyaan, membuat daftar hal yang perlu ditelusuri, atau memberi gambaran awal. Namun, untuk fakta, angka, kebijakan, kesehatan, hukum, investasi, atau peristiwa berita, yang harus diperiksa bukan seberapa rapi kalimatnya, melainkan:
- Apakah klaim itu bisa ditelusuri ke sumber asli?
- Apakah teks asli benar-benar mendukung ringkasan AI?
- Apakah tanggal, wilayah, definisi, dan konteksnya sesuai?
- Apakah ada sumber independen yang dapat menguatkan klaim tersebut?
Jika sebuah klaim hanya bisa ditelusuri kembali ke jawaban AI itu sendiri, anggap klaim itu belum terverifikasi.
5 langkah cek fakta jawaban AI
1. Pecah jawaban menjadi klaim kecil
Jangan mengecek satu paragraf panjang sekaligus. Pisahkan dulu isinya menjadi klaim yang bisa diuji: angka sendiri, tanggal sendiri, kesimpulan sendiri, dan rekomendasi sendiri.
Prompt yang bisa dipakai:
Ubah jawaban di atas menjadi daftar klaim yang bisa diverifikasi. Untuk setiap klaim, tulis sumber asli, lembaga atau penulis, tanggal, URL, dan kutipan teks asli. Jika tidak ada sumber, beri label: belum terverifikasi.
Setelah dipecah, biasanya langsung terlihat mana yang punya jejak sumber dan mana yang hanya hasil isian AI.
2. Buka sumbernya, jangan hanya percaya nama sumber
Nama lembaga atau judul artikel tidak otomatis berarti klaimnya benar. Buka URL atau cari dokumen aslinya, lalu periksa:
- apakah URL bisa dibuka;
- apakah judul, penulis atau lembaga, dan tanggal cocok dengan yang disebut AI;
- apakah teks asli benar-benar mendukung ringkasan AI;
- apakah kutipan disajikan utuh atau dipotong dari konteksnya;
- apakah AI mengubah opini, dugaan, atau latar belakang menjadi fakta pasti.
Jika sumber tidak ditemukan, tanggalnya tidak sesuai, atau isi aslinya berbeda dari ringkasan AI, turunkan status klaim itu menjadi belum terverifikasi atau bermasalah.
3. Kejar sumber primer, jangan berhenti di ringkasan
Untuk klaim penting, cari dokumen yang paling dekat dengan peristiwa atau data aslinya. Contohnya:
- pengumuman pemerintah, peraturan, atau dokumen regulator;
- dokumen pengadilan, putusan, atau catatan resmi;
- keterbukaan informasi perusahaan, laporan tahunan, atau siaran pers;
- artikel jurnal, laporan riset, atau dataset;
- pernyataan resmi pihak, lembaga, atau tim riset yang bersangkutan.
Berita, blog, dan unggahan media sosial bisa membantu memahami konteks. Namun, bila Anda akan mengutip, membagikan, membuat laporan, atau mengambil keputusan, usahakan tetap kembali ke dokumen asli. Jika semua artikel hanya saling mengutip tanpa satu pun menautkan sumber primer, anggap risikonya tinggi.
4. Lakukan verifikasi silang dengan sumber independen
Satu sumber yang benar-benar ada belum cukup untuk mengamankan seluruh kesimpulan. Gunakan dua lapis pengecekan:
- Sumber primer: dokumen resmi, makalah, pengumuman, putusan, atau data asli.
- Sumber independen: media tepercaya, institusi akademik, regulator, atau organisasi profesional yang tidak hanya menyalin sumber pertama.
Jika dua sumber tidak sejalan, jangan buru-buru memilih yang paling cocok dengan dugaan Anda. Tandai dulu sebagai diperdebatkan atau belum dapat dikonfirmasi. Setelah itu, cek apakah perbedaannya berasal dari tanggal yang berbeda, definisi yang berbeda, wilayah yang berbeda, atau kesalahan kutip.
5. Beri status, jangan memaksa semua menjadi benar atau salah
Cek fakta tidak selalu berakhir dengan vonis hitam-putih. Lebih aman jika setiap klaim diberi status:
| Status | Cara menilai | Tindak lanjut |
|---|---|---|
| Terverifikasi | Bisa ditelusuri ke sumber primer dan teks asli mendukung klaim | Boleh digunakan, tetapi simpan tautan sumber |
| Belum terverifikasi | Ada klaim, tetapi sumbernya belum cukup atau belum ditemukan | Jangan disajikan sebagai fakta |
| Dugaan | AI atau penulis menarik kesimpulan dari data yang ada | Tandai jelas sebagai interpretasi atau kemungkinan |
| Diperdebatkan | Sumber-sumber kredibel memberi keterangan berbeda | Jelaskan perbedaannya dan hindari kesimpulan final |
Cara ini mencegah AI mengemas kata seperti mungkin, diperkirakan, atau menurut sebagian pihak menjadi seolah-olah sudah pasti.
6 titik yang paling sering membuat keliru
Angka: Persentase, nominal, peringkat, pertumbuhan, dan jumlah sampel harus dicek. Perhatikan tahun, wilayah, pembagi, dan sumber datanya.
Waktu: Kebijakan, harga, aturan, fitur produk, dan kondisi perusahaan bisa cepat berubah. Cek tanggal terbit dan apakah ada pembaruan.
Wilayah atau yurisdiksi: Istilah yang sama bisa punya konsekuensi berbeda di Indonesia, Amerika Serikat, Uni Eropa, atau negara lain. Topik hukum, pajak, kesehatan, imigrasi, privasi, dan investasi perlu kehati-hatian ekstra.
Definisi: Kata seperti AI, pengguna, pendapatan, risiko, kepatuhan, atau efektif sering punya definisi khusus di bidang tertentu. Baca bagaimana sumber asli mendefinisikannya.
Kutipan: Tanda kutip tidak menjamin kalimat itu benar-benar ada. Cari teks aslinya, cek apakah kalimatnya lengkap, dan lihat apakah konteksnya mendukung tafsir AI.
Kualitas sumber: Sumber yang ada belum tentu dapat diandalkan. Bedakan dokumen resmi, riset akademik, berita, materi pemasaran perusahaan, blog pribadi, dan konten yang hanya menyalin dari tempat lain.
Topik berisiko tinggi: jangan hanya mengandalkan AI
Untuk beberapa topik, biaya kesalahan terlalu besar. Gunakan standar pemeriksaan yang lebih ketat pada:
- diagnosis medis, obat, atau pilihan terapi;
- nasihat hukum, kontrak, perkara pengadilan, imigrasi, atau pajak;
- investasi, asuransi, dan keputusan keuangan;
- keselamatan pribadi, keamanan siber, dan keadaan darurat;
- berita terbaru, bocoran, tuduhan, dan konten politik.
Risiko di bidang hukum sudah terlihat dalam catatan insiden OECD.AI: ada kasus halusinasi generatif AI yang memengaruhi proses hukum, dan kerugiannya digambarkan sebagai misinformasi yang memengaruhi proses legal [5]. Untuk topik semacam ini, AI boleh membantu menyusun pertanyaan, tetapi jangan menggantikan dokumen resmi, prosedur formal, atau nasihat profesional.
Tanda bahaya: jangan langsung percaya
Waspadai jawaban AI jika Anda melihat pola seperti ini:
- bahasanya sangat yakin, tetapi tidak ada sumber;
- hanya menulis riset menunjukkan atau para ahli menyebut, tanpa nama riset, penulis, lembaga, atau tanggal;
- detailnya banyak, tetapi dokumen aslinya tidak bisa ditemukan;
- angkanya sangat presisi, tetapi tidak ada sumber data;
- jawabannya terasa terlalu cocok dengan pandangan Anda sendiri;
- semua sumber saling mengutip, tetapi tidak ada yang menuju dokumen awal;
- membahas kabar terbaru, tetapi tidak mencantumkan waktu pembaruan yang jelas.
NIST memasukkan aspek meyakinkannya narasi buatan dan narasi yang tampak kredibel tetapi menyesatkan ke dalam konteks evaluasi teks generatif [1]. Dengan kata lain: semakin terasa rapi dan masuk akal, semakin perlu dicek sumbernya.
Prompt yang bisa langsung disalin
Tolong hanya cantumkan sumber asli yang bisa diperiksa publik. Jangan menebak.
Untuk setiap klaim penting, sertakan tautan sumber, lembaga atau penulis, tanggal, dan kutipan teks asli.
Jika tidak yakin, tulis belum diketahui atau belum dapat dikonfirmasi. Jangan mengisi kekosongan dengan dugaan.
Bagi isi jawaban menjadi tiga kolom: terverifikasi, belum terverifikasi, dan dugaan.
Tunjukkan bagian jawaban yang paling rawan salah, termasuk angka, tanggal, wilayah, definisi, dan kutipan.
Patokan terakhir
Ingat satu kalimat ini:
Bisa dilacak ke sumber asli, lanjutkan pemeriksaan. Hanya bisa dilacak ke AI, jangan jadikan fakta.
AI paling berguna sebagai titik awal pencarian, alat penyusun pertanyaan, dan pembuat daftar hal yang perlu dicek. Yang menentukan apakah suatu informasi layak dipercaya tetaplah sumber yang terbuka, bisa diverifikasi, dan dibaca dalam konteks yang lengkap.




