Apakah sebuah gambar tampak janggal hanyalah titik awal. Pertanyaan yang lebih penting adalah: cerita apa yang sedang diklaim? Siapa disebut mengatakan, melakukan, atau menunjukkan apa—kapan, di mana, dan berdasarkan bukti asli yang mana?
AI generatif membuat pemeriksaan seperti ini makin penting, tetapi bukan berarti mustahil. Program GenAI NIST mengevaluasi, antara lain, seberapa sulit teks buatan AI dibedakan dari tulisan manusia dan seberapa meyakinkan narasi yang dihasilkan AI.[1] UNESCO menggambarkan deepfake sebagai bagian dari “crisis of knowing”, yaitu krisis kepercayaan dan kepastian pengetahuan.[
4] Reuters juga melaporkan sebuah laporan PBB yang menyerukan langkah lebih kuat untuk mendeteksi deepfake berbasis AI, termasuk karena risiko misinformasi dan potensi gangguan terhadap pemilu.[
3]
Aturan dasar: periksa klaim, bukan perasaan
Banyak orang keliru karena mulai dari permukaan: bentuk tangan, bayangan, gerak bibir, suara, atau tulisan di dalam gambar. Hal-hal itu bisa menjadi petunjuk. Namun, untuk cek fakta, petunjuk visual saja tidak cukup.
Mulailah dengan tiga pertanyaan:
- Apa klaim persisnya? Tulis inti klaim dalam satu kalimat.
- Di mana sumber primernya? Apakah ada video asli, rekaman audio lengkap, dokumen, paper, pengumuman resmi, atau unggahan pertama?
- Apakah konteksnya cocok? Periksa tanggal, lokasi, bahasa, potongan gambar, judul, dan teks pengantar.
Jika salah satu lapisan ini hilang, sebuah unggahan belum tentu salah. Tetapi unggahan itu juga belum layak dianggap terbukti. Karena itu, kemampuan mengenali misinformasi dalam media buatan AI kini diperlakukan sebagai bagian dari literasi digital; N.C. Cooperative Extension secara eksplisit menempatkan topik ini dalam “Digital Literacy for the Age of Deepfakes”.[2]
Pisahkan media dari klaim
Kesalahan berpikir yang sering terjadi adalah menganggap: kalau videonya asli, maka klaimnya pasti benar. Atau sebaliknya, kalau gambarnya buatan AI, maka semua yang dikatakan pasti palsu. Kenyataannya tidak sesederhana itu.
- Video asli bisa disebarkan dengan keterangan lokasi atau waktu yang salah.
- Tangkapan layar asli bisa dipotong dari konteksnya.
- Gambar AI bisa dipakai hanya sebagai ilustrasi simbolis untuk berita nyata.
- Klip sintetis bisa ditempelkan pada klaim yang sebenarnya perlu diperiksa terpisah.
Karena itu, lakukan dua penilaian berbeda: apakah materinya autentik, disunting, atau sintetis? Lalu: apakah materi itu benar-benar membuktikan klaim yang ditarik dari unggahan tersebut?
Checklist 7 langkah untuk konten AI yang mencurigakan
Gunakan urutan ini saat melihat unggahan media sosial, video, gambar AI, atau klaim spektakuler tentang AI.
- Catat klaim inti. Apa yang disebut terjadi? Siapa yang terlibat? Kesimpulan apa yang ingin dibuktikan?
- Cari sumber primer. Jangan berhenti pada repost. Cari video lengkap, audio yang lebih panjang, dokumen asli, paper, dokumentasi produk, atau pernyataan resmi.
- Cocokkan konteks. Periksa tanggal, lokasi, bahasa, peristiwa, potongan gambar, judul, dan teks pengantar. Potongan yang benar tetap bisa menyesatkan jika konteksnya salah.
- Pisahkan media dan klaim. Tanyakan secara terpisah: apakah gambar, video, audio, atau teks ini asli? Dan apakah ia benar-benar mendukung kesimpulan yang diklaim?
- Lakukan pengecekan silang. Gunakan pencarian gambar terbalik, periksa frame video, lalu bandingkan lokasi, logo, cuaca, pakaian, bayangan, atau detail latar.
- Nilai kejanggalan teknis dengan hati-hati. Tulisan yang melengkung, gerak bibir tidak natural, bayangan aneh, tangan janggal, atau suara yang pecah adalah tanda waspada. Tetapi itu saja belum menjadi bukti final.
- Cari konfirmasi independen. Perlakukan klaim besar sebagai fakta hanya jika sumber yang kuat mengonfirmasi inti yang sama dan, idealnya, merujuk ke materi asli.
Jika setelah langkah-langkah ini informasi penting masih hilang, penilaian paling rapi sering kali adalah: belum terbukti.
Deepfake dan gambar AI: asal-usul lebih penting daripada cacat piksel
Deepfake bukan hanya soal manipulasi teknis. Ia dapat membuat bukti yang terlihat dan terdengar meyakinkan menjadi sulit dipercaya. UNESCO menyebut masalah ini sebagai krisis pengetahuan dan kepercayaan; laporan PBB yang diberitakan Reuters menyerukan langkah lebih kuat terhadap deepfake berbasis AI dan misinformasi.[3][
4]
Secara praktis, telusuri rantai asal-usulnya:
- Dari klip ke materi penuh: Apakah yang beredar hanya potongan pendek, atau ada video lengkapnya?
- Dari repost ke sumber awal: Siapa yang pertama kali mengunggah konten itu?
- Dari screenshot ke tautan: Apakah bukti yang diklaim bisa dibuka, diarsipkan, dan ditelusuri?
- Dari adegan ke klaim: Apakah materi tersebut benar-benar menunjukkan hal yang ditulis dalam keterangan unggahan?
- Dari artefak ke bukti: Bayangan aneh atau suara yang ganjil adalah petunjuk. Yang menentukan tetap keberadaan sumber asli dan konfirmasi independen.
Untuk tokoh publik, situasi krisis, isu pemilu, atau dugaan skandal, sikap menahan diri sangat penting. Tanpa asal-usul yang jelas dan konteks lengkap, jangan memperlakukan sebuah konten seolah-olah sudah pasti benar.
Hoaks tentang AI: perlakukan hype seperti klaim yang harus diuji
Tidak semua cerita menyesatkan tentang AI dibuat dengan AI. Banyak yang berupa tafsir berlebihan: demo laboratorium digambarkan seolah-olah sudah menjadi produk jadi, satu hasil uji dijual sebagai terobosan umum, atau tangkapan layar menggantikan sumber asli.
Pertanyaan yang berguna:
- Apakah ada paper asli, pengumuman produk resmi, atau dokumentasi teknis?
- Apakah demo laboratorium digambarkan sebagai fitur yang sudah tersedia luas?
- Apakah batasan, kondisi uji, atau tingkat kesalahan disembunyikan?
- Apakah satu contoh dipakai untuk membuat kesimpulan umum?
- Siapa yang diuntungkan oleh dramatisasi ini—jangkauan, iklan, efek politik, atau kepentingan ekonomi?
Ungkapan seperti 100% akurat, terbukti final, berpikir seperti manusia, revolusioner, atau langsung menggantikan semua pekerjaan tidak otomatis berarti klaimnya salah. Namun, itu alasan kuat untuk mencari sumber primer dan mempersempit klaim agar bisa diuji.
Detektor AI: alat bantu riset, bukan hakim akhir
Detektor AI bisa memberi petunjuk, tetapi tidak menggantikan cek fakta. Program GenAI NIST menunjukkan bahwa kemampuan membedakan konten yang dihasilkan AI dan tingkat kepercayaan terhadap narasi buatan AI menjadi objek evaluasi terstruktur; teks NIST juga menjelaskan bahwa data dari narasi yang meyakinkan tetapi menyesatkan dapat digunakan untuk melatih detektor agar mengenali narasi semacam itu.[1]
Jika memakai detektor, tanyakan:
- Apakah alat itu memeriksa teks, gambar, audio, atau video?
- Apakah yang diuji adalah pembuatan oleh AI, manipulasi, atau sekadar kejanggalan statistik?
- Apakah alat memberikan alasan yang bisa ditelusuri, atau hanya angka persentase?
- Apakah hasilnya cocok dengan sumber primer dan konteks, atau justru membuat kita merasa sudah mengecek padahal belum?
Penting: detektor paling jauh hanya memberi petunjuk tentang kemungkinan asal-usul sebuah media. Ia tidak otomatis membuktikan apakah klaim dalam unggahan itu benar.
Memakai AI dengan bijak saat cek fakta
Alat AI dapat membantu menyusun riset. Namun, keputusan tentang apa yang terbukti sebaiknya tidak diserahkan sepenuhnya kepada AI.
AI bisa berguna untuk:
- merumuskan klaim inti sebuah unggahan menjadi kalimat yang bisa diuji,
- mengidentifikasi informasi yang hilang, seperti tanggal, lokasi, orang, kutipan, atau konteks,
- membuat daftar kemungkinan sumber primer,
- menyarankan pengecekan silang,
- menunjukkan ketidaksesuaian antara klaim dan bukti.
Setelah itu, buka sendiri sumber yang disebut. Jawaban AI tanpa sumber asli yang bisa diperiksa hanyalah petunjuk riset, bukan bukti.
Tanda bahaya: cek dulu, baru bagikan
Berhenti sejenak jika beberapa tanda ini muncul bersamaan:
- Hanya ada screenshot, tidak ada tautan.
- Kutipan dipotong atau tidak bisa ditemukan.
- Penulis, tanggal, atau tempat publikasi awal tidak jelas.
- Unggahan mendesak orang untuk segera membagikan.
- Hanya satu sumber yang menyebarkan klaim.
- Bahasanya penuh kemarahan, tetapi minim fakta yang bisa diperiksa.
- Screenshot hasil detektor dipakai sebagai satu-satunya bukti.
- Klaimnya besar, buktinya tipis.
Rumus singkat
Untuk konten AI yang mencurigakan, urutannya sederhana:
- Cari sumber asli.
- Periksa konteks.
- Cari konfirmasi independen.
- Baru percaya atau bagikan.
Karena narasi buatan AI bisa tampak meyakinkan dan deepfake menantang kepercayaan kita pada bukti visual maupun audio, “belum terbukti” sering kali lebih aman daripada kesimpulan yang terburu-buru.[1][
4]




