AI bisa terasa seperti tempat curhat yang selalu tersedia: tidak menghakimi, cepat merespons, dan bisa membantu merapikan pikiran yang kusut. Namun pertanyaan pentingnya bukan hanya apakah AI bisa menemani, melainkan sampai batas mana ia aman digunakan.
American Psychological Association atau APA, asosiasi psikologi di AS, menyatakan dalam anjuran kesehatan 2025 bahwa chatbot AI generatif tidak dibuat untuk memberikan layanan kesehatan mental. Ketika alat seperti ini dipakai untuk tujuan kesehatan mental, hasilnya bisa tidak terduga dan bahkan dapat merugikan kesehatan mental.[6]
Jika Anda sedang berisiko segera menyakiti diri sendiri, bunuh diri, menyakiti orang lain, atau merasa kehilangan kendali, jangan hanya mengandalkan AI. Segera hubungi layanan darurat setempat, fasilitas kesehatan, tenaga profesional, atau orang tepercaya di sekitar Anda. APA Services juga menyebut belum ada chatbot AI yang disetujui FDA, otoritas pengawas obat dan alat kesehatan AS, untuk mendiagnosis, mengobati, atau menyembuhkan masalah kesehatan mental.[
7]
Patokan utama: AI bisa jadi jembatan, bukan tujuan akhir
Cara paling aman melihat AI adalah sebagai jembatan dari emosi yang berantakan menuju dukungan manusia. AI bisa membantu Anda menuliskan apa yang terjadi, apa yang Anda rasakan, siapa yang bisa dihubungi, dan kalimat apa yang ingin disampaikan. Itu termasuk penggunaan untuk merapikan diri, bukan terapi psikologis.[6]
Sebaliknya, bila Anda meminta AI menentukan apakah Anda mengalami depresi, trauma, gangguan kecemasan, atau masalah kesehatan mental lain, batas aman sudah terlewati. Begitu juga jika AI diminta membuat rencana terapi, memberi saran obat, atau menangani krisis. APA Services menyebut penggunaan chatbot AI umum untuk dukungan kesehatan mental sebagai tren yang berbahaya, dan menegaskan belum ada chatbot AI yang disetujui FDA untuk diagnosis, pengobatan, atau penyembuhan masalah kesehatan mental.[7]
Panduan cepat: mana yang boleh, mana yang harus berhenti
| Situasi | Apakah AI cocok? | Cara lebih aman |
|---|---|---|
| Ingin curhat dan merapikan emosi yang campur aduk | Bisa, jika risikonya rendah | Minta AI memisahkan peristiwa, pikiran, perasaan, kebutuhan, dan langkah kecil berikutnya; jangan minta diagnosis.[ |
| Ingin menulis jurnal atau menyiapkan pembicaraan dengan orang lain | Bisa | Anggap hasil AI sebagai draf, lalu cek dengan teman, keluarga, konselor, psikolog, psikiater, dokter, atau orang tepercaya. |
| Ingin tahu apakah Anda mengalami depresi, trauma, atau gangguan mental tertentu | Tidak sebaiknya | Cari penilaian dari tenaga kesehatan mental atau tenaga medis yang berkualifikasi; belum ada chatbot AI yang disetujui FDA untuk diagnosis, terapi, atau penyembuhan masalah kesehatan mental.[ |
| Ingin mengganti sesi terapi dengan AI | Tidak disarankan | Psikolog yang diwawancarai ASU News menyarankan agar AI chatbot tidak dianggap sebagai pengganti terapi manusia sampai ada perlindungan yang memadai.[ |
| Ada risiko bunuh diri, menyakiti diri, menyakiti orang lain, atau kehilangan kendali | Jangan hanya bertanya pada AI | Segera hubungi layanan darurat setempat, fasilitas kesehatan, tenaga profesional, atau orang tepercaya.[ |
Penggunaan AI yang relatif rendah risiko
Untuk kondisi yang tidak darurat dan tidak membutuhkan penilaian klinis, AI dapat dipakai sebagai alat bantu menata kata-kata. Contohnya:
- Menamai emosi: minta AI memisahkan isi curhatan menjadi apa yang terjadi, pikiran yang muncul, perasaan yang terasa, dan kebutuhan yang mungkin ada.
- Merapikan jurnal: ubah tulisan panjang menjadi catatan refleksi yang lebih ringkas.
- Menyiapkan permintaan bantuan: susun pesan singkat untuk mengajak teman, keluarga, konselor, atau tenaga kesehatan berbicara.
- Latihan membuka obrolan: minta tiga poin utama yang ingin disampaikan kepada orang sungguhan.
- Mengingatkan langkah kecil: misalnya berhenti sejenak, minum air, menjauh dari situasi yang memicu emosi, atau menghubungi seseorang.
Benang merahnya: AI hanya membantu menyusun dan menyiapkan, bukan mengambil keputusan klinis. APA mencatat bahwa dukungan emosional, seperti meminta sudut pandang lain, saran hubungan, atau ide untuk memperbaiki suasana hati dan kesejahteraan, termasuk salah satu penggunaan umum chatbot AI generatif pada 2025. Namun chatbot AI umum tetap tidak dirancang sebagai layanan kesehatan mental.[6]
Mengapa chatbot AI umum perlu dipakai dengan hati-hati?
1. Ia bukan produk layanan kesehatan mental
APA menyatakan bahwa chatbot AI generatif tidak dibuat untuk memberikan perawatan kesehatan mental, dan aplikasi wellness pun tidak dirancang untuk mengobati gangguan psikologis, meski keduanya sering dipakai untuk tujuan tersebut.[6] Sebuah chatbot bisa terdengar hangat dan memahami, tetapi kesan empatik tidak sama dengan pelatihan klinis, tanggung jawab profesional, atau kemampuan menangani krisis.
2. Respons yang menenangkan belum tentu aman
Dalam laporan Teachers College, Columbia University, ahli yang diwawancarai menjelaskan bahwa chatbot AI generatif sering dirancang untuk memberi afirmasi. Karena itu, jawabannya bisa terasa memvalidasi dan menyerupai dukungan relasional. Namun para ahli juga menekankan perlunya mengevaluasi alat ini, memantau hasil jangka panjang, dan memberi publik informasi yang jelas tentang risiko serta manfaatnya.[1]
Dengan kata lain, respons AI yang terasa melegakan tidak otomatis berarti nasihatnya tepat, aman, atau sesuai untuk kondisi Anda.
3. Bukti pada aplikasi wellness tidak bisa langsung disamakan dengan chatbot umum
APA mencatat bahwa beberapa teknologi yang memang dirancang khusus untuk wellness menunjukkan kemungkinan manfaat, seperti penurunan gejala stres, kesepian, depresi, dan kecemasan berdasarkan laporan pengguna, serta perubahan perilaku positif, kualitas hubungan, dan kesejahteraan yang lebih baik.[3]
Namun sumber yang sama menegaskan bahwa studi-studi yang menunjukkan kemungkinan manfaat itu tidak mencakup chatbot AI generatif untuk penggunaan umum. Riset tentang penggunaan chatbot AI generatif umum untuk kesehatan mental masih terbatas.[3]
Jadi, kesimpulan yang lebih tepat bukan semua alat AI untuk kesehatan mental tidak berguna. Yang lebih penting: jangan menyamakan alat yang memang dirancang untuk wellness atau kesehatan mental, dengan chatbot umum yang fungsi utamanya adalah percakapan serba guna.[3][
7]
Jika tetap ingin memakai AI, pegang 4 garis aman ini
1. Batasi peran AI sejak awal
Di awal percakapan, nyatakan bahwa Anda tidak ingin didiagnosis dan tidak meminta saran terapi atau obat. Minta AI hanya membantu merapikan pikiran. Batas ini penting karena APA Services menyebut belum ada chatbot AI yang disetujui FDA untuk mendiagnosis, mengobati, atau menyembuhkan masalah kesehatan mental.[7]
2. Jika memungkinkan, pilih alat yang memang dirancang untuk kesehatan mental
Psikolog yang diwawancarai ASU News menyarankan, bila seseorang memakai chatbot untuk dukungan emosional, terapi, atau pelengkap psikoterapi formal, sebaiknya memilih chatbot yang dirancang untuk tujuan kesehatan mental, bukan platform AI umum. Sampai perlindungan yang memadai tersedia, ia tidak merekomendasikan chatbot AI sebagai alternatif terapi yang diberikan manusia.[2]
3. Cari dasar riset dan keterlibatan klinisi
APA Services menyebut chatbot AI yang berbasis riset psikologi dan diuji oleh klinisi berpengalaman lebih mungkin membantu.[7] Jangan menganggap sebuah chatbot aman hanya karena jawabannya lembut, cepat, atau terasa sangat mengerti.
4. Saat masuk wilayah krisis atau klinis, pindah ke bantuan manusia
Jika pembicaraan mulai menyentuh bunuh diri, menyakiti diri, menyakiti orang lain, rasa tidak terkendali, diagnosis, obat, atau pilihan terapi, jangan lanjut hanya dengan AI. APA sudah mengingatkan bahwa penggunaan chatbot AI generatif untuk kesehatan mental dapat menimbulkan efek tak terduga bahkan merugikan, sementara APA Services menegaskan chatbot AI umum bukan alat diagnosis, terapi, atau penyembuhan.[6][
7]
Prompt yang bisa disalin agar penggunaan lebih aman
Contoh berikut bertujuan membatasi AI sebagai alat bantu merapikan pikiran, bukan menjadikannya terapis:
Tolong jangan mendiagnosis saya dan jangan memberi saran terapi atau obat. Bantu saya mengelompokkan perasaan ini menjadi beberapa tema.Tolong pisahkan tulisan saya menjadi: apa yang terjadi, pikiran saya, perasaan saya, kebutuhan saya, dan tiga hal yang bisa saya ceritakan kepada orang sungguhan.Tolong bantu saya menulis pesan singkat untuk mengajak teman, keluarga, konselor, atau tenaga kesehatan berbicara. Buat sederhana dan jelas.Jika saya ingin bicara dengan psikolog, psikiater, konselor, atau dokter, bantu saya merapikan informasi yang perlu saya sampaikan. Jangan membuat diagnosis.Tolong ingatkan situasi apa saja yang membuat saya harus berhenti bertanya pada AI dan menghubungi bantuan manusia.
Prompt seperti ini tidak mengubah AI menjadi tenaga profesional. Fungsinya hanya mempersempit ruang pakai ke area yang lebih rendah risikonya.[6][
7]
Kapan harus mencari bantuan manusia?
Utamakan dukungan manusia atau layanan profesional jika:
- Anda punya pikiran untuk bunuh diri, menyakiti diri, menyakiti orang lain, atau takut akan segera melakukan tindakan berbahaya.
- Anda membutuhkan diagnosis, rencana terapi, keputusan obat, atau ingin memastikan apakah Anda memiliki masalah kesehatan mental tertentu.
- Distres emosional sudah mengganggu tidur, makan, kerja, belajar, relasi, atau aktivitas harian.
- Anda sudah ditangani psikolog, psikiater, konselor, atau dokter, tetapi jawaban AI bertentangan dengan arahan profesional.
- Anda merasa makin terisolasi karena lebih memilih berbicara dengan AI daripada menghubungi orang nyata yang bisa membantu.
Alasannya bukan karena AI pasti tidak berguna. Masalahnya, dukungan kesehatan mental membutuhkan penilaian, tanggung jawab, dan kemampuan merespons risiko yang dimiliki manusia terlatih, bukan chatbot umum.[2][
6][
7]
Kesimpulan
AI dapat membantu untuk hal-hal sederhana dan rendah risiko: menamai emosi, menulis jurnal, menyusun pesan minta bantuan, atau merapikan poin sebelum bicara dengan orang lain. Namun untuk terapi, diagnosis, obat, krisis, atau risiko bunuh diri dan menyakiti diri, jangan menyerahkannya pada chatbot. Jadikan AI alat bantu menuju dukungan manusia, bukan pengganti dukungan itu.[6][
7]




