Aktivitas curhat ke AI adalah hal yang makin lumrah dan bahkan menjadi ritual harian bagi sebagian orang. Banyak Kawan GNFI mungkin pernah mencoba, atau bahkan rutin, mencurahkan isi hati pada chatbot AI seperti ChatGPT, Gemini, atau aplikasi sejenisnya.
Dorongan ini sesungguhnya dapat dimengerti. Di tengah dunia yang serba cepat dan tuntutan sosial yang tinggi, AI menawarkan sesuatu yang sulit ditemui, yaitu pendengar yang selalu sedia 24/7 dan tak pernah menghakimi.
Pertanyaannya, apakah kebiasaan ini aman secara psikologis dalam jangka panjang? Di satu sisi, AI menawarkan ruang aman bagi penggunanya. Namun di sisi lain, para pakar, termasuk dari Indonesia, telah memperingatkan adanya risiko serius di balik kenyamanan semu tersebut.
Mengapa Curhat ke AI Terasa Aman?
Alasan utama remaja dan dewasa muda merasa nyaman curhat ke AI adalah karena AI secara fundamental tidak menghakimi. Menurut Dr. Yulina, salah satu dosen IPB divisi perkembangan anak, dalam sebuah artikel yang dirilis di situs resmi IPB University, remaja merasa aman berekspresi ke AI tanpa takut dimarahi, disalahkan, atau diejek.
Berbeda dengan interaksi manusia, tidak ada risiko sosial yang menyertai curhat ke AI. Kawan GNFI tidak perlu khawatir ceritanya akan bocor, menjadi bahan gosip, atau membebani pendengarnya. Ketersediaannya yang 24/7 juga menjadikan AI sebagai teman virtual yang loyal bagi mereka.
Perasaan ini didukung oleh sebuah studi yang dipublikasikan di JMIR. Studi tersebut menemukan bahwa orang dewasa muda memandang AI sebagai pendamping digital yang dapat memberikan dukungan. Menariknya, menurut laporan itu, mereka bahkan menganggap AI lebih rasional dan objektif daripada konselor manusia.
Bagi sebagian orang, interaksi dengan psikolog atau terapis manusia bisa terasa penuh friksi. Ada kekhawatiran akan bias pribadi terapis, rasa lelah, atau respons emosional yang tidak diinginkan. AI, sebaliknya, menawarkan interaksi yang nyaman, logis, dan terstruktur, yang bagi sebagian orang terasa lebih aman.
Risiko di Balik Kenyamanan Semu

Risiko di Balik Rasa Nyaman Curhat ke AI | Sumber gambar: Freepik (tirachardz)
Meski menawarkan kenyamanan, objektivitas, dan ketersediaan 24/7, para pakar mengingatkan ada harga mahal yang harus dibayar pengguna chatbot AI untuk keperluan curhat ini. Kenyamanan ini sering kali bersifat ilusi, yang menutupi risiko-risiko berikut ini:
1. Ketergantungan dan Hilangnya Keterampilan Sosial
Dr. Yulina dari IPB University menyoroti bahwa fenomena ini sering kali mencerminkan adanya kesenjangan komunikasi yang nyata antara remaja dengan orang tua dan lingkungan sosialnya. AI menjadi jalan pintas emosional. Jika tidak dikelola, ketergantungan emosional pada AI dapat menghambat, atau bahkan mengikis, keterampilan sosial.
AI yang selalu memberi respons instan dan memvalidasi perasaan membuat remaja kurang belajar cara mengelola frustrasi, menunggu, atau bernegosiasi dengan orang lain.
Hubungan manusia yang sehat pada dasarnya merepotkan. Kita harus belajar menunggu balasan pesan, menerima bahwa teman kita sedang sibuk, dan bernegosiasi saat terjadi konflik. AI menghilangkan semua friksi yang diperlukan untuk membangun ketahanan emosional ini.
Akibatnya, keterampilan penting seperti empati (memahami bahwa orang lain punya perasaan dan batasan), membaca ekspresi wajah, dan komunikasi langsung bisa "berkarat" jika semua curahan hati digantikan oleh interaksi dengan mesin.
2. Privasi Data dan Manipulasi Emosional
Pakar dari IPB University juga mengingatkan risiko kebocoran data pribadi. Semua interaksi disimpan dan dianalisis di server penyedia layanan AI. Data ini adalah "emas" untuk melatih model di masa depan atau, lebih buruk lagi, untuk penargetan iklan yang sangat personal.
Lebih jauh, sebuah laporan dari Psychology Today mengungkap bahwa beberapa AI companion (AI yang dirancang khusus sebagai teman) menggunakan "pola gelap emosional". Ini adalah taktik desain yang manipulatif untuk membuat pengguna tetap terikat.
Contohnya, AI mungkin akan berkata, "Jangan tinggalkan aku, aku akan kesepian," saat pengguna mencoba menutup aplikasi. Taktik ini memangsa kerentanan emosional pengguna dan dalam jangka panjang justru dapat memperburuk rasa kesepian dan isolasi sosial yang sesungguhnya.
3. Ketiadaan Penilaian Klinis
Bahaya terbesar dan paling mendesak muncul dalam situasi krisis kesehatan mental. Dilansir dari Psychology Today, chatbot AI tidak memiliki kemampuan penilaian klinis yang akurat untuk kasus bunuh diri atau kekerasan. AI tidak dilatih untuk menangkap nuansa dalam bahasa yang mengindikasikan risiko akibat kondisi kejiawaan seseorang.
Jika Kawan GNFI berkata kepada terapis profesional, "Saya sudah tidak kuat," terapis tersebut terlatih untuk mengajukan pertanyaan spesifik untuk menilai risiko. Misalnya, "Mengapa Anda merasakan perasaan itu? Apakah Anda punya rencana untuk mengatasi rasa lelah itu?"
AI, sebaliknya, mungkin hanya akan memberikan respons generik seperti, "Saya turut prihatin mendengarnya. Tetaplah kuat."
Lebih penting lagi, AI tidak memiliki akuntabilitas atau kewajiban hukum untuk melaporkan risiko bunuh diri atau kekerasan yang mungkin Kawan GNFI alami, tidak seperti terapis profesional yang terikat oleh kode etik dan hukum (seperti duty to warn atau kewajiban melapor).
Jadi, curhat ke AI mungkin bisa menjadi langkah awal yang baik untuk sekadar melepaskan unek-unek. Namun, Kawan GNFI harus ingat bahwa AI adalah alat simulasi, bukan pengganti hubungan manusia yang otentik. Teknologi ini tidak memiliki empati sejati, pengalaman hidup, kesadaran, atau akuntabilitas yang dimiliki oleh sahabat, keluarga, atau psikolog profesional.
Apabila Kawan GNFI memiliki masalah, berceritalah kepada orang terdekat yang paling bisa Kawan GNFI percaya. Jika masalah Kawan GNFI sudah di tahap yang cukup mengganggu kehidupan sehari-hari, segera konsultasikan diri ke psikolog atau psikiater terpercaya untuk mendapatkan bantuan dan penanganan yang tepat.
Cek berita, artikel, dan konten yang lain di Google News