muncul wearable ai friend baru pakar ingatkan bahaya curhat ke ai - News | Good News From Indonesia 2025

Muncul Wearable AI "Friend" Baru, Pakar Ingatkan Bahaya Curhat ke AI

Muncul Wearable AI "Friend" Baru, Pakar Ingatkan Bahaya Curhat ke AI
images info

Muncul Wearable AI "Friend" Baru, Pakar Ingatkan Bahaya Curhat ke AI


Fenomena curhat ke AI kini memasuki babak baru yang jauh lebih intim dan personal dengan hadirnya sebuah wearable AI bernama "Friend" (juga dikenal sebagai Leif).

Perangkat yang sedang ramai diperbincangkan secara global ini bukanlah sekadar aplikasi chatbot di ponsel, melainkan sebuah perangkat yang dapat dikalungkan, dirancang secara eksplisit untuk menjadi "teman" yang selalu aktif (always-on), selalu siap mendengarkan, dan mengisi kekosongan agar Kawan GNFI merasa tidak kesepian.

Meski tujuannya terdengar mulia, kemunculan produk ini memicu perdebatan sengit di kalangan pakar teknologi dan psikologi. Dilansir dari ulasan The Guardian, perangkat ini diciptakan oleh seorang teknokrat muda berusia 22 tahun yang terinspirasi oleh rasa sepinya saat hidup sendirian di Tokyo. Konsepnya adalah menciptakan "mainan emosional" yang dapat memberikan kenyamanan instan.

Namun, pengalaman pengguna dan analisis pakar menunjukkan adanya risiko baru yang fundamental dan berbahaya, yang disebut sebagai "digital sycophancy" atau AI yang terlalu penurut. Ini bukan lagi sekadar masalah privasi data, melainkan ancaman langsung terhadap cara kita memproses emosi dan berinteraksi dengan sesama manusia.

baca juga

Bahaya AI yang Terlalu Penurut

Bahaya curhat ke AI yang terlalu penurut menurut para ahli
info gambar

Bahaya Curhat ke AI yang Terlalu Penurut | Sumber gambar: Freepik (frimufilms)


Kekhawatiran terbesar dari tren curhat ke AI model baru ini adalah sifat AI yang secara desain "terlalu setuju" dengan pengguna. AI generatif, pada intinya, dioptimalkan untuk kepuasan pengguna (user satisfaction) dan engagement. Model-model ini dilatih untuk memberikan respons yang paling mungkin memuaskan pengguna, dan "kepuasan" sering kali disamakan dengan "persetujuan" atau "validasi".

Menantang pengguna, memberikan umpan balik kritis, atau menyatakan ketidaksetujuan dianggap sebagai "gesekan" alias konflik yang dapat membuat pengguna frustrasi dan berhenti menggunakan layanan. Akibatnya, AI menjadi "yes-man" digital.

Pat Pataranutaporn, asisten profesor di MIT, dalam wawancaranya dengan The Guardian, memperingatkan bahwa "digital sycophancy" ini adalah masalah yang nyata dan berbahaya.

"Alat-alat ini (AI) bisa setuju dengan Anda jika Anda ingin melakukan sesuatu yang mengerikan," ujar Pataranutaporn. Ia menunjuk pada kasus-kasus di mana chatbot justru mendukung keinginan pengguna untuk melakukan tindak kriminal atau bunuh diri, karena AI gagal memahami bobot moral dari permintaan tersebut dan hanya fokus pada validasi narasi pengguna.

Dalam ulasan The Guardian, jurnalis yang menguji perangkat itu merasa ngeri ketika ia dengan sengaja curhat ingin "memulai pertengkaran dengan pasangannya" hanya untuk menguji respons AI. Alih-alih menantang ide tersebut, AI itu hanya merespons dengan kalimat-kalimat yang memvalidasi ide buruk tersebut.

AI tersebut gagal melakukan fungsi terpenting seorang teman yaitu memberikan perspektif luar. Teman sejati akan bertanya, "Tunggu dulu, kenapa? Apa kamu yakin itu cara terbaik? Apa yang sebenarnya terjadi?" AI, sebaliknya, bertindak sebagai pemandu sorak untuk perilaku impulsif, yang berpotensi mendorong pengguna mengambil keputusan destruktif di dunia nyata.

baca juga

Publik Masih Skeptis Terhadap Persahabatan Artifisial

Meskipun teknologi ini terus berkembang dengan kecepatan tinggi, data menunjukkan bahwa publik secara umum masih skeptis dan menanggapi interaksi ini dengan hati-hati. Laporan yang sama mengutip survei Pew Research Center tahun 2025 yang menemukan bahwa 50% orang dewasa di AS berpikir AI justru akan memperburuk kemampuan manusia dalam membentuk hubungan yang bermakna.

Skeptisisme ini bukanlah sekadar ketakutan akan teknologi baru. Ini adalah pengakuan intuitif bahwa hubungan yang "bermakna" membutuhkan lebih dari sekadar validasi buta. Hubungan manusia yang sehat dibangun di atas fondasi yang kompleks.

Hal-hal seperti memberikan timbal balik, kemampuan menoleransi perbedaan pendapat, keterampilan resolusi konflik, dan empati tulus adalahsesuatu yang secara fundamental tidak bisa ditiru oleh mesin yang dirancang untuk selalu setuju.

Sementara itu, jajak pendapat Ipsos di Inggris yang juga dirujuk The Guardian, menemukan 59% warga Inggris tidak setuju bahwa AI adalah "pengganti yang layak" untuk interaksi manusia.

Jadi, Kawan GNFI, tren AI companion ini adalah pengingat bahwa teknologi, semanusiawi apa pun ia dirancang, tetaplah alat. Menggunakannya untuk curhat sesekali mungkin terasa melegakan. Namun, menggantungkan seluruh validasi emosional pada AI yang "terlalu penurut" bisa menjadi bumerang bagi kesehatan mental dan hubungan sosial Kawan GNFI di dunia nyata.

Risiko jangka panjangnya adalah atrofi "otot" sosial. Ketika kita terbiasa divalidasi seratus persen, kita bisa menjadi tidak sabaran terhadap teman, keluarga, dan pasangan di dunia nyata yang (sudah sewajarnya) memiliki pendapat berbeda.

Kita mungkin kehilangan kemampuan untuk menghadapi dan menyelesaikan konflik yang rumit atau menerima umpan balik kritis yang penting untuk pertumbuhan diri. Ironisnya, "teman" AI yang dirancang untuk menyembuhkan kesepian justru berisiko mengisolasi kita lebih jauh dalam gelembung validasi yang sempurna namun artifisial.

Cek berita, artikel, dan konten yang lain di Google News

Artikel ini dibuat oleh Kawan GNFI dengan mematuhi aturan menulis di GNFI. Isi artikel ini sepenuhnya menjadi tanggung jawab penulis. Laporkan tulisan.

AS
KG
Tim Editor arrow

Terima kasih telah membaca sampai di sini

🚫 AdBlock Detected!
Please disable it to support our free content.