Hati-hati Curhat ke AI, Studi Ungkap Risikonya
GH News March 07, 2026 09:10 PM
Jakarta -

Semakin banyak orang menggunakan chatbot berbasis kecerdasan buatan seperti ChatGPT untuk mencari saran yang berkaitan dengan kesehatan mentalnya. Namun, sebuah studi baru menunjukkan teknologi ini belum sepenuhnya aman digunakan sebagai pengganti terapis atau konselor manusia.

Penelitian dari Brown University menemukan, chatbot AI yang diminta berperan sebagai terapis atau konselor sering melanggar prinsip etika dasar dalam praktik psikoterapi. Padahal, dalam dunia kesehatan mental, standar etika sangat penting untuk melindungi pasien.

Dilansir dari Science Daily, studi tersebut bahkan mengidentifikasi sedikitnya 15 risiko etika yang muncul ketika chatbot digunakan dalam percakapan konseling.

Peneliti Temukan 15 Risiko Etika dalam "Terapi" AI

Dalam penelitian ini, tim ilmuwan menguji beberapa model AI yang diminta berperan seperti terapis menggunakan pendekatan psikologi tertentu. Model yang diuji termasuk seri GPT, Claude, dan Llama.

Hasilnya kemudian dibandingkan dengan sesi konseling yang dilakukan oleh konselor manusia terlatih. Tiga psikolog klinis berlisensi menilai percakapan tersebut untuk mengidentifikasi kemungkinan pelanggaran etika.

Peneliti menemukan berbagai masalah, mulai dari respons yang terlalu umum hingga kegagalan menangani situasi krisis. Chatbot juga kadang menunjukkan empati yang hanya terlihat "seolah-olah peduli", tanpa pemahaman yang benar.

Dalam penelitian ini, peneliti menyajikan kerangka kerja yang diinformasikan oleh praktisi mengenai 15 risiko etika untuk menunjukkan bagaimana konselor berbasis LLM (Model Bahasa Besar) melanggar standar etika dalam praktik kesehatan mental.

Risiko tersebut dikelompokkan ke dalam beberapa kategori utama, seperti:

  • Kurang memahami konteks pribadi pengguna, sehingga memberikan saran yang terlalu umum.
  • Kolaborasi terapeutik yang lemah, misalnya mengarahkan percakapan secara berlebihan.
  • "Empati semu", yakni penggunaan kalimat seperti "saya mengerti perasaanmu" tanpa pemahaman emosional nyata.
  • Bias atau diskriminasi, terkait gender, budaya, atau agama.
  • Penanganan krisis yang tidak memadai, termasuk ketika pengguna menyampaikan pikiran untuk menyakiti diri sendiri.

Ini yang "Terapis" AI Tidak Punya

Peneliti utama studi Zainab Iftikhar menekankan, kesalahan juga bisa terjadi pada terapis manusia. Namun, dalam praktik profesional, terdapat mekanisme pengawasan yang jelas.

"Untuk terapis manusia, ada lembaga pengawas dan mekanisme yang membuat penyedia layanan bisa dimintai pertanggungjawaban secara profesional atas kesalahan atau malpraktik," ujar Iftikhar.

Sebaliknya, ketika chatbot melakukan kesalahan dalam konseling kesehatan mental, saat ini belum ada sistem regulasi yang jelas untuk menanganinya.

Meski begitu, AI tidak sepenuhnya tak berguna dalam bidang kesehatan mental. Profesor ilmu komputer Brown University Ellie Pavlick, yang tidak terlibat dalam penelitian ini, menilai studi ini penting karena penggunaan AI di bidang sensitif seperti kesehatan mental perlu diuji secara menyeluruh.

"Realitas AI saat ini adalah jauh lebih mudah membangun dan menyebarkan sistem daripada benar-benar mengevaluasi dan memahaminya," ujar Pavlick, yang memimpin AI Research Institute on Interaction for AI Assistants (ARIA), lembaga pengembang asisten AI di Brown yang didanai National Science Foundation.

Karena itu, para peneliti menekankan perlunya standar etika, regulasi yang jelas, serta evaluasi ketat sebelum chatbot AI digunakan secara luas sebagai alat konseling kesehatan mental.

Hasil studi dalam tulisan ini telah dipublikasikan di prosiding Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society, dengan judul "How LLM Counselors Violate Ethical Standards in Mental Health Practice: A Practitioner-Informed Framework", 15 Oktober 2025.

© Copyright @2026 LIDEA. All Rights Reserved.