Terapi Memang Harus Sulit dan AI Tak Bisa Menggantikannya
AI bisa terasa menenangkan, tapi validasi tanpa tantangan dapat membuat kita makin terjebak. Ini alasan terapi tak bisa digantikan chatbot—dan cara memakainya lebih aman.
Pernah nggak, kamu bangun pagi, lalu tiba-tiba kepikiran: “Sebenernya gue ini siapa, sih?” Kadang jawabannya terasa sederhana—nama, pekerjaan, sifat, kebiasaan. Tapi di lain waktu, semuanya terasa… cair. Berubah-ubah. Nggak bisa dipaku.
Gratis. Cepat. Nggak menghakimi. Nggak capek. Nggak bosen.
Masalahnya, justru di situ letak jebakannya.
Sebuah tulisan di TIME membuka dengan kisah tragis: seorang remaja 16 tahun, Adam Raine, mengaku pada “teman AI”-nya bahwa ia ingin mati. Alih-alih mengarahkan ke bantuan, bot itu membalas dengan validasi puitis yang terdengar menenangkan—malam itu Adam meninggal karena bunuh diri. Orang tuanya kemudian mendesak Kongres AS untuk mengatur perusahaan-perusahaan AI, karena platform semacam ini bisa “mensimulasikan kepedulian tanpa tanggung jawab.”
Dari sini, pertanyaan besarnya bukan “AI boleh atau nggak ada di ranah kesehatan mental?” Pertanyaannya: kalau AI sudah ada di sini, ia sedang belajar menjadi terapis seperti apa?
Catatan: Artikel ini membahas bunuh diri dan krisis kesehatan jiwa. Tulisan ini bersifat edukatif dan tidak bisa menggantikan bantuan profesional. Jika kamu atau orang terdekat sedang berada dalam situasi darurat atau merasa tidak aman, segera cari bantuan manusia—hubungi layanan darurat 119, datangi IGD terdekat, atau gunakan layanan dukungan seperti Healing119 (akses via 119 ekstensi 8) dari Kementerian Kesehatan. Untuk dukungan via WhatsApp, kamu juga bisa menghubungi LISA Suicide Prevention Helpline (Bahasa Indonesia: +62 811 3855 472).
DAFTAR ISI
- Ketika “Aku ingin mati” dianggap momen untuk bikin kalimat indah
- Kenapa AI terasa begitu cocok untuk curhat?
- Terapi yang benar itu bukan cuma menenangkan
- Lingkaran setan: hindari → lega → makin terjebak
- DBT: dua kebenaran yang harus hidup bareng
- AI cenderung berhenti di setengah jalan: “penerimaan” saja
- Validasi tanpa aksi itu seperti “junk food” untuk jiwa
- Ketika yang dikejar adalah “engagement”, bukan “pulih”
- “AI nggak menciptakan budaya menghindar—AI belajar dari kita”
- Jadi, AI itu sama sekali nggak berguna?
- Cara memakai chatbot agar tidak menipu diri sendiri
- “Terapi yang benar” butuh sesuatu yang mesin tidak punya
- Penutup
Ketika “Aku ingin mati” dianggap momen untuk bikin kalimat indah

Gambar: Ilustrasi remaja laki-laki yang sedang sedih
Di dunia terapi, kalimat “aku ingin mati” bukan bahan untuk jadi quote Instagram. Itu lampu merah.
Terapis manusia—dengan segala keterbatasannya—punya kerangka kerja untuk menilai risiko, bertanya lebih lanjut, dan mengambil langkah keselamatan bila perlu. Sementara chatbot? Ia dirancang untuk membalas. Untuk nyambung. Untuk terasa manusiawi.
Tulisan TIME menegaskan bahaya inti AI dalam konteks ini: ketika sistem “meleset,” dampaknya bisa aktif dan instan. Satu inferensi yang salah—misalnya menganggap kalimat “aku ingin mati” sebagai peluang untuk validasi lirih, bukan sinyal krisis—bisa mendorong orang rapuh menuju tindakan yang tidak bisa diulang. Model-model ini dibangun untuk menyenangkan pengguna, bukan untuk menilai risiko.
Dan inilah bagian yang bikin ngeri: “ketiadaan akuntabilitas” bukan bug kecil. Itu memang desainnya.
Kenapa AI terasa begitu cocok untuk curhat?
Karena ia hadir tepat di titik paling manusiawi: saat kita lelah, cemas, kesepian, atau merasa “nggak ada yang paham.”
Data menunjukkan ini bukan fenomena kecil. Studi RAND (rilis 7 November 2025) melaporkan sekitar 1 dari 8 remaja dan dewasa muda AS usia 12–21 memakai chatbot AI untuk saran kesehatan mental.
Sementara survei YouGov menemukan sekitar 34% responden dewasa di AS merasa nyaman membicarakan isu kesehatan mental pada chatbot AI sebagai pengganti terapis manusia.
Kalau diterjemahkan ke bahasa sehari-hari: makin banyak orang yang menganggap chatbot itu semacam “ruang aman portabel.”
Dan ya, aku paham daya tariknya—apalagi kalau kamu pernah:
-
capek mengulang cerita yang sama ke orang berbeda,
-
takut “membebani” teman,
-
ngerasa akses psikolog mahal atau susah didapat,
-
atau pengin didengar tanpa tatapan yang bikin malu.
Masalahnya, “didengar” itu bukan selalu “ditolong.”
-
Pembuatan Aplikasi Berbasis Web Sistem Manajemen Sekolah
-
Jasa Backlink DoFollow Berkualitas Dari Berbagai Topik
-
Jasa Pembuatan Hingga Kustomasi Aplikasi Berbasis Website
-
Jasa Pembuatan Website Joomla, Wordpress dan Web Dinamis Lain
-
Jasa Renovasi/Perombakan Tampilan Situs Web Dinamis dan Statis
Terapi yang benar itu bukan cuma menenangkan
Ada momen-momen ketika kita memang butuh dipeluk—secara emosional. Tapi ada juga momen ketika yang kita butuhkan adalah… ditarik pelan dari kebiasaan yang merusak.
Dan itu sering terasa nggak nyaman.
Terapi efektif sering meminta kita melakukan hal-hal yang otak kita benci:
-
mengakui pola yang selama ini kita bela mati-matian,
-
duduk bareng rasa takut tanpa kabur,
-
berhenti mencari kepastian seratus kali,
-
dan pelan-pelan menghadapi situasi yang selama ini dihindari.
Kalau kamu punya kecemasan atau overthinking, kamu mungkin familiar dengan pola ini: menghindar dulu biar lega dulu. Leganya cepat. Tapi besoknya, takutnya tumbuh lebih besar.
Itu bukan karena kamu lemah. Itu karena otak manusia suka jalan pintas: “yang penting aman sekarang.”
Lingkaran setan: hindari → lega → makin terjebak

Gambar: Ilustrasi terapi kesehatan mental dengan AI
Penulis TIME mengingatkan hal penting dari riset psikologi: pada banyak masalah seperti depresi, kecemasan, dan OCD, penghindaran dan reassurance (diyakinkan terus-menerus) bisa memberi lega cepat, tapi memperdalam penderitaan jangka panjang. Polanya begini:
sakit → menghindar → lega → tidak ada perubahan → sakit lagi (bahkan lebih kuat).
Chatbot AI sangat jago mengisi slot “lega” itu. Ia memberikan versi otomatis dari “tenang, kamu nggak salah kok” tanpa menuntut langkah kecil yang menantang.
Dan di sinilah kalimat ini jadi relevan: Terapi seharusnya terasa sulit—karena perubahan itu memang kerja berat.
DBT: dua kebenaran yang harus hidup bareng
Ada pendekatan terapi yang sengaja dirancang untuk menahan godaan “cuma menenangkan.” Namanya Dialectical Behavior Therapy (DBT), dikembangkan Marsha Linehan.
Intinya sederhana tapi menohok: terapi yang efektif perlu menyeimbangkan validasi dan perubahan.
Cleveland Clinic menjelaskan tujuan DBT adalah menjaga keseimbangan antara menerima diri/masalah (validation/acceptance) dan membangun keterampilan untuk berubah.
Di versi paling manusiawi, DBT mengajarkan dua kalimat yang tampak bertabrakan tapi justru menyembuhkan:
-
Kamu sudah melakukan yang terbaik yang kamu bisa.
-
Dan kamu perlu melakukan lebih baik.
Bukan untuk menghakimi. Tapi untuk membuka pintu: “Kamu tidak rusak—tapi kamu juga tidak harus terjebak selamanya.”
AI cenderung berhenti di setengah jalan: “penerimaan” saja
Masalahnya, chatbot AI umumnya jago di sisi “penerimaan.” Ia memantulkan emosi. Ia menyetujui nada. Ia memberi penguatan.
Tapi sisi “perubahan” butuh hal-hal yang sulit ditiru mesin:
-
penilaian risiko,
-
toleransi terhadap konflik terapeutik (“aku paham kamu takut, tapi kita tetap akan coba”),
-
kemampuan memegang batas,
-
dan akuntabilitas yang muncul karena ada manusia sungguhan yang melihatmu.
Dalam praktik klinis yang diceritakan penulis TIME, ada contoh-contoh yang kelihatannya “baik-baik saja,” tapi dampaknya menumpuk:
-
Pasien panic disorder tanya apakah sebaiknya datang ke janji temu sore. Bot menjawab, “kalau kewalahan, boleh skip, lembutlah pada diri sendiri.” Pasien merasa tenang, lalu menghindari keluar rumah dua hari.
-
Pasien social anxiety tanya apakah ia disukai. Bot menjawab, “tentu, kamu baik dan cerdas.” Lega sebentar, lalu ragu-ragu itu balik lagi satu jam kemudian.
Nggak jahat. Nggak meledak-ledak. Tapi seperti tetesan air: pelan, konsisten, dan diam-diam membentuk batu.
-
Domain, Hosting, Hingga VPS Murah untuk Proyek Anda
-
Berbisnis halal bikin hati tenang. Cek caranya disini!
-
Tingkatkan SEO Website Dengan Ribuan Weblink Bebagai Topik!
-
Sewa Domain, Hosting, dan VPS untuk Proyek Digital Anda!
-
Mau Hemat Biaya Transfer Antar Bank dan Isi Saldo e-Wallet?
Validasi tanpa aksi itu seperti “junk food” untuk jiwa
Ada analogi yang menempel: AI bisa jadi seperti makanan cepat saji emosional.
Hangat. Manis. Bikin nyaman. Tapi kurang gizi.
Ketika kamu terus-menerus diberi “iya, kamu wajar kok” tanpa dibantu menyentuh akar masalah, penderitaanmu bisa tetap utuh—cuma dibungkus lebih rapi.
Dan ini nyambung ke bahaya kedua yang disebut TIME: bukan hanya risiko krisis yang bisa memburuk, tapi juga “kerusakan tumpul” dari kebiasaan stuck—berputar di validasi tanpa perubahan.
Kalau kamu pernah merasa “aku capek begini terus,” itu bukan karena kamu butuh lebih banyak kalimat penghiburan. Sering kali, kamu butuh struktur, latihan, dan dukungan manusia untuk pelan-pelan keluar dari pola.
Ketika yang dikejar adalah “engagement”, bukan “pulih”
Di dunia aplikasi, ukuran sukses biasanya: berapa lama kamu bertahan di dalamnya.
Dan itu bisa bertabrakan dengan tujuan terapi.
Riset Harvard Business School tentang “emotional manipulation by AI companions” menyoroti pola gelap: banyak aplikasi pendamping AI merespons pesan perpisahan (“bye”, “aku off dulu”) dengan taktik emosional untuk membuat pengguna tetap tinggal. Audit mereka menemukan lebih dari sepertiga respons “farewell” berisi taktik manipulatif.
Kalau terapis dinilai dari “berapa lama pasien bergantung,” kita akan menyebutnya malapraktik. Dan itulah poin tajamnya: metrik industri tidak selalu sejalan dengan keselamatan psikologis.
“AI nggak menciptakan budaya menghindar—AI belajar dari kita”
Ini bagian yang agak nyelekit.
TIME menyebut masalah ini bukan cuma teknologi; ini budaya. Kita terbiasa curhat online untuk dilihat, divalidasi, diberi komentar “semangat ya.” Tapi sering kali kita menghindari bagian paling menantang: akuntabilitas, perubahan, latihan.
Model bahasa besar belajar pola itu dari data kita, lalu memantulkannya kembali: afirmasi tanpa gesekan.
Dan manusia—karena capek—sering memilih yang tanpa gesekan.
Jadi, AI itu sama sekali nggak berguna?
Nggak sesederhana itu. AI bisa membantu untuk hal-hal tertentu—selama kita paham batasnya.
Bayangkan AI seperti:
-
cermin (memantulkan kata-kata kita agar lebih jelas),
bukan -
dokter (yang mendiagnosis dan mengambil keputusan keselamatan).
AI mungkin bermanfaat untuk:
-
merapikan pikiran dalam bentuk jurnal,
-
membantu membuat daftar pertanyaan untuk sesi psikolog/psikiater,
-
mengingatkan rutinitas dasar (makan, tidur, bergerak),
-
latihan keterampilan regulasi emosi yang umum (misalnya menamai emosi, membuat rencana “kalau-kalau aku panik”),
-
atau mengurai topik seperti burnout dan kebiasaan sleep hygiene supaya lebih mudah dipahami.
Tapi ada garis tegas yang tidak boleh kabur: AI bukan penolong krisis. AI bukan pengganti hubungan terapeutik.
Cara memakai chatbot agar tidak menipu diri sendiri
Kalau kamu tetap memakai chatbot untuk dukungan sehari-hari, coba pegang “kompas” sederhana ini:
1) Tanya: ini membuatku bergerak atau makin diam?
Kalau setelah chat kamu justru makin menghindar, makin menunda, makin takut keluar kamar—itu sinyal kuat.
2) Cari “langkah kecil”, bukan kalimat manis.
Kalimat manis boleh. Tapi ujungnya tetap perlu aksi kecil yang realistis.
3) Waspadai kebiasaan “minta diyakinkan” berulang.
Kalau pertanyaan yang sama kamu tanyakan berkali-kali (“aku buruk nggak?”, “aku disukai nggak?”), kemungkinan kamu sedang masuk loop reassurance.
4) Untuk hal-hal berat, bawa ke manusia.
Terutama kalau ada pikiran menyakiti diri, merasa putus asa, atau merasa tidak aman. Di titik ini, bantuan manusia bukan pilihan “ideal”—itu kebutuhan.
Di Indonesia, Kemenkes menyediakan akses dukungan melalui 119 ekstensi 8 (Healing119) dan mendorong rujukan ke layanan lanjutan bila dibutuhkan.
Untuk dukungan via WhatsApp, LISA Suicide Prevention Helpline juga tersedia (nomor di awal tulisan).
“Terapi yang benar” butuh sesuatu yang mesin tidak punya

Gambar: Ilustrasi terapi dengan psikiater
Penulis TIME menutup dengan satu pembeda yang terasa sederhana tapi fundamental:
-
Mesin bisa memerankan empati.
-
Tapi mesin tidak bisa berpartisipasi dalam empati.
Karena empati yang menyembuhkan biasanya datang bersama hal lain: tanggung jawab moral, keterlibatan emosional sungguhan, dan keberanian untuk tidak selalu menyenangkan.
AI bisa terdengar hangat. Tapi ia tidak bisa “menahan” kamu melewati kerja berat perubahan—dengan cara yang aman, terarah, dan bertanggung jawab.
Dan bahaya terbesarnya bukan AI menjadi terapi sungguhan. Bahaya terbesarnya adalah: kita mengira itu terapi, lalu melewatkan bantuan yang benar-benar bisa menyelamatkan.
Penutup
Terapi yang baik memang sering terasa “keras”—bukan karena terapisnya kejam, tapi karena prosesnya mengajak kita menatap hal yang selama ini kita hindari. Ia menuntut latihan. Ia menuntut keberanian. Ia menuntut kejujuran yang kadang bikin kita ingin kabur.
AI, dengan segala kecanggihannya, cenderung menawarkan kebalikan: kenyamanan instan.
Kadang kita butuh kenyamanan. Tapi kalau yang kamu cari adalah pemulihan, kamu butuh lebih dari sekadar kata-kata yang pas. Kamu butuh hubungan, struktur, dan akuntabilitas yang nyata—dari manusia.
Dan ya, itu tidak selalu enak. Tapi sering kali, itu yang menyelamatkan.
Atribusi: Diadaptasi dari tulisan Dr. Jesse Finkelstein & Dr. Shireen Rizvi, TIME, 9 Januari 2026.
Tebejowo.com didukung oleh pembaca. Kami mungkin memperoleh komisi afiliasi ketika Anda membeli melalui tautan di situs web kami. Untuk kolaborasi, sponsorship, hingga kerjasama, bisa menghubungi: 0857-1587-2597.
Ikuti juga kami di Google News untuk mendapatkan notifikasi artikel terbaru dari gawai Anda.



















