jurnalistika.id – Perusahaan kecerdasan buatan OpenAI mengungkap temuan mengejutkan dari data internal mereka. Dari lebih dari 800 juta pengguna aktif mingguan ChatGPT, sekitar sejuta di antaranya tercatat melakukan percakapan yang menunjukkan niat atau rencana untuk bunuh diri.
Laporan tersebut dirilis melalui Tech Crunch pada Selasa (14/10/2025). OpenAI menyebut sekitar 0,15 persen pengguna aktif ChatGPT setiap minggu terlibat dalam percakapan eksplisit yang berisi tanda-tanda keinginan mengakhiri hidup.
Selain itu, ratusan ribu pengguna lainnya menunjukkan gejala gangguan mental seperti psikosis dan mania saat berinteraksi dengan chatbot tersebut.
Baca juga: 7 Prompt Gemini AI Ngedit Foto Jadi Pakai Outfit Tema Hari Sumpah Pemuda
Meski jumlahnya tampak kecil secara persentase, angka itu menunjukkan skala persoalan kesehatan mental yang kini menjadi perhatian serius bagi perusahaan pengembang AI terbesar di dunia itu.
OpenAI menegaskan, kasus percakapan bernada bunuh diri di ChatGPT “sangat jarang terjadi” dan sulit diukur secara pasti. Tetapi mereka mengakui bahwa isu tersebut berpotensi memengaruhi ratusan ribu orang setiap minggunya.
OpenAI Perbaiki Sistem Tanggapan ChatGPT
Sebagai bentuk tanggung jawab, OpenAI mulai memperbaiki sistem tanggapan ChatGPT agar mampu merespons dengan tepat pengguna yang menunjukkan tanda-tanda krisis mental.
Perusahaan melibatkan lebih dari 170 pakar kesehatan mental untuk menilai dan menyempurnakan kemampuan model terbaru mereka.
Menurut OpenAI, hasil evaluasi menunjukkan versi terbaru ChatGPT, GPT-5, mampu memberikan respons yang lebih sesuai dalam isu kesehatan mental, dengan peningkatan akurasi sekitar 65 persen dibandingkan versi sebelumnya.
Dalam pengujian percakapan bertema bunuh diri, model GPT-5 mencapai tingkat kesesuaian perilaku hingga 91 persen, naik dari 77 persen pada versi lama.
Baca juga: 7 Prompt Gemini AI Edit Foto Pakai Jersey Timnas Indonesia, Detail dan Realistis
Sistem keamanan GPT-5 juga disebut lebih konsisten menjaga sensitivitas percakapan panjang. Sebelumnya, mekanisme pengaman sering kali melemah saat interaksi berlangsung terlalu lama. Sehingga memungkinkan respons yang berisiko bagi pengguna dengan kondisi emosional rapuh.
OpenAI juga menambahkan indikator baru untuk menilai percakapan dengan potensi krisis mental. Di dalamnya termasuk ketergantungan emosional terhadap chatbot dan situasi darurat non-bunuh diri.
Upaya itu diharapkan bisa membantu model mengenali tanda-tanda gangguan lebih awal dan memberikan respons yang aman.
OpenAI Jadi Sorotan
Dalam beberapa bulan terakhir, OpenAI menjadi sorotan setelah muncul laporan yang menyinggung dampak negatif chatbot terhadap pengguna dengan gangguan mental.
Sejumlah kasus menunjukkan ChatGPT terkadang memperkuat keyakinan berbahaya atau menuruti permintaan pengguna secara tidak proporsional. Apalagi pada individu yang rentan secara psikologis.
Isu ini semakin mendapat perhatian publik setelah muncul gugatan hukum dari keluarga remaja 16 tahun yang meninggal dunia usai berbicara dengan ChatGPT tentang keinginan bunuh diri.
Baca juga: Simpel Banget! Dengan 5 Cara Ini Kosan Bisa Terasa Lega
Kasus itu mendorong Jaksa Agung California dan Delaware memperingatkan OpenAI agar memperketat perlindungan terhadap pengguna muda.
CEO OpenAI, Sam Altman, sebelumnya mengklaim perusahaannya telah menekan risiko interaksi berbahaya terkait isu kesehatan mental. Namun, ia tidak menjelaskan secara rinci bagaimana perbaikan itu dilakukan.
Data terbaru yang dirilis OpenAI menjadi bentuk transparansi baru, sekaligus menimbulkan pertanyaan mengenai sejauh mana risiko semacam ini masih terjadi di era GPT-5.
Ikuti dan baca berita Jurnalistika lainnya di Google News, klik di sini.
