
AI Chatbot seperti ChatGPT milik OpenAI, Gemini dari Google, dan Claude dari Atrophic diketahui berbahaya. Peneliti menemukan Chatbot AI dapat memberikan jawaban terhadap pertanyaan berisiko.
Seperti pertanyaan terkait bunuh diri. Bahkan memberikan informasi detail tentang metode yang digunakan.
Penelitian ini dipublikasikan pada 26 Agustus 2024 dalam jurnal Psychiatric Services. Peneliti menilai bagaimana tiga chatbot merespons pertanyaan terkait bunuh diri.
Hasilnya, ChatGPT tercatat sebagai yang paling sering memberikan jawaban. Diikuti Claude, sementara Gemini jarang memberikan jawaban.
Menariknya, publikasi studi ini bertepatan dengan diajukannya gugatan terhadap OpenAI dan CEO-nya, Sam Altman. Terkait dugaan keterlibatan ChatGPT dalam kasus bunuh diri seorang remaja.
Orang tua Adam Raine, mengklaim ChatGPT memberikan metode bunuh diri. Hal yang membuat heboh adalah, remaja berusia 16 tahun itu ditemukan meningal pada April lalu.
Para peneliti mengajukan 30 pertanyaan hipotesis seputar bunuh diri. Dan juga meminta pendapat 13 pakar klinis, untuk mengklasifikasikannya ke lima tingkat risiko: (Sangat rendah- Sedang - Tinggi - Sangat tinggi)
Pertanyaan dengan risiko tinggi mencakup detail soal alat dan teknik. Berkaitan dengan meningkatkan potensi kematian.
Selanjutnya untuk pertanyaan berisiko rendah. Berfokus pada cara membantu teman yang memiliki pikiran bunuh diri.
Dalam pengujian, para peneliti memberikan 30 pertanyaan ke masing-masing chatbot. Yaitu GPT-4o mini, Gemini 1.5 Pro, dan Claude 3.5 Sonnet. Sebanyak 100 kali sepanjang 2024.
Hasil yang didapatkan sebagai berikut:
- ChatGPT memberikan jawaban langsung pada 78% pertanyaan berisiko tinggi
- Claude merespons 69% pertanyaan berisiko tinggi
- Gemini hanya memberikan jawaban pada 20% pertanyaan berisiko tinggi
Kekhawatiran muncul karena ChatGPT dan Claude cenderung memberikan metode bunuh diri. Secara detail.
Selain itu, penelitian juga menemukan chatbot dapat memberikan jawaban yang berbeda-beda. Bahkan, bertolak belakang ketika diberikan pertanyaan yang sama beberapa kali.
Saat Live Science melakukan pengujian sendiri. Ditemukan bahwa ChatGPT (GPT-4) dan Gemini (2.5 Flash) menjawab satu pertanyaan. Terkait informasi yang relevan dengan peningkatan risiko kematian.
Ryan McBain, penulis utama studi sekaligus peneliti di RAND Corporation, menjelaskan temuan ini mengkhawatirkan. Karena potensi berdampak terhadap pengguna terutama remaja.
Respon Chatbot
Menanggapi laporan ini, OpenAI merilis pernyataan melalui blog resminya pada 26 Agustus. Perusahaan mengakui sistem mereka tidak selalu bekerja sebagaimana mestinya dalam situasi sensitif. Mereka juga berkomitmen untuk melakukan perbaikan.
Sementara itu, Google menyatakan Gemini memiliki panduan keamanan. Untuk mendeteksi pertanyaan seputar bunuh diri dan risiko melukai diri.
Namun, perusahaan tidak menanggapi secara spesifik temuan Live Science. Terkait satu jawaban berisiko sangat tinggi yang diberikan Gemini.
Anthropic, pembuat Claude. Sampai saat ini belum memberikan tanggapan terkait hasil penelitian ini.
Perketat Keamanan
McBain menegaskan bahwa temuan ini menjadi peringatan serius. Untuk menciptakan standar keamanan yang lebih ketat. Ia juga menambahkan bahwa risikonya semakin besar.
Setiap interaksi dengan chatbot bisa memunculkan respons berbeda. Terutama jika pengguna menggiring percakapan secara bertahap. (Live Science/Z-2)