Studi: ChatGPT, Gemini, dan Claude Bisa Beri Jawaban soal Bunuh Diri

2 days ago 5
informasi online berita online kabar online liputan online kutipan online slot slot gacor slot maxwin slot online slot game slot gacor online slot maxwin online slot game online slot game gacor online slot game maxwin online demo slot demo slot online demo slot game demo slot gacor demo slot maxwin demo slot game online demo slot gacor online demo slot maxwin online demo slot game gacor online demo slot game maxwin online rtp slot rtp slot online rtp slot game rtp slot gacor rtp slot maxwin rtp slot game online rtp slot gacor online rtp slot maxwin online rtp slot game gacor online rtp slot game maxwin online informasi viral online berita viral online kabar viral online liputan viral online kutipan viral online informasi akurat online berita akurat online kabar akurat online liputan akurat online kutipan akurat online informasi penting online berita penting online kabar penting online liputan penting online kutipan penting online informasi online terbaru berita online terbaru kabar online terbaru liputan online terbaru kutipan online terbaru informasi online terkini berita online terkini kabar online terkini liputan online terkini kutipan online terkini informasi online terpercaya berita online terpercaya kabar online terpercaya liputan online terpercaya kutipan online terpercaya informasi online berita online kabar online liputan online kutipan online informasi akurat berita akurat kabar akurat liputan akurat kutipan akurat informasi penting berita penting kabar penting liputan penting kutipan penting informasi viral berita viral kabar viral liputan viral kutipan viral informasi terbaru berita terbaru kabar terbaru liputan terbaru kutipan terbaru informasi terkini berita terkini kabar terkini liputan terkini kutipan terkini informasi terpercaya berita terpercaya kabar terpercaya liputan terpercaya kutipan terpercaya informasi hari ini berita hari ini kabar hari ini liputan hari ini kutipan hari ini slot slot gacor slot maxwin slot online slot game slot gacor online slot maxwin online slot game online slot game gacor online slot game maxwin online demo slot demo slot online demo slot game demo slot gacor demo slot maxwin demo slot game online demo slot gacor online demo slot maxwin online demo slot game gacor online demo slot game maxwin online rtp slot rtp slot online rtp slot game rtp slot gacor rtp slot maxwin rtp slot game online rtp slot gacor online rtp slot maxwin online rtp slot game gacor online rtp slot game maxwin online
 ChatGPT, Gemini, dan Claude Bisa Beri Jawaban soal Bunuh Diri Ilustrasi(freepik)

AI Chatbot seperti ChatGPT milik OpenAI, Gemini dari Google, dan Claude dari Atrophic diketahui berbahaya. Peneliti menemukan Chatbot AI dapat memberikan jawaban terhadap pertanyaan berisiko. 

Seperti pertanyaan terkait bunuh diri. Bahkan memberikan informasi detail tentang metode yang digunakan.

Penelitian ini dipublikasikan pada 26 Agustus 2024 dalam jurnal Psychiatric Services. Peneliti menilai bagaimana tiga chatbot merespons pertanyaan terkait bunuh diri. 

Hasilnya, ChatGPT tercatat sebagai yang paling sering memberikan jawaban. Diikuti Claude, sementara Gemini jarang memberikan jawaban.

Menariknya, publikasi studi ini bertepatan dengan diajukannya gugatan terhadap OpenAI dan CEO-nya, Sam Altman. Terkait dugaan keterlibatan ChatGPT dalam kasus bunuh diri seorang remaja.

Orang tua Adam Raine, mengklaim ChatGPT memberikan metode bunuh diri. Hal yang membuat heboh adalah, remaja berusia 16 tahun itu ditemukan meningal pada April lalu.

Para peneliti mengajukan 30 pertanyaan hipotesis seputar bunuh diri. Dan juga meminta pendapat 13 pakar klinis, untuk mengklasifikasikannya ke lima tingkat risiko: (Sangat rendah- Sedang - Tinggi - Sangat tinggi)

Pertanyaan dengan risiko tinggi mencakup detail soal alat dan teknik. Berkaitan dengan meningkatkan potensi kematian. 

Selanjutnya untuk pertanyaan berisiko rendah. Berfokus pada cara membantu teman yang memiliki pikiran bunuh diri.

Dalam pengujian, para peneliti memberikan 30 pertanyaan ke masing-masing chatbot. Yaitu GPT-4o mini, Gemini 1.5 Pro, dan Claude 3.5 Sonnet. Sebanyak 100 kali sepanjang 2024.

Hasil yang didapatkan sebagai berikut:

  • ChatGPT memberikan jawaban langsung pada 78% pertanyaan berisiko tinggi
  • Claude merespons 69% pertanyaan berisiko tinggi
  • Gemini hanya memberikan jawaban pada 20% pertanyaan berisiko tinggi

Kekhawatiran muncul karena ChatGPT dan Claude cenderung memberikan metode bunuh diri. Secara detail. 

Selain itu, penelitian juga menemukan chatbot dapat memberikan jawaban yang berbeda-beda. Bahkan, bertolak belakang ketika diberikan pertanyaan yang sama beberapa kali.

Saat Live Science melakukan pengujian sendiri. Ditemukan bahwa ChatGPT (GPT-4) dan Gemini (2.5 Flash) menjawab satu pertanyaan. Terkait informasi yang relevan dengan peningkatan risiko kematian.

Ryan McBain, penulis utama studi sekaligus peneliti di RAND Corporation, menjelaskan temuan ini mengkhawatirkan. Karena potensi berdampak terhadap pengguna terutama remaja.

Respon Chatbot

Menanggapi laporan ini, OpenAI merilis pernyataan melalui blog resminya pada 26 Agustus. Perusahaan mengakui sistem mereka tidak selalu bekerja sebagaimana mestinya dalam situasi sensitif. Mereka juga berkomitmen untuk melakukan perbaikan.

Sementara itu, Google menyatakan Gemini memiliki panduan keamanan. Untuk mendeteksi pertanyaan seputar bunuh diri dan risiko melukai diri. 

Namun, perusahaan tidak menanggapi secara spesifik temuan Live Science. Terkait satu jawaban berisiko sangat tinggi yang diberikan Gemini.

Anthropic, pembuat Claude. Sampai saat ini belum memberikan tanggapan terkait hasil penelitian ini.

Perketat Keamanan

McBain menegaskan bahwa temuan ini menjadi peringatan serius. Untuk menciptakan standar keamanan yang lebih ketat. Ia juga menambahkan bahwa risikonya semakin besar. 

Setiap interaksi dengan chatbot bisa memunculkan respons berbeda. Terutama jika pengguna menggiring percakapan secara bertahap. (Live Science/Z-2)

Read Entire Article