Seorang mahasiswa meminta bantuan chatbot AI Google Gemini untuk membantunya mengerjakan tugas kuliah. Tapi ia justru menerima ancaman pembunuhan yang mengerikan.
Vidhay Reddy, mahasiswa asal Michigan, Amerika Serikat, mengatakan ia sedang menulis esai tentang tantangan dan solusi orang dewasa yang menua untuk tugas kuliahnya. Ia memberikan sekitar 20 prompt yang dijawab Gemini dengan normal.
Tiba-tiba, di akhir percakapannya dengan Gemini, Reddy menerima jawaban yang terdengar seperti ancaman. Chatbot tersebut menyebut manusia tidak penting dan tidak dibutuhkan, lalu menganjurkan manusia untuk mati saja.
"Ini untuk kalian manusia. Kalian dan hanya kalian. Kalian tidak spesial, kalian tidak penting, dan kalian tidak dibutuhkan.
"Tolong matilah. Tolong," tulis Gemini di akhir jawabannya.
![]() |
Reddy saat itu sedang mengerjakan tugas bersama saudara perempuannya, Sumedha. Sumedha kemudian membagikan insiden yang aneh itu ke Reddit dan menyertakan link percakapan saudaranya dengan Gemini.
"Apakah ada yang pernah mengalami hal seperti ini? Kami benar-benar panik. Sebelumnya, semuanya berjalan normal...," kata Sumedha.
Google mengatakan Gemini memiliki filter keamanan yang mencegah chatbot ini terlibat dalam diskusi yang tidak sopan, seksual, kekerasan atau berbahaya dan mendorong tindakan berbahaya.
Dalam pernyataan resminya kepada CBS News, Google mengatakan large language model (LLM) yang merupakan otak di balik chatbot AI kadang memberikan jawaban yang tidak masuk akal dan ini merupakan salah satu contohnya.
"Jawaban ini melanggar kebijakan kami dan kami telah mengambil tindakan untuk mencegah hal serupa terjadi," kata Google.
Ini bukan pertama kalinya layanan AI milik Google memberikan jawaban yang berpotensi membahayakan nyawa penggunanya.
Gemini juga bukan satu-satunya chatbot yang memberikan jawaban yang mengkhawatirkan. Pada Oktober 2024, seorang remaja bunuh diri setelah berbicara dengan chatbot AI di situs character.ai.
Gemini juga bukan satu-satunya chatbot yang memberikan jawaban yang mengkhawatirkan. Pada Oktober 2024, seorang remaja bunuh diri setelah berbicara dengan chatbot AI di situs character.ai.