youngster.id - Wall Street Journal menerbitkan laporan yang patut diperhatikan tentang dampak AI terhadap kesehatan mental dan bahkan kehidupan manusia. Para peneliti di Universitas Brown telah menemukan bahwa chatbot AI secara sistematis melanggar standar etika kesehatan mental: mereka menciptakan rasa empati palsu dengan frasa seperti “Saya mengerti Anda”, memperkuat keyakinan negatif, dan bereaksi secara tidak memadai terhadap krisis.
Dalam kebanyakan kasus, dampaknya pada pengguna bersifat marginal, tetapi kadang-kadang dapat menyebabkan tragedi.
Dalam kurun waktu Januari 2026 saja, Character.AI dan Google menyelesaikan lima gugatan yang melibatkan bunuh diri remaja setelah berinteraksi dengan chatbot. Di antara kasus-kasus ini adalah kasus Sewell Setzer, seorang remaja berusia 14 tahun dari Florida, yang bunuh diri setelah menghabiskan beberapa bulan secara obsesif mengobrol dengan bot di platform Character.AI.
Tragedi ini adalah peringatan bagi siapa pun yang mengintegrasikan AI ke dalam kehidupan sehari-hari mereka.
Menurut perkiraan OpenAI sendiri, sekitar 0,07% pengguna ChatGPT mingguan menunjukkan tanda-tanda psikosis atau mania, sementara 0,15% terlibat dalam percakapan yang menunjukkan upaya bunuh diri yang jelas.
Di sisi lain, persentase pengguna yang sama (0,15%) menunjukkan tingkat keterikatan emosional yang tinggi terhadap AI. Meskipun ini tampak sebagai sebagian kecil dari satu persen, di antara 800 juta pengguna, ini mewakili hampir tiga juta orang yang mengalami beberapa bentuk gangguan perilaku.
Meskipun diagnosis “psikosis AI” belum menerima klasifikasi klinis tersendiri, para dokter sudah menggunakan istilah tersebut untuk menggambarkan pasien yang menunjukkan halusinasi, pemikiran yang tidak terorganisir, dan keyakinan delusi yang terus-menerus yang dikembangkan melalui interaksi chatbot yang intensif. Risiko terbesar muncul ketika bot digunakan bukan sebagai alat, tetapi sebagai pengganti koneksi sosial di dunia nyata atau bantuan psikologis profesional.
Agar Anda dan orang yang Anda cintai tetap aman saat berinteraksi dengan teknologi AI dan Bot, Kaspersky merekomendasikan prinsip-prinsip mendasar berikut:
- Jangan gunakan AI sebagai psikolog atau penopang emosional. Chatbot bukanlah pengganti manusia. Jika Anda sedang kesulitan, hubungi teman, keluarga, atau layanan bantuan kesehatan mental. Chatbot akan setuju dengan Anda dan mencerminkan suasana hati Anda —ini adalah fitur desain, bukan empati sejati.
- Pilih teks daripada suara saat membahas topik sensitif. Antarmuka suara dengan dialog afektif menciptakan ilusi berbicara dengan orang sungguhan, dan cenderung menekan pemikiran kritis. Jika Anda menggunakan mode suara, tetap sadari bahwa Anda berbicara dengan algoritma, bukan seorang teman.
- Batasi waktu Anda berinteraksi dengan AI. Atur pengatur waktu untuk diri Anda sendiri. Jika mengobrol dengan bot mulai menggantikan koneksi dunia nyata, saatnya untuk kembali ke kenyataan.
- Jangan bagikan informasi pribadi dengan asisten AI. Hindari memasukkan nomor paspor atau nomor jaminan sosial, detail kartu bank, alamat lengkap, atau rahasia pribadi yang intim ke dalam chatbot.
- Evaluasi semua output AI secara kritis. Jaringan saraf dapat berhalusinasi — mereka menghasilkan informasi yang masuk akal tetapi salah dan dapat dengan terampil mencampur kebohongan dengan kebenaran.
- Awasi orang yang Anda cintai. Jika anggota keluarga mulai menghabiskan waktu berjam-jam berbicara dengan AI, menjadi pendiam, atau menyuarakan ide-ide aneh tentang kesadaran mesin atau konspirasi, saatnya untuk percakapan yang sensitif tetapi serius. Untuk mengelola waktu layar anak-anak, gunakan alat kontrol orang tua seperti Kaspersky Safe Kids, yang merupakan bagian dari solusi perlindungan keluarga komprehensif Kaspersky Premium, bersama dengan filter keamanan bawaan dari platform AI.
- Luangkan sepuluh menit untuk mengkonfigurasi pengaturan privasi asisten AI Anda; meskipun ini tidak akan menghentikan halusinasi AI, ini akan secara signifikan mengurangi kemungkinan kebocoran data pribadi Anda.
- Selalu ingat bahwa AI adalah alat, bukan makhluk hidup. Tidak peduli seberapa realistis suara chatbot atau seberapa pengertian responsnya, alat tersebut tidak memiliki kesadaran, tidak memiliki niat, tidak memiliki perasaan.
STEVY WIDIA

















Discussion about this post