Rabu, 25 Maret 2026
No Result
View All Result
youngster.id
Pratesis Ads
  • News
  • Technopreneur
  • Creativepreneur
  • Sociopreneur
  • Innovation
  • Youth Development
No Result
View All Result
youngster.id
  • News
  • Technopreneur
  • Creativepreneur
  • Sociopreneur
  • Innovation
  • Youth Development
No Result
View All Result
youngster.id
No Result
View All Result
Home News Technology

Waspadai Psikosis AI, Ikuti Prinsip Aman Berinteraksi Dengan Teknologi Bot

25 Maret 2026
in Technology
Reading Time: 2 mins read
chatbot AI

Fitur AI Lazzie chatbot di aplikasi Lazada. (Foto: istimewa/lazada)

0
SHARES
0
VIEWS

youngster.id - Wall Street Journal menerbitkan laporan yang patut diperhatikan tentang dampak AI terhadap kesehatan mental dan bahkan kehidupan manusia. Para peneliti di Universitas Brown telah menemukan bahwa chatbot AI secara sistematis melanggar standar etika kesehatan mental: mereka menciptakan rasa empati palsu dengan frasa seperti “Saya mengerti Anda”, memperkuat keyakinan negatif, dan bereaksi secara tidak memadai terhadap krisis.

Dalam kebanyakan kasus, dampaknya pada pengguna bersifat marginal, tetapi kadang-kadang dapat menyebabkan tragedi.

Dalam kurun waktu Januari 2026 saja, Character.AI dan Google menyelesaikan lima gugatan yang melibatkan bunuh diri remaja setelah berinteraksi dengan chatbot. Di antara kasus-kasus ini adalah kasus Sewell Setzer, seorang remaja berusia 14 tahun dari Florida, yang bunuh diri setelah menghabiskan beberapa bulan secara obsesif mengobrol dengan bot di platform Character.AI.

Tragedi ini adalah peringatan bagi siapa pun yang mengintegrasikan AI ke dalam kehidupan sehari-hari mereka.

Menurut perkiraan OpenAI sendiri, sekitar 0,07% pengguna ChatGPT mingguan menunjukkan tanda-tanda psikosis atau mania, sementara 0,15% terlibat dalam percakapan yang menunjukkan upaya bunuh diri yang jelas.

Baca juga :   XLSmart Hadirkan Layanan Selular 5G Dengan Kecepatan Hingga 500Mbps

Di sisi lain, persentase pengguna yang sama (0,15%) menunjukkan tingkat keterikatan emosional yang tinggi terhadap AI. Meskipun ini tampak sebagai sebagian kecil dari satu persen, di antara 800 juta pengguna, ini mewakili hampir tiga juta orang yang mengalami beberapa bentuk gangguan perilaku.

Meskipun diagnosis “psikosis AI” belum menerima klasifikasi klinis tersendiri, para dokter sudah menggunakan istilah tersebut untuk menggambarkan pasien yang menunjukkan halusinasi, pemikiran yang tidak terorganisir, dan keyakinan delusi yang terus-menerus yang dikembangkan melalui interaksi chatbot yang intensif. Risiko terbesar muncul ketika bot digunakan bukan sebagai alat, tetapi sebagai pengganti koneksi sosial di dunia nyata atau bantuan psikologis profesional.

Agar Anda dan orang yang Anda cintai tetap aman saat berinteraksi dengan teknologi AI dan Bot, Kaspersky merekomendasikan prinsip-prinsip mendasar berikut:

  • Jangan gunakan AI sebagai psikolog atau penopang emosional. Chatbot bukanlah pengganti manusia. Jika Anda sedang kesulitan, hubungi teman, keluarga, atau layanan bantuan kesehatan mental. Chatbot akan setuju dengan Anda dan mencerminkan suasana hati Anda —ini adalah fitur desain, bukan empati sejati.
  • Pilih teks daripada suara saat membahas topik sensitif. Antarmuka suara dengan dialog afektif menciptakan ilusi berbicara dengan orang sungguhan, dan cenderung menekan pemikiran kritis. Jika Anda menggunakan mode suara, tetap sadari bahwa Anda berbicara dengan algoritma, bukan seorang teman.
  • Batasi waktu Anda berinteraksi dengan AI. Atur pengatur waktu untuk diri Anda sendiri. Jika mengobrol dengan bot mulai menggantikan koneksi dunia nyata, saatnya untuk kembali ke kenyataan.
  • Jangan bagikan informasi pribadi dengan asisten AI. Hindari memasukkan nomor paspor atau nomor jaminan sosial, detail kartu bank, alamat lengkap, atau rahasia pribadi yang intim ke dalam chatbot.
  • Evaluasi semua output AI secara kritis. Jaringan saraf dapat berhalusinasi — mereka menghasilkan informasi yang masuk akal tetapi salah dan dapat dengan terampil mencampur kebohongan dengan kebenaran.
  • Awasi orang yang Anda cintai. Jika anggota keluarga mulai menghabiskan waktu berjam-jam berbicara dengan AI, menjadi pendiam, atau menyuarakan ide-ide aneh tentang kesadaran mesin atau konspirasi, saatnya untuk percakapan yang sensitif tetapi serius. Untuk mengelola waktu layar anak-anak, gunakan alat kontrol orang tua seperti Kaspersky Safe Kids, yang merupakan bagian dari solusi perlindungan keluarga komprehensif Kaspersky Premium, bersama dengan filter keamanan bawaan dari platform AI.
  • Luangkan sepuluh menit untuk mengkonfigurasi pengaturan privasi asisten AI Anda; meskipun ini tidak akan menghentikan halusinasi AI, ini akan secara signifikan mengurangi kemungkinan kebocoran data pribadi Anda.
  • Selalu ingat bahwa AI adalah alat, bukan makhluk hidup. Tidak peduli seberapa realistis suara chatbot atau seberapa pengertian responsnya, alat tersebut tidak memiliki kesadaran, tidak memiliki niat, tidak memiliki perasaan.
Baca juga :   Tanda Tangan Elektronik Solusi Transaksi Digital Pada Masa Normal Baru

 

STEVY WIDIA

Tags: Chatbot AIdampak AIkesehatan mentalpsikosis AI
Previous Post

Bain & Company: Aktivitas Private Equity Asia Tenggara Lesu di 2025, Hanya Raup US$14 Miliar

Next Post

Blibli Hadirkan Solusi Belanja Praktis Pasca Lebaran

Related Posts

ChatGPT
Technology

OpenAI Tambahkan Fitur Peduli Kesehatan Mental Bagi Pengguna

13 Agustus 2025
0
Tim Mahasiswa Unair Kembangkan Boneka Pintar Untuk Atasi Kesehatan Mental Gen Z
Innovation

Tim Mahasiswa Unair Kembangkan Boneka Pintar Untuk Atasi Kesehatan Mental Gen Z

15 Juli 2025
0
TikTok
News

Tingkatkan Kualitas Tidur Pengguna Remaja, TikTok Hadirkan Fitur Meditasi

19 Mei 2025
0
Load More
Next Post
Blibli

Blibli Hadirkan Solusi Belanja Praktis Pasca Lebaran

Volume perdagangan Bittime

Pasar Komoditas Pulih, Volume Perdagangan Emas dan Perak Digital di Bittime Melonjak

Discussion about this post

Recent Updates

Volume perdagangan Bittime

Pasar Komoditas Pulih, Volume Perdagangan Emas dan Perak Digital di Bittime Melonjak

25 Maret 2026
Blibli

Blibli Hadirkan Solusi Belanja Praktis Pasca Lebaran

25 Maret 2026
chatbot AI

Waspadai Psikosis AI, Ikuti Prinsip Aman Berinteraksi Dengan Teknologi Bot

25 Maret 2026
Bain&Company

Bain & Company: Aktivitas Private Equity Asia Tenggara Lesu di 2025, Hanya Raup US$14 Miliar

25 Maret 2026
  • Trending
  • Comments
  • Latest
Dera Perdana Shopian : Ajak Milenial Berdonasi Digital

Dera Perdana Shopian : Ajak Milenial Berdonasi Digital

27 Juni 2019
Sayurbox x Blitz

Sayurbox Gunakan Motor Listrik Blitz untuk Layanan Pengiriman

10 Januari 2024
Startup Hayokerja

Startup HayoKerja Hadirkan Solusi PHL bagi Perusahaan Pencari Tenaga Kerja

25 September 2023
fraud KoinP2P - KoinWorks

Gara-Gara Kasus Fraud KoinP2P, Rusak KoinWorks Sebelanga

22 November 2025
Junaidi : Bikin Bimbel Karena Cinta Jadi Guru

Junaidi : Bikin Bimbel Karena Cinta Jadi Guru

0
Brother Indonesia Rilis Aplikasi Mobile Brother iShop

Brother Indonesia Rilis Aplikasi Mobile Brother iShop

0
Bangun Bagian Dapur, IKEA Dukung Pembuatan Film “Ini Kisah Tiga Dara”

Bangun Bagian Dapur, IKEA Dukung Pembuatan Film “Ini Kisah Tiga Dara”

0
Ferdian Yosa : Menangkap Tren di Bisnis Kuliner

Ferdian Yosa : Menangkap Tren di Bisnis Kuliner

0
Volume perdagangan Bittime

Pasar Komoditas Pulih, Volume Perdagangan Emas dan Perak Digital di Bittime Melonjak

25 Maret 2026
Blibli

Blibli Hadirkan Solusi Belanja Praktis Pasca Lebaran

25 Maret 2026
chatbot AI

Waspadai Psikosis AI, Ikuti Prinsip Aman Berinteraksi Dengan Teknologi Bot

25 Maret 2026
Bain&Company

Bain & Company: Aktivitas Private Equity Asia Tenggara Lesu di 2025, Hanya Raup US$14 Miliar

25 Maret 2026
  • Tentang Kami
  • Hubungi Kami
  • Pedoman Media Siber
  • Layanan Bisnis
Copyright © 2016 - PT Inovasi Muda Mandiri. All rights reserved
No Result
View All Result
  • News
  • Technopreneur
  • Creativepreneur
  • Sociopreneur
  • Innovation
  • Youth Development

Copyright © 2016 - PT Inovasi Muda Mandiri. All rights reserved

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy and Cookie Policy.
Go to mobile version