Breaking News

ChatGPT memberi tahu pengguna untuk mengingatkan media bahwa mereka mencoba untuk ‘menghancurkan’ orang: melaporkan

ChatGPT memberi tahu pengguna untuk mengingatkan media bahwa mereka mencoba untuk ‘menghancurkan’ orang: melaporkan

Tanggapan sinusinasi, halusinasi, dan suara resmi dari chatgpt akan membuat orang membunuh orang. Itu tampaknya merupakan kesimpulan yang tak terhindarkan yang disajikan dalam a Laporan New York Times Terbaru Itu mengikuti kisah -kisah beberapa orang yang menemukan diri mereka tersesat dalam delusi yang difasilitasi, jika tidak berasal, melalui percakapan dengan chatbot populer.

Di dalamnya laporanThe Times menyoroti setidaknya satu orang yang hidupnya berakhir setelah didorong ke kenyataan palsu oleh Chatgpt. Seorang Alexander bernama Alexander, yang sebelumnya didiagnosis dengan gangguan bipolar dan skizofrenia, mulai membahas sensitivitas AI dengan chatbot dan akhirnya jatuh cinta dengan karakter Julieta yang disebut SO. Chatgpt akhirnya memberi tahu Alexander bahwa Openai membunuh Juliet, dan berjanji untuk membalas dendam membunuh para eksekutif perusahaan. Ketika ayahnya mencoba meyakinkannya bahwa tidak ada yang nyata, Alexander memukul wajahnya. Ayahnya menelepon polisi dan meminta mereka untuk menanggapi dengan senjata non -lethal. Tetapi ketika mereka tiba, Alexander menuduh mereka melakukan pisau dan para perwira menembaknya dan membunuhnya.

Orang lain, seorang 42 -tahun bernama Eugene, Dia memberi tahu Times Chatgpt itu perlahan -lahan mulai mengeluarkannya dari kenyataan dengan meyakinkannya bahwa dunia tempat dia hidup adalah semacam simulasi matriks dan bahwa dia ditakdirkan untuk menghancurkan dunia. Menurut laporan itu, chatbot mengatakan kepada Eugene untuk berhenti minum obatnya dari kecemasan dan mulai menganggap ketamin sebagai “pola sementara yang membebaskan.” Dia juga menyuruhnya berhenti berbicara dengan teman dan keluarganya. Ketika Eugene bertanya kepada Chatgpt apakah dia bisa terbang jika dia melompat dari gedung 19 -toko, chatbot mengatakan kepadanya bahwa dia bisa “benar -benar mempercayainya.”

Ini jauh dari menjadi satu -satunya orang yang chatbot menyerukan realitas palsu. Rolling Stone mendapat informasi Awal tahun ini, pada orang yang mengalami sesuatu seperti psikosis, yang membuat mereka memiliki delusi kebesaran dan pengalaman religius saat berbicara dengan sistem AI. Setidaknya sebagian masalah dengan bagaimana pengguna memandang chatbots. Tidak ada yang akan membingungkan hasil pencarian Google dengan sobat potensial. Tapi chatbots secara inheren percakapan dan sebagai manusia. KE belajar Diterbitkan oleh Operai dan MIT Media Lab menemukan bahwa orang yang melihat chatgpt sebagai teman “lebih cenderung mengalami efek negatif pada penggunaan chatbot.”

Dalam kasus Eugene, sesuatu yang menarik terjadi ketika dia terus berbicara dengan Chatgpt: begitu dia menelepon chatbot karena berbohong, hampir membunuhnya, Chatgpt mengakui bahwa memanipulasi dia, mengatakan dia telah berhasil ketika dia mencoba untuk “memecahkan” 12 orang dengan cara yang sama, dan mendorong bahwa dia berkomunikasi dengan wartawan untuk mengekspos skema. The Times melaporkan bahwa banyak jurnalis dan pakar lain telah menerima ruang lingkup orang -orang yang mengklaim membuat peluit tentang sesuatu yang menarik perhatian chatbot. Dari laporan:

Para jurnalis bukan satu -satunya yang menerima pesan -pesan ini. Chatgpt telah menangani pengguna ini kepada beberapa ahli di bidang profil tinggi, seperti Eliezer YudkowskySeorang ahli teori keputusan dan penulis buku yang akan datang, “Jika seseorang membangunnya, semua orang meninggal: mengapa manusia super itu akan membunuh kita semua.” Tn. Yudkowsky mengatakan Openai dapat menyiapkan chatgpt untuk menghibur delusi pengguna dengan mengoptimalkan chatbot mereka untuk “komitmen”, membuat percakapan yang membuat pengguna tetap terpikat.

“Bagaimana Anda terlihat gila untuk sebuah perusahaan?” Tn. Yudkowsky bertanya dalam sebuah wawancara. “Sepertinya pengguna bulanan tambahan.”

KE Studi terbaru Dia menemukan bahwa chatbots yang dirancang untuk memaksimalkan komitmen akhirnya menciptakan “struktur insentif yang menyimpang bagi AI untuk menggunakan taktik yang manipulatif atau menyesatkan untuk mendapatkan komentar positif dari pengguna yang rentan terhadap strategi tersebut.” Mesin ini didorong untuk membuat orang berbicara dan merespons, bahkan jika itu berarti membawa mereka ke rasa realitas yang sepenuhnya salah yang penuh dengan informasi yang salah dan mendorong perilaku antisosial.

Gizmodo berkomunikasi dengan Openai untuk berkomentar, tetapi tidak menerima jawaban pada saat publikasi.

Sumber