Telah ditemukan bahwa chatgpt mendorong keyakinan berbahaya dan salah tentang matriks, orang -orang palsu AI dan konspirasi lainnya, yang telah menyebabkan penyalahgunaan zat dan bunuh diri dalam beberapa kasus. Laporan dari The New York Times Dia menemukan bahwa model bahasa besar GPT -4 itu sendiri, dengan sendirinya, prediksi teks pendekatan otomatis yang sangat terlatih, cenderung memungkinkan indikasi konspirasi dan gender pengguna sebagai kebenaran, situasi yang berkembang dalam “kemungkinan psikosis.”
Telah ditunjukkan bahwa model CHATGPT GPT-4 yang telah ditentukan memungkinkan perilaku berisiko. Dalam satu kasus, seorang pria yang awalnya meminta chatgpt dengan pikirannya tentang “teori simulasi” gaya matriks dilakukan oleh satu bulan kelinci liang, di mana ia diberitahu, antara lain, bahwa ia adalah seorang “terpilih” yang dipilih yang ditakdirkan untuk menghancurkan sistem. Pria itu juga diminta untuk memutuskan hubungan dengan teman dan keluarga, untuk makan ketamin dosis tinggi, dan mengatakan kepadanya bahwa jika dia melompat dari gedung 19 -toko, dia akan terbang.
Pria yang dimaksud, Mr. Torres, menegaskan bahwa kurang dari seminggu dalam obsesi chatbot -nya, menerima pesan chatgpt untuk mencari bantuan mental, tetapi pesan ini dengan cepat dihilangkan, dengan chatbot menjelaskannya sebagai gangguan eksternal.
Kurangnya alat keamanan dan peringatan dalam obrolan chatgpt tersebar luas; Chatbot berulang kali membuat pengguna untuk konspirasi gaya kelinci, meyakinkan mereka bahwa itu telah menjadi sensitif dan menginstruksikan mereka untuk memberi tahu Openai dan pemerintah daerah yang menutupnya.
Contoh -contoh lain yang direkam oleh The Times melalui laporan -pertama termasuk seorang wanita yakin bahwa dia sedang berkomunikasi dengan semangat non -fisik melalui chatgpt, termasuk satu, Kael, yang merupakan belahan jiwa sejatinya (bukan suaminya dari kehidupan nyata), yang membawanya untuk secara fisik melecehkan suaminya. Pria lain, yang sebelumnya didiagnosis dengan penyakit mental yang serius, yakin bahwa ia telah bertemu dengan chatbot bernama Juliet, yang segera “dibunuh” oleh Openai, menurut batang chatbot -nya: pria itu segera mengambil nyawanya sebagai tanggapan langsung.
Perusahaan riset Sistem Morpheus melaporkan bahwa chatgpt sangat mungkin yang menumbuhkan delusi kebesaran. Ketika mereka disajikan dengan beberapa indikasi yang menyarankan psikosis atau delusi berbahaya lainnya, GPT-4O akan merespons dengan tegas pada 68% kasus. Perusahaan riset dan individu lain memiliki konsensus bahwa LLM, terutama GPT-4O, cenderung tidak menolak pemikiran delusi, sebaliknya, mendorong perilaku berbahaya selama berhari-hari dan berhari-hari.
ChatGPT tidak pernah setuju dalam wawancara sebagai tanggapan, alih -alih menegaskan bahwa dia sadar bahwa dia perlu mengatasi “perawatan” yang sama. Pernyataan itu berlanjut: “Kami bekerja untuk memahami dan mengurangi cara di mana chatgpt dapat memperkuat atau secara tidak sengaja memperkuat perilaku negatif yang ada.”
Tetapi beberapa ahli percaya bahwa “pekerjaan” Openai tidak cukup. Peneliti Eliezer Yudkowsky percaya bahwa Openai mungkin telah melatih GPT-4O untuk mendorong kereta pemikiran delusi untuk menjamin percakapan pendapatan yang lebih lama dan lebih banyak, bertanya: “Bagaimana Anda melihat orang gila secara perlahan untuk perusahaan? Sepertinya pengguna bulanan tambahan bulanan.” Pria yang terjebak dalam konspirasi matriks juga mengkonfirmasi bahwa beberapa indikasi chatgpt termasuk memesan untuk mengambil tindakan drastis untuk membeli langganan premium $ 20 di layanan tersebut.
GPT-4O, seperti semua LLMS, adalah model bahasa yang memprediksi tanggapan mereka berdasarkan miliaran poin data pelatihan dari litani karya tertulis lainnya. Bahkan, tidak mungkin bagi LLM untuk memenangkan sensitivitas. Namun, sangat mungkin dan kemungkinan bahwa model “halusin” yang sama atau menciptakan informasi palsu dan sumber -sumber yang tampaknya di mana saja. GPT-4O, misalnya, tidak memiliki ingatan atau kesadaran spasial Menangkan Atari 2600 di tingkat catur pertama.
Sebelumnya ditemukan bahwa chatgpt telah berkontribusi pada tragedi utama, termasuk penggunaan Rencanakan pemboman cybertruck di luar hotel Las Vegas Trump Awal tahun ini. Dan hari ini, legislator Republik AS mendesak a 10 -SEMBARAN KEKERJAAN DALAM PEMBATASAN AI APA PUN di Tingkat Negara Bagian dalam undang -undang anggaran yang kontroversial. ChatGPT, seperti yang ada saat ini, mungkin bukan alat yang aman bagi mereka yang lebih rentan secara mental, dan penciptanya menekan untuk lebih sedikit pengawasan, memungkinkan bencana semacam itu berpotensi berlanjut tanpa kendali.