Kami khawatir Chatgpt dan model -model lain dari menghalusisasi informasi dari hari yang pertama menjadi viral. Deskripsi terkenal Ai de Gue-on-Pizza adalah contoh terbaik, tetapi itu bukan satu-satunya.
Sementara semua perusahaan AI yang bekerja di model perbatasan telah mencoba meningkatkan keakuratan chatbots, mereka masih berhalusinasi informasi. Sebuah studi baru yang terlihat Chatgpt O3 dan O4-Mini, model penalaran Openai baru, menunjukkan bahwa mereka cenderung berhalusinasi lebih dari pendahulunya.
Itulah sebabnya saya selalu menyarankan orang untuk meminta sumber jika chatbot yang mereka gunakan tidak memberi mereka default. Anda dapat memverifikasi informasi yang disediakan AI di tempat. Itulah sebabnya saya lebih sering berkelahi dengan chatgpt, karena IA terkadang tidak menyediakan tautan atau sumber untuk pernyataan mereka.
Sekarang, jika sumber yang menggunakan AI mengandung halusinasi itu sendiri, itu masalah.
Ternyata halusinasi bisa menjadi lebih buruk daripada menghilang. Ini disebut model AI, dan ini adalah risiko pengembangan yang harus kita perhitungkan. Beberapa model AI bisa menjadi lebih buruk daripada membaik dalam waktu dekat, dan konsekuensinya bisa menjadi bencana.
Artikel opini tentang Pendaftaran Ini menarik perhatian pada fenomena yang telah mulai diamati oleh beberapa orang saat menggunakan alat dengan AI.
Laporan ini menjelaskan pengalaman pengguna untuk mengakses data kinerja keuangan yang sangat spesifik. Hasilnya lebih buruk dari sebelumnya, dengan AI diekstraksi dari sumber yang buruk alih -alih file 10 K yang saya harapkan:
Secara khusus, saya menemukan bahwa ketika saya mencari data keras seperti statistik untuk berbagi pasar atau nomor bisnis lainnya, hasilnya sering berasal dari sumber yang buruk. Alih-alih statistik 10-KK, laporan keuangan komersial tahunan wajib dari Komisi Sekuritas dan Sekuritas AS untuk perusahaan publik, saya memperoleh jumlah situs yang berupaya menjadi ringkasan laporan komersial. Ini memiliki beberapa kesamaan dengan kenyataan, tetapi mereka tidak pernah cukup baik. Jika saya menentukan bahwa saya hanya ingin hasil 10-K, itu berhasil. Jika saya hanya meminta hasil keuangan, jawabannya menjadi … menarik.
Pendaftaran Dia mengatakan bukan hanya kebingungan yang menawarkan tanggapan yang buruk. Bot pencarian penting lainnya mengembalikan hasil “dipertanyakan”. Itulah runtuhnya model aksi AI, meskipun kebanyakan orang tidak tahu apa yang terjadi:
Selamat datang di sampah di/sampah (gigo). Secara formal, di lingkaran AI, ini dikenal sebagai runtuhnya model AI. Dalam keruntuhan model AI, sistem AI yang dilatih dalam hasil mereka sendiri secara bertahap kehilangan presisi, keragaman, dan keandalan.
Perusahaan yang melatih model AI baru dengan data yang dihasilkan oleh AI alih -alih konten manusia dapat mengakhiri chatbots yang menciptakan banyak waktu. Fenomena keruntuhan dari model AI dapat memengaruhi kehidupan sehari -hari jika pengguna tidak menyadari bahwa chatbot mereka menghasilkan data yang tidak dapat diandalkan.
Bukan hanya jawaban menipu untuk pertanyaan sehari -hari. Ini bisa lebih serius, terutama dengan pengkodean AI dan perusahaan yang bergantung padanya untuk mengotomatiskan tugas, termasuk layanan pelanggan.
Bagian dari output ceroboh yang diproduksi AI dapat dengan mudah melakukannya secara online, terutama karena generasi teks adalah karakteristik dasar alat seperti chatgpt. Hanya beberapa hari yang lalu, daftar buku musim panas terbaik Chicago Sun-Times menjadi viral untuk memasukkan novel itu Mereka tidak benar -benar ada. Meskipun tidak jelas apakah itu runtuhnya model AI, daftar itu jelas berhalusinasi oleh AI.
Pendaftaran Chatgpt bertanya kapan salah satu judul yang terdaftar akan dirilis. AI menjawab bahwa buku fiksi telah diumumkan tetapi tidak memiliki tanggal rilis:
Tidak ada informasi yang tersedia untuk umum tentang plot novel Min Jin Lee berikutnya, Nightshade Market. Meskipun novel telah diumumkan, detail tentang sejarahnya belum terungkap.
Laporan itu juga mengutip a Penelitian Bloomberg Studi tentang generasi augmented pemulihan (RAG) yang menemukan bahwa 11 induk menghasilkan hasil yang buruk ketika menanggapi lebih dari 5.000 indikasi berbahaya. Daftar ini termasuk ChatGPT GPT-4O, Gemma 7b 7b dari Google, Sonnet Claude 3.5 dan hubungi 3.8B.
Rag memungkinkan chatbots untuk mengakses sumber pengetahuan eksternal tertentu dan menghasilkan jawaban. Mereka harus kurang rentan terhadap halusinasi dan lebih tepatnya, karena mereka tidak hanya bergantung pada pengetahuan yang sebelumnya terlatih. Meski begitu, chatbots kain juga dapat menghasilkan laporan yang menipu dan bahkan memfilter data klien pribadi.
Yang mengatakan, runtuhnya model AI tidak dapat dijelaskan secara objektif, serta kecerdasan umum buatan (AGI). Dengan keberuntungan, kami akan mencapai yang terakhir sebelum yang pertama adalah Jenderal.
Saya tidak bisa mengatakan bahwa saya memiliki model keruntuhan model -ai yang jelas, terutama karena saya tidak pernah tahu bahwa saya mencari mereka. Saya telah melihat halusinasi lebih dari sekali, dan saya tidak berharap itu berubah. Itulah sebabnya saya selalu bersikeras pada sumber ketika ChatGPT memberi saya informasi dalam obrolan harian kami.
Solusi untuk keruntuhan model AI adalah pelatihan model perbatasan dengan konten yang dihasilkan oleh manusia alih -alih data sintetis. Itu lebih mudah untuk mengatakannya daripada melakukannya di dunia di mana AI sudah dibuat konten yang dihasilkan oleh pengguna. Di sisi lain, jika pengguna akhir bertanya -tanya apakah runtuhnya model AI itu nyata, ada kemungkinan bahwa perusahaan yang membangun model ini sudah menghadapinya di belakang tempat kejadian.
Saya juga akan menyebutkan sesuatu yang CEO Antropik Dario Amodei baru -baru ini mengatakan bahwa AIS informasi halusinasi lebih jarang dari orang. Ini adalah bidikan yang menarik, tetapi belum menjadi alasan yang baik untuk halusinasi AI.