Pengacara yang mewakili antrope baru -baru ini Dia menangkapku Untuk menggunakan atribusi palsu yang dihasilkan oleh Claude dalam kesaksian para ahli.
Tapi itu adalah salah satu dari lebih dari 20 kasus peradilan yang mengandung Ai halusinasi hanya dalam sebulan terakhir, menurut a Database baru Dibuat oleh pengacara Prancis dan ilmuwan data Damien Charlotin. Dan itu hanya mereka yang terjebak di tempat. Pada tahun 2024, yang merupakan tahun penuh pertama dari kasus pemantauan, Charlotin menemukan 36 contoh. Itu melonjak di 48 pada tahun 2025, dan tahun ini hanya di tengah. Basis data, yang dibuat pada awal Mei, memiliki 120 tiket sejauh ini, yang berasal dari Juni 2023.
Respons chatbot yang lebih ringkas terkait dengan peningkatan halusinasi, penelitian ini menemukan
Database penjelasan AI dalam kasus -kasus yudisial menunjukkan meningkatnya prevalensi pengacara yang menggunakan AI untuk mengotomatisasi pekerjaan kasar dalam membangun kasus. Yang tertua kedua dalam database adalah Bunuh v. Avianca kasus yang menjadi pemegang pada Mei 2023 ketika firma hukum Levidow, Levidow dan Oberman memperoleh Terperangkap mengutip kasus palsu dihasilkan oleh Chatgpt.
Basis data melacak contoh di mana teks yang luar biasa oleh chatbot AI, “biasanya kutipan palsu, tetapi juga jenis argumen lain,” menurut situs. Itu berarti referensi palsu untuk kasus -kasus sebelumnya, umumnya sebagai cara menetapkan preseden hukum. Itu tidak memperhitungkan penggunaan generatif dalam aspek lain dari dokumen hukum. “Semesta kasus dengan konten berhalusinasi harus lebih luas (dan saya pikir banyak Lebih luas), “kata Charlotin dalam email ke Mashable, penekanan asli.
“Secara umum, saya pikir itu hanya bahwa bidang hukum adalah tempat berkembang biak yang sempurna untuk halusinasi yang dihasilkan oleh AI: Ini adalah bidang yang didasarkan pada teks dan beban argumen, di mana AI generatif dapat mengambil posisi yang kuat; janji temu mengikuti pola, dan cinta itu,” kata Charlotin.
Kecepatan cahaya yang dapat dipasangkan
Ketersediaan umum generatif telah membuatnya lebih mudah secara drastis untuk menghasilkan teks, mengotomatiskan penelitian dan penulisan yang bisa memakan waktu berjam -jam atau bahkan berhari -hari. Tetapi di satu sisi, kata Charlotin, kutipan yang keliru atau disalahpahami untuk basis argumen hukum bukanlah hal baru. “Menyalin dan menempelkan kutipan dari kasus -kasus sebelumnya, sampai kutipan memiliki sedikit hubungan dengan kasus asli, telah lama menjadi elemen dasar dari profesi ini,” katanya.
Perbedaannya, kata Charlotin, adalah bahwa penunjukan yang disalin dan direkatkan setidaknya merujuk pada keputusan peradilan yang nyata. Halusinasi yang diperkenalkan oleh AI generatif merujuk pada kasus peradilan yang tidak pernah ada.
Hakim dan Pengacara Oposisi Mereka selalu seharusnya memverifikasi janji untuk tanggung jawab mereka sendiri dalam kasus ini. Tapi ini sekarang termasuk mencari halusinasi AI. Peningkatan halusinasi yang ditemukan dalam kasus -kasus ini bisa menjadi ketersediaan terbesar LLM, tetapi juga “kesadaran yang lebih besar tentang masalah oleh semua yang terlibat,” kata Charlotin.
Pada akhirnya, mengandalkan chatgpt, Claude atau chatbots lain untuk menyebutkan preseden hukum masa lalu menunjukkan konsisten. Sanksi bagi mereka yang ditangkap yang menyajikan dokumen dengan halusinasi AI termasuk sanksi keuangan, peringatan formal dan bahkan kasus yang diberhentikan.
Yang mengatakan, Charlotin mengatakan bahwa sanksi telah “sedikit” sejauh ini dan pengadilan telah menempatkan “tanggung jawab bagi para pihak untuk berperilaku”, karena tanggung jawab memverifikasi janji temu tetap sama. “Aku merasa ada sedikit rasa malu dari siapa pun yang terlibat.”
Pengungkapan: Ziff Davis, perusahaan induk Mashable, mengajukan gugatan terhadap Openai pada bulan April, mengklaim bahwa ia melanggar hak cipta Ziff Davis dalam pelatihan dan pengoperasian sistem AI -nya.
Topik
Kecerdasan buatan