Setiap beberapa minggu, tampaknya ada pemegang baru tentang a pengacara memasuki masalah Untuk mengirim presentasi yang berisi, dalam kata -kata hakim, “penyelidikan palsu yang dihasilkan oleh AI”. Rinciannya bervariasi, tetapi jalur transmisi sama: seorang pengacara menggunakan model bahasa besar (LLM) sebagai chatgpt untuk membantu mereka dengan penyelidikan hukum (atau lebih buruk, menulis), LLM memperhalus kasus -kasus yang tidak ada, dan pengacara bukan yang paling bijak sampai hakim atau nasihat menunjukkan kesalahannya. Dalam beberapa kasus, termasuk permintaan penerbangan 2023, pengacara Mereka harus membayar denda untuk mengirim presentasi dengan halusinasi yang dihasilkan oleh AI. Jadi mengapa mereka tidak berhenti?
Jawabannya terutama dikurangi ke waktu, dan cara AI menjadi hampir semua profesi. Basis data penelitian hukum seperti LexisNexis dan Westlaw memiliki integrasi AI sekarang. Bagi pengacara yang menyulap dengan kasus -kasus besar, AI mungkin tampak sebagai asisten yang sangat efisien. Sebagian besar pengacara tidak perlu menggunakan chatgpt untuk menulis presentasi mereka, tetapi menggunakannya lebih dan lebih banyak lagi dan lainnya untuk penyelidikan. Namun, banyak dari pengacara ini, seperti banyak dari publik, tidak mengerti persis apa LLM atau bagaimana mereka bekerja. Seorang pengacara yang dulu sanksi Pada tahun 2023 ia mengatakan bahwa chatgpt adalah “mesin pencari super.” Diperlukan untuk mengirim presentasi dengan kutipan palsu untuk mengungkapkan bahwa itu lebih sebagai generator frasa acak, yang dapat memberikan informasi yang benar atau omong kosong yang ditulis dengan meyakinkan.
Andrew Perlman, Dekan Fakultas Hukum Universitas Suffolk, berpendapat bahwa banyak pengacara menggunakan alat AI tanpa insiden, dan mereka yang terjebak dengan kutipan palsu adalah atipikal. “Saya pikir apa yang kita lihat sekarang, meskipun masalah halusinasi ini nyata, dan pengacara harus menganggapnya sangat serius dan berhati -hati tentang hal itu, itu tidak berarti bahwa alat -alat ini tidak memiliki manfaat besar dan kasus penggunaan untuk penyediaan layanan hukum,” kata Perlman. Database hukum dan sistem penelitian seperti Westlaw menggabungkan layanan AI.
Faktanya, 63 persen pengacara Disurvei oleh Thomson Reuters Pada tahun 2024 ia mengatakan mereka telah menggunakan di masa lalu, dan 12 persen mengatakan mereka menggunakannya secara teratur. Responden mengatakan mereka menggunakan AI untuk menulis ringkasan yurisprudensi dan menyelidiki “yurisprudensi, undang -undang, formulir atau bahasa sampel untuk pesanan.” Para pengacara yang disurvei oleh Thomson Reuters melihatnya sebagai alat penghematan waktu, dan setengah dari responden mengatakan bahwa “mengeksplorasi potensi untuk mengimplementasikan AI” di tempat kerja adalah prioritas tertinggi mereka. “Peran pengacara yang baik seperti” penasihat tepercaya “, bukan sebagai produser dokumen,” kata seorang responden.
Tetapi seperti yang ditunjukkan oleh banyak contoh baru -baru ini, dokumen -dokumen yang dihasilkan oleh AI tidak selalu tepat, dan dalam beberapa kasus mereka tidak nyata sama sekali.
Dalam kasus terkenal baru -baru ini, pengacara jurnalis Tim Burke, yang ditangkap karena menerbitkan gambar Fox News tanpa udara pada tahun 2024, memberikan mosi untuk memberhentikan kasus terhadapnya untuk Amandemen Pertama. Setelah menemukan bahwa presentasi termasuk “representasi yang salah dan kutipan yurisprudensi dan sejarah yang salah yang diduga relevan”, Hakim Kathryn Kimball Mizelle, dari Distrik Tengah Florida, memerintahkan agar mosi tersebut dipengaruhi oleh catatan kasus tersebut. Mizelle menemukan sembilan halusinasi dalam dokumen, Menurut dia Tampa Bay Times.
Mizelle akhirnya membiarkan pengacara Burke, Mark Rasch dan Michael Maddux, menyajikan mosi baru. Dalam presentasi terpisah yang menjelaskan kesalahan, Rasch menulis bahwa “mengambil tanggung jawab eksklusif dan eksklusif dari kesalahan ini.” Rasch mengatakan dia menggunakan Karakteristik “penelitian mendalam” di chatgpt proyang Tepi sebelumnya telah mencoba Hasil yang beragamserta peran Westlaw.
Rasch tidak sendirian. Pengacara yang mewakili antrope baru -baru ini Diakui telah menggunakan Claude AI perusahaan untuk membantu menulis pernyataan saksi ahli yang disajikan sebagai bagian dari Permintaan akan pelanggaran hak cipta Disajikan melawan antrope oleh editor musik. Presentasi itu termasuk janji dengan “judul yang tidak akurat dan penulis yang tidak akurat.” Desember lalu, seorang ahli informasi yang salah Jeff Hancock mengakui bahwa dia menggunakan chatgpt Untuk membantu mengatur janji dalam pernyataan yang disajikan untuk mendukung undang -undang Minnesota yang mengatur penggunaan Deepfake. Presentasi Hancock termasuk “dua kesalahan janji temu, yang dikenal sebagai ‘halusinasi'”, dan penulis tidak terdaftar secara tidak benar untuk janji temu lain.
Dokumen -dokumen ini, pada kenyataannya, penting, setidaknya di mata para hakim. Dalam kasus baru -baru ini, seorang hakim California Memimpin kasus melawan State Farm Awalnya itu dipengaruhi oleh argumen secara singkat, hanya untuk mengetahui bahwa yurisprudensi yang disebutkan di atas sepenuhnya ditemukan. “Saya membaca briefnya, dia dibujuk (atau setidaknya tertarik) oleh pihak berwenang yang dipanggil, dan mencari keputusan untuk mempelajari lebih lanjut tentang mereka, hanya untuk mengetahui bahwa mereka tidak ada,” tulis Hakim Michael Wilner.
Perlman mengatakan ada beberapa cara yang kurang berisiko di mana pengacara menggunakan generatif dalam pekerjaan mereka, termasuk pencarian informasi di sebagian besar dokumen penemuan, meninjau laporan atau presentasi, dan hujan ide tentang kemungkinan argumen atau kemungkinan poin yang berlawanan. “Saya pikir dalam hampir semua tugas, ada cara -cara di mana AI generatif dapat bermanfaat, bukan pengganti untuk persidangan hukum, bukan pengganti pengalaman yang dikontribusikan pengacara, tetapi untuk melengkapi apa yang dilakukan pengacara dan membiarkan mereka melakukan pekerjaan mereka dengan lebih baik, lebih cepat dan lebih murah,” kata Perlman.
Tetapi sebagai siapa pun yang menggunakan alat AI, pengacara yang mempercayai mereka untuk membantu dengan penelitian dan penulisan hukum harus berhati -hati untuk memverifikasi pekerjaan yang mereka hasilkan, kata Perlman. Bagian dari masalahnya adalah bahwa pengacara sering menemukan sedikit waktu, masalah yang, menurutnya, ada sebelum LLMS memasuki tempat kejadian. “Bahkan sebelum penampilan generatif, pengacara akan mempresentasikan dokumen dengan janji yang benar -benar tidak mengatasi masalah yang mereka klaim untuk diatasi,” kata Perlman. “Itu hanya jenis masalah yang berbeda. Kadang -kadang, ketika pengacara tergesa -gesa, mereka memasukkan janji temu, mereka tidak memverifikasi dengan benar; mereka benar -benar tidak melihat apakah kasusnya telah dibatalkan atau dibatalkan.” (Yang mengatakan, kasus setidaknya ada).
Masalah lain yang lebih berbahaya adalah kenyataan bahwa pengacara, seperti orang lain yang menggunakan LLM untuk membantu penelitian dan menulis, percaya apa yang dihasilkan AI. “Saya pikir banyak orang dalam rasa nyaman dengan produksi, karena pada pandangan pertama tampaknya sangat baik diuraikan,” kata Perlman.
Alexander Kolodin, pengacara pemilihan dan perwakilan negara bagian Republik di Arizona, mengatakan bahwa ia memperlakukan chatgpt sebagai rekan tingkat junior. Ini juga menggunakan chatgpt untuk membantu menulis undang -undang. Pada tahun 2024, ia memasukkan teks AI sebagai bagian dari tagihan tentang Deepfakes, yang diberikan LLM “definisi referensi” tentang apa cacat itu dan kemudian “saya, manusia, menambahkan perlindungan untuk hak asasi manusia, hal -hal seperti itu tidak termasuk komedi, sindiran, kritik, ekspresi artistik, hal -hal seperti itu”, kolodin dikatakan Wali Saat ini. Kolodin mengatakan “mungkin telah membahas” penggunaan chatgpt dengan rekan Demokrat utama dari RUU itu, tetapi sebaliknya ingin itu menjadi “telur Paskah” dalam RUU itu. RUU tersebut menyetujui undang -undang tersebut.
Kolodin – siapa Sanksi oleh Asosiasi Bar Negara Bagian Arizona pada tahun 2020 Karena partisipasinya dalam tuntutan yang menantang hasil pemilu 2020, chatgpt juga digunakan untuk menulis draft amandemen pertama dan mengatakan Tepi Dia juga menggunakannya untuk penyelidikan hukum. Untuk menghindari masalah halusinasi, katanya, hanya memverifikasi janji untuk memastikan mereka nyata.
“Anda tidak hanya mengirim produk kerja rekan junior tanpa memverifikasi janji temu,” kata Kolodin. “Tidak hanya mesin yang berhalusinasi; seorang rekan junior dapat membaca kasus yang buruk, itu tidak benar -benar mewakili proposal yang dikutip, apa pun. Anda masih harus memverifikasi, tetapi Anda harus melakukannya dengan rekan, kecuali mereka memiliki pengalaman yang cukup.”
Kolodin mengatakan dia menggunakan alat Pro “penelitian mendalam” dan alat Lexisnexis AI. Seperti Westlaw, Lexisnexis adalah alat investigasi hukum yang terutama digunakan oleh pengacara. Kolodin mengatakan bahwa dalam pengalamannya, ia memiliki tingkat halusinasi yang lebih tinggi daripada chatgpt, yang ia “telah memicu secara substansial selama setahun terakhir.”
Penggunaan pengacara telah menjadi begitu sering sehingga pada tahun 2024, American Bar Association Dia mengeluarkan pemandu pertamanya Tentang penggunaan pengacara LLM dan alat AI lainnya.
Pengacara yang menggunakan alat AI “memiliki tugas kompetensi, termasuk pemeliharaan teknologi yang relevan bersaing pendapat membaca. Panduan ini menyarankan pengacara untuk “memperoleh pemahaman umum tentang manfaat dan risiko alat Gai” yang mereka gunakan, atau, dengan kata lain, mereka tidak berasumsi bahwa LLM adalah “mesin pencari super.” Pengacara juga harus menimbang risiko kerahasiaan untuk memasukkan informasi yang terkait dengan kasus mereka di LLM dan mempertimbangkan apakah itu memberi tahu klien mereka tentang penggunaan LLM dan alat AI lainnya, katanya.
Perlman optimis dalam penggunaan AI oleh pengacara. “Saya pikir AI generatif akan menjadi teknologi paling mengejutkan yang pernah dilihat oleh profesi hukum dan bahwa pengacara diharapkan menggunakan alat -alat ini di masa depan,” katanya. “Saya pikir pada titik tertentu, kami akan berhenti mengkhawatirkan tentang kompetensi pengacara yang menggunakan alat -alat ini dan kami akan mulai khawatir tentang kompetensi pengacara yang tidak.”
Lainnya, termasuk salah satu hakim yang menyetujui pengacara untuk menghadirkan presentasi yang penuh dengan halusinasi yang dihasilkan oleh AI, lebih skeptis. “Bahkan dengan kemajuan terbaru,” tulis Wilner, “tidak ada pengacara yang cukup kompeten yang harus mengatasi penyelidikan dan penulisan teknologi ini, terutama tanpa upaya untuk memverifikasi keakuratan materi itu.”