Breaking News

Pengacara CEO MyPillow, arsip hukum yang dihasilkan oleh AI, periode kesalahan dengan kesalahan

Pengacara CEO MyPillow, arsip hukum yang dihasilkan oleh AI, periode kesalahan dengan kesalahan

Pengacara untuk CEO MyPillow dan Teoretis konspirasi pemilihan presiden Mike Lindell menghadapi tindakan disiplin yang mungkin setelah menggunakan AI generatif untuk menulis laporan hukum, menghasilkan dokumen yang penuh dengan kesalahan mendasar. Para pengacara mengaku menggunakan AI, tetapi menegaskan bahwa kesalahan khusus ini terutama manusia.

Pada hari Rabu, Perintah Hakim Pengadilan Distrik Colorado Nina Wang Dia mencatat bahwa pengadilan telah mengidentifikasi hampir 30 kutipan cacat dalam brief yang diajukan oleh pengacara Lindell pada 25 Februari. Ditandatangani oleh pengacara Christopher Kachofoff dan Jennifer juga Sistem Voting Domain Karyawan Eric Coomer Permintaan permintaan melawan Lindell.

“Cacat -cacat ini termasuk, antara lain, kutipan keliru dari kasus -kasus yang disebutkan di atas; salah penjahat hukum yang terkait dengan kasus -kasus yang dikutip, termasuk diskusi prinsip -prinsip hukum yang tidak muncul dalam keputusan tersebut; kesalahan mengenai apakah hukum kasus, yang mengatakan dalam kasus -kasus tersebut, kasus -kasus yang mengikatnya, Kasus -kasus yang mengikatnya, Kasus -Kasus -Kasusnya, Kasus -Kasus -Kasusnya, Kasus -Kasus -Kasus yang Berasal; kasus kesepuluh apa;

Pengadilan juga mengindikasikan bahwa meskipun pengacara memiliki kesempatan untuk menjelaskan daftar kesalahan cucian ini, mereka tidak dapat melakukannya dengan benar. Kachoouoff mengkonfirmasi bahwa dia telah menggunakan generatif untuk menyiapkan ringkasan begitu pengadilan bertanya langsung tentang hal itu, dan ketika dia menginterogasi lebih banyak dia mengakui bahwa dia belum meninjau kutipan yang dihasilkan.

Dengan demikian, pengadilan memerintahkan pengacara untuk memberikan penjelasan mengapa Kachoouoff dan terlalu banyak tidak boleh dirujuk ke prosedur disiplin karena melanggar aturan perilaku profesional, serta disetujui bersama dengan Lindell dan firma hukumnya.

Pengacara dapat menghadapi tindakan disipliner tentang penggunaan AI

Menanggapi pesanan pada hari JumatPara pengacara menyatakan bahwa mereka telah “tidak diketahui kesalahan atau masalah apa pun” dengan presentasi mereka, sehingga mereka “terjebak oleh kekacauan” dan tidak siap untuk menjelaskan ketika pengadilan awalnya menanyainya.

Kecepatan cahaya yang dapat dipasangkan

Setelah memiliki waktu untuk mengevaluasi situasi, mereka sekarang menegaskan bahwa dokumen yang dimaksud sebenarnya adalah draft sebelumnya yang telah disajikan secara tidak sengaja. Mengirim versi alternatif dari laporan yang mendukung argumen ini, para pengacara juga memberikan pertukaran email antara Kachouoff dan terlalu banyak di mana mereka membahas edisi.

“Pada waktu itu, pengacara tidak punya alasan untuk percaya bahwa rancangan yang dihasilkan oleh atau tidak diverifikasi,” kata jawabannya. “Setelah penonton dan memiliki kesempatan berikutnya untuk menyelidiki [the brief]Segera jelas bahwa dokumen yang diarsipkan bukan versi yang tepat. Itu adalah draft sebelumnya.

“Itu tidak diperhatikan, presentasi yang salah yang tidak dibuat dengan sengaja, dan secara keliru disajikan melalui kesalahan manusia.”

Pengacara lebih lanjut mengadakan presentasi mereka yang sangat diizinkan untuk menggunakan AI untuk menyiapkan presentasi hukum, dengan alasan bahwa “[t]Tidak ada yang salah di sini untuk menggunakan AI saat digunakan dengan benar. “Kachofoff menyatakan bahwa” secara rutin “menganalisis argumen hukum menggunakan alat IA seperti Microsoft Co -Pilot, Google (agaknya Gemini), Dan tidak dikenal (agaknya Mengumpulkan), meskipun dia menunjukkan bahwa dia adalah satu -satunya orang di firma hukumnya dalam melakukannya. Dia juga menyatakan bahwa dia belum pernah mendengar istilah “Kecerdasan Buatan Generatif.”

Para pengacara meminta agar mereka diizinkan untuk mengisi ulang ringkasan mereka yang dikoreksi, serta bahwa kemungkinan tindakan disipliner diberhentikan.

Kejadian ini hanya yang terakhir dalam daftar yang terus bertambah Profesional hukum menggunakan AI yang tidak pantas dalam pekerjaan merekaBeberapa dari mereka bahkan tidak memahami teknologi. Pada Juni 2023 Dua pengacara didenda untuk mengutip kasus hukum yang tidak ada Setelah mereka menggunakan chatgpt untuk melakukan penyelidikan. Belakangan tahun itu, pengacara pengacara Trump no Michael Cohen Dia ketahuan mengutip kasus -kasus palsu yang dimiliki klien Dihasilkan dengan google bard. Kemudian, pada bulan Februari, pengacara lain Sepertinya mengutip kotak yang dibuat oleh chatgptYang mengarah ke firma hukumnya Morgan & Morgan untuk memperingatkan karyawan yang tidak akan secara membabi buta mempercayai AI.

Namun, terlepas dari cerita peringatan, tampaknya banyak pengacara belum menerima pesan untuk pergi.



Sumber