Haruskah chatbots memiliki hak yang sama dengan manusia?
Akal sehat mengatakan tidak, meskipun ide gila seperti itu bisa menjadi fiksi ilmiah yang baik, itu tidak terjadi dalam hukum Amerika. Tetapi pada saat ini, sebuah perusahaan teknologi penting sedang mencoba untuk memberikan kehidupan pada gagasan itu, menekan pengadilan federal untuk memperluas perlindungan hukum yang secara historis diberikan kepada manusia untuk hasil bot AI.
Karakter.aiSalah satu aplikasi utama kapal pelengkap di pasar adalah berjuang untuk pemecatan permintaan yang tidak adil untuk kematian dan tanggung jawab untuk produk tersebut Kematian Sewell Setzer, 14, III. Sebagai co-abogado ibu Sewell, Megan García, dan penasihat teknis dalam kasus ini, masing-masing, kami telah mengikuti gerakan ini dengan cermat dan dengan perhatian.
Di audiens minggu lalu, Karakter.ai Nol dalam argumen utamanya: Bahwa acara teks dan suara chatbots mereka, termasuk mereka yang memanipulasi dan merusak Sewell, merupakan pidato yang dilindungi di bawah Amandemen Pertama.
Tapi bagaimana caranya? Argumennya halus, dirancang dengan terampil untuk tetap bijaksana, bahkan ketika hukum Amandemen Pertama menyoroti secara radikal. Karakter.ai menyatakan bahwa temuan tanggung jawab dalam kasus Garcia tidak akan melanggar miliknya memiliki Hak Pidato, tetapi Anda Pengguna Hak untuk menerima informasi dan berinteraksi dengan output chatbot sebagai pidato yang dilindungi. Hak -hak semacam itu diketahui dalam hukum Amandemen Pertama sebagai “hak pendengar”, tetapi pertanyaan kritis di sini adalah: “Jika ini adalah pidato yang dilindungi, apakah ada pembicara atau niat berbicara?” Jika jawabannya tidak, tampaknya hak -hak pendengar digunakan untuk membangkitkan perlindungan dari Amandemen Pertama untuk output yang tidak pantas mendapatkannya.
Karakter.ai Dia menegaskan bahwa mengidentifikasi pembicara “pidato” ini adalah kompleks dan bahkan tidak diperlukan, alih -alih menekankan hak jutaan penggunanya untuk terus berinteraksi dengan “pidato” itu.
Tapi bisakah mesin berbicara? Karakter.aiArgumen menunjukkan bahwa serangkaian kata yang diludahi oleh model AI berdasarkan penentuan probabilistik merupakan “pidato”, bahkan jika tidak ada pembicara, niat, atau tujuan ekspresif manusia. Ini mengabaikan landasan yurisprudensi Amandemen Pertama, yang mengatakan bahwa pidato, yang dikomunikasikan oleh pembicara atau didengar oleh pendengar, harus memiliki niat ekspresif. Faktanya, tahun lalu empat hakim Mahkamah Agung di Mudah marah Case mengatakan bahwa pengenalan AI dapat “mengurangi” pemilik platform pidatonya.
Intinya, Karakter.ai Dia memimpin pengadilan melalui pintu belakang Amandemen Pertama dari “Hak -Hak Pendengar” untuk berpendapat bahwa teks yang dihasilkan oleh senapan mesin dari chatbot, yang dibuat tanpa niat ekspresif, setara dengan pidato yang dilindungi.
Ini menantang akal sehat. Mesin bukan manusia, dan teks yang dihasilkan oleh mesin tidak boleh menikmati hak yang diberikan untuk wacana yang diucapkan oleh manusia atau dengan niat atau kemauan.
Kecepatan cahaya yang dapat dipasangkan
Terlepas dari bagaimana hak -hak Amandemen Pertama untuk sistem AI dibingkai, seperti “pidato” chatbot, atau sebagai hak pengguna untuk berinteraksi dengan “pidato” itu, hasilnya, jika diterima oleh pengadilan, masih akan sama: keluar dari chatbot yang mati dapat memenangkan perlindungan pidato yang sama yang dinikmati oleh manusia nyata dan hidup yang hidup.
Ya Karakter.aiArgumen pengadilan berhasil, akan menetapkan preseden hukum yang mengganggu dan dapat meletakkan dasar untuk ekspansi dan distorsi perlindungan konstitusional di masa depan untuk memasukkan produk AI. Konsekuensinya terlalu serius untuk membiarkan benih berbahaya seperti itu berakar di masyarakat kita.
Industri teknologi telah lolos dari tanggung jawab dengan menutupi dalam perlindungan Amandemen Pertama selama lebih dari satu dekade. Meskipun kepribadian perusahaan telah ada sejak akhir abad ke -19, perlindungan kebebasan berekspresi secara historis terbatas pada individu dan kelompok manusia sampai akhir tahun 1970 -an dan mencapai titik maksimum mereka pada 2010 dengan orang -orang dari Mahkamah Agung Mahkamah Agung Warga Bersatu kasus. Perusahaan teknologi dengan cemas berpegang teguh pada “kepribadian perusahaan” dan melindungi wacana, menjalankan konsep -konsep ini untuk mengisolasi diri mereka dari tanggung jawab dan regulasi. Dalam beberapa tahun terakhir, perusahaan teknologi berpendapat bahwa bahkan perilaku mereka dalam cara mereka merancang platform mereka, termasuk algoritma dan desain adiktif dari jejaring sosial, sebenarnya sama dengan pidato yang dilindungi.
Tapi, setidaknya dengan kepribadian perusahaan, manusia mengarahkan dan mengendalikan perusahaan. Dengan AI, industri teknologi memberi tahu kita bahwa AI menangani dirinya sendiri, seringkali dalam cara yang bahkan tidak dapat dipahami manusia.
Karakter.ai Dia berusaha meningkatkan perlindungan Amandemen Pertama di luar batas logisnya, dengan implikasi yang mengganggu. Jika pengadilan lucu, itu akan menandai awal konstitusional AI yang diseret ke arah kepribadian hukum.
Ini mungkin kedengarannya gila, tetapi argumen hukum ini terjadi bersama dengan gerakan penting dari luar pengadilan.
Perusahaan IA menyempurnakan model mereka untuk terlihat lebih manusiawi dalam hasil mereka dan berpartisipasi lebih relasional dengan pengguna, mengajukan pertanyaan tentang kesadaran dan apa yang bisa “dapat diterima oleh chatbot AI.” Secara bersamaan, perusahaan AI menyalurkan sumber daya dalam investigasi kesejahteraan yang “dibangun dengan baik” dengan baik, mengeksplorasi jika sistem AI dapat membenarkan pertimbangan moral. KE Kampanye baru Disutradarai oleh antropik, ini bertujuan untuk meyakinkan mereka yang bertanggung jawab untuk merumuskan kebijakan, pemimpin bisnis dan masyarakat umum bahwa produk mereka suatu hari nanti dapat menyadari dan, oleh karena itu, layak dipertimbangkan.
Di dunia di mana produk AI memiliki pertimbangan moral dan perlindungan dari Amandemen Pertama, perpanjangan hak -hak hukum lainnya tidak sejauh ini.
Kita sudah mulai melihat bukti keputusan politik yang memandu “hak” AI dengan mengorbankan nilai -nilai manusia. Perwakilan Nomi AI, perusahaan chatbot lain, baru -baru ini mengatakan itu Dia tidak ingin “menyensor” chatbotnya Saat memasuki pagar, terlepas dari produk yang menawarkan instruksi langkah -langkah pengguna tentang cara melakukan bunuh diri.
Mengingat pola data panjang industri teknologi untuk menghindari tanggung jawab produk -produknya yang berbahaya, kita harus menempatkan diri kita sendiri Karakter.aiStrategi Hukum Telanjang: Ini adalah upaya perusahaan untuk melindungi diri Anda dari tanggung jawab. Dengan perlahan memberikan hak atas produk AI, perusahaan -perusahaan ini berharap untuk menghindari tanggung jawab dan menolak tanggung jawab manusia, bahkan untuk kerusakan yang nyata dan menunjukkan.
Kita tidak boleh terganggu oleh perdebatan tentang “kesejahteraan” AI atau ditipu oleh argumen hukum yang memberikan hak pada mesin. Sebaliknya, kita membutuhkan tanggung jawab untuk teknologi berbahaya dan tanggung jawab pengembang yang membuatnya.
Meetali Jain adalah pendiri dan Direktur Proyek Hukum Keadilan Teknologi, dan bersama-sama dalam permintaan Megan García menentang Karakter.ai. Camille Carlton adalah Direktur Kebijakan Pusat Teknologi Manusia, dan merupakan ahli teknis dalam kasus ini. Kolom ini mencerminkan pendapat para penulis.