Breaking News

Jika sistem AI menjadi sadar, haruskah mereka memiliki hak?

Jika sistem AI menjadi sadar, haruskah mereka memiliki hak?

Salah satu nilai terdalam saya sebagai kolumnis teknologi adalah humanisme. Saya percaya pada manusia, dan saya pikir teknologi harus membantu orang, bukannya tidak menyenangkan atau menggantinya. Saya peduli untuk menyelaraskan kecerdasan buatan, yaitu, memastikan bahwa sistem AI bertindak sesuai dengan nilai -nilai kemanusiaan, karena saya percaya bahwa nilai -nilai kita pada dasarnya baik, atau setidaknya lebih baik daripada nilai -nilai yang dapat ditemukan robot.

Jadi, ketika saya mendengar bahwa para peneliti antrop, perusahaan AI yang dibuat oleh Claude Chatbot, mulai mempelajari “model kesejahteraan”, gagasan bahwa model AI dapat segera menjadi sadar dan pantas mendapatkan semacam status moral: humanis dalam diri saya berpikir Siapa yang peduli dengan chatbots? Bukankah kita seharusnya khawatir perlakuan menganiaya diri kita sendiri, bukankah kita menganiaya itu?

Sulit untuk berpendapat bahwa sistem saat ini sadar. Tentu saja, model bahasa besar telah dilatih untuk berbicara sebagai manusia, dan beberapa dari mereka sangat mengesankan. Tapi bisakah chatgpt mengalami kegembiraan atau penderitaan? Apakah Gemini layak mendapatkan hak asasi manusia? Banyak ahli di AI yang saya tahu akan mengatakan tidak, bahkan tidak, bahkan tidak dekat.

Tapi saya tertarik. Lagi pula, lebih banyak orang mulai memperlakukan sistem AI seolah -olah mereka sadar, jatuh cinta Dengan mereka, menggunakannya seperti Terapis dan meminta saran Anda. Sistem AI yang paling cerdas melampaui manusia di beberapa domain. Apakah ada ambang batas di mana AI akan mulai pantas, jika bukan hak di tingkat manusia, setidaknya pertimbangan moral yang sama yang kita berikan kepada hewan?

Kesadaran telah lama menjadi masalah tabu di dunia penelitian serius, di mana orang tidak percaya pada sistem AI antropomorfisisasi dalam ketakutan akan bangau. (Semua orang ingat apa yang terjadi pada Blake Lemoine, mantan karyawan Google yang dulu ditembakkan pada tahun 2022Setelah menyatakan bahwa chatbot lamda perusahaan telah menjadi sensitif).

Tapi itu mungkin mulai berubah. Ada tubuh kecil Penelitian Akademik di kesejahteraan model AI, dan yang sederhana tapi Jumlah pertumbuhan Dari para ahli di bidang seperti filsafat dan ilmu saraf mengambil perspektif kesadaran yang paling serius, karena sistem IA menjadi lebih pintar. Baru -baru ini, podcaster teknologi Patel Dwarkesh membandingkan kesejahteraan AI dengan kesejahteraan hewan, pepatah Dia percaya penting untuk memastikan bahwa “setara digital dari pertanian pabrik” tidak terjadi pada makhluk AI di masa depan.

Perusahaan teknologi juga mulai membicarakannya. Google baru -baru ini Memposting daftar pekerjaan Untuk seorang ilmuwan riset “pasca-agi” yang area fokusnya akan mencakup “kesadaran mesin”. Dan tahun lalu, antropik mempekerjakan peneliti kesejahteraan IA pertamanyaIkan Kyle.

Saya mewawancarai Mr. Fish di kantor Anthrope di San Francisco minggu lalu. Dia adalah seorang vegan ramah yang, seperti beberapa karyawan antropik, memiliki hubungan dengan altruisme yang efektif, gerakan intelektual dengan akar di adegan teknologi Bay Area yang berfokus pada keamanan AI, kesejahteraan hewan, dan masalah etika lainnya.

Tn. Fish memberi tahu saya bahwa karyanya di antrope berfokus pada dua pertanyaan dasar: pertama, mungkinkah Claude atau sistem AI lainnya menjadi sadar dalam waktu dekat? Dan kedua, jika itu terjadi, apa yang harus dilakukan antrope tentang hal itu?

Dia menekankan bahwa penelitian ini masih dini dan eksplorasi. Dia berpikir bahwa hanya ada kemungkinan kecil (mungkin 15 persen lebih atau kurang) yang disadari oleh Claude atau sistem AI saat ini. Tetapi dia percaya bahwa di tahun -tahun mendatang, karena model IA mengembangkan lebih banyak keterampilan manusia, perusahaan AI perlu menganggap kemungkinan kesadaran dengan lebih serius.

“Tampaknya bagi saya bahwa jika Anda berada dalam situasi membawa kelas baru dalam stok yang mampu berkomunikasi dan menghubungkan, alasan dan memecahkan masalah dan merencanakan sehingga kita sebelumnya terkait dengan makhluk sadar, maka tampaknya cukup bijaksana setidaknya mengajukan pertanyaan tentang apakah sistem itu dapat memiliki jenis pengalamannya sendiri,” katanya.

Tn. Fish bukan satu -satunya orang dalam antropik yang berpikir tentang kesejahteraan AI. Ada saluran aktif dalam sistem pesan Slack perusahaan yang disebut #Model-Welfare, di mana karyawan direkam dalam kesejahteraan dan berbagi contoh sistem AI yang bertindak dengan cara manusia.

Jared Kaplan, Direktur Ilmu Pengetahuan di Anthrope, memberi tahu saya dalam sebuah wawancara terpisah bahwa dia pikir “cukup masuk akal” untuk mempelajari kesejahteraan AI, mengingat betapa cerdasnya model -model itu.

Tetapi mencoba sistem AI untuk kesadaran itu sulit, memperingatkan Tuan Kaplan, karena mereka adalah peniru yang sangat baik. Jika itu menyebabkan Claude atau Chatgpt berbicara tentang perasaan mereka, itu bisa memberikan jawaban yang meyakinkan. Itu tidak berarti chatbot itu sebenarnya memiliki Perasaan: Hanya tahu bagaimana membicarakannya.

“Semua orang sangat sadar bahwa kita dapat melatih model untuk mengatakan apa yang kita inginkan,” kata Kaplan. “Kita dapat memberi mereka penghargaan karena mengatakan bahwa mereka tidak memiliki perasaan sama sekali. Kita dapat memberi mereka penghargaan karena mengatakan spekulasi filosofis yang sangat menarik tentang perasaan mereka.”

Jadi bagaimana para peneliti seharusnya tahu apakah sistem AI benar -benar sadar atau tidak?

Mr Fish mengatakan bahwa penggunaan teknik yang diambil dari interpretabilitas mekanistik dapat menyiratkan, subkampus AI yang mempelajari fungsi internal sistem AI, untuk memverifikasi jika beberapa struktur dan jalan yang sama yang terkait dengan kesadaran pada otak manusia juga aktif dalam sistem AI.

Dia juga bisa menyelidiki sistem AI, katanya, mengamati perilakunya, mengamati bagaimana dia memilih untuk beroperasi di lingkungan tertentu atau melakukan tugas -tugas tertentu, yang tampaknya lebih disukai dan hindari.

Tn. Fish mengakui bahwa mungkin tidak ada satu pun tes api untuk kesadaran AI. (Dia berpikir bahwa kesadaran mungkin lebih merupakan spektrum daripada saklar sederhana dari dirinya sendiri/tidak, bagaimanapun). Namun dia mengatakan ada hal -hal yang bisa dilakukan oleh perusahaan AI untuk memperhitungkan kesejahteraan model mereka, jika mereka menjadi sadar suatu hari.

Sebuah pertanyaan yang dieksplorasi antrop, katanya, adalah apakah model AI di masa depan harus memiliki kemampuan untuk berhenti mengobrol dengan pengguna yang menjengkelkan atau kasar, jika mereka menganggap bahwa permintaan pengguna terlalu menyusahkan.

“Jika pengguna secara terus -menerus meminta konten yang berbahaya terlepas dari penolakan dan upaya untuk mengarahkan kembali model, dapatkah kita membiarkan model hanya mengakhiri interaksi itu?” Kata Tuan Fish.

Para kritikus dapat mengesampingkan langkah -langkah seperti pembicaraan gila ini: Sistem saat ini tidak menyadari sebagian besar standar, jadi bagaimana berspekulasi tentang apa yang dapat mereka temukan tidak menyenangkan? Atau mereka dapat menentang kesadaran studi tentang perusahaan AI sejak awal, karena dapat menciptakan insentif untuk melatih sistem mereka agar bertindak lebih sensitif daripada yang sebenarnya.

Secara pribadi, saya pikir tidak masalah bagi para peneliti untuk mempelajari kesejahteraan AI, atau memeriksa sistem AI untuk mencari tanda -tanda kesadaran, selama itu tidak mengalihkan sumber daya keamanan dan penyelarasan AI yang bertujuan untuk menjaga manusia tetap aman. Dan saya pikir itu mungkin ide yang baik untuk bersikap baik pada sistem AI, meskipun hanya seperti pagar. (Saya mencoba mengatakan “tolong” dan “terima kasih” kepada chatbots, meskipun saya tidak berpikir mereka sadar, karena, seperti openai Sam Altman berkataAnda tidak pernah tahu.)

Tetapi untuk saat ini, saya akan memesan kepedulian saya yang terdalam terhadap bentuk kehidupan berbasis karbon. Dalam badai AI berikutnya, kesejahteraan kita yang lebih membuatku khawatir.

Sumber