Mungkinkah masa depan menjadi “sadar” dan mengalami dunia dengan cara yang mirip dengan cara manusia? Tidak ada bukti kuat untuk melakukannya, tetapi antrop tidak mengesampingkan kemungkinan.
Pada hari Kamis, laboratorium AI diumumkan Bahwa program penelitian telah mulai menyelidiki, dan bersiap untuk menavigasi, yang menyebut “kesejahteraan model.” Sebagai bagian dari upaya ini, Anthrope mengatakan bahwa ia akan mengeksplorasi hal -hal seperti bagaimana menentukan apakah “kesejahteraan” dari model AI layak mendapat pertimbangan moral, potensi pentingnya “tanda -tanda kesedihan” dari model dan kemungkinan intervensi “biaya rendah”.
Ada ketidaksepakatan penting dalam komunitas AI atas apa yang ditunjukkan oleh model karakteristik manusia, jika ada, dan bagaimana kita harus memperlakukannya.
Banyak akademisi percaya bahwa AI saat ini tidak dapat mendekati kesadaran atau pengalaman manusia, dan tidak akan selalu tidak dapat melakukannya di masa depan. AI, seperti yang kita ketahui, itu adalah mesin prediksi statistik. Itu benar -benar tidak “berpikir” atau “merasa”, karena konsep -konsep itu secara tradisional dipahami. Terlatih dalam contoh teks, gambar, dll., AI mempelajari pola dan kadang -kadang cara ekstrapolar yang berguna untuk menyelesaikan tugas.
Seperti Mike Cook, peneliti di King’s College London yang berspesialisasi dalam AI, Dia baru -baru ini memberi tahu TechCrunch dalam sebuah wawancaraModel tidak dapat “menentang” perubahan dalam “nilai” mereka karena model tidak memiliki nilai. Sarankan jika tidak kami memproyeksikan dalam sistem.
“Siapa pun yang melakukan antropomorce sistem AI dalam tingkat ini bermain untuk perhatian atau secara serius salah memahami hubungan mereka dengan AI,” kata Cook. “Apakah ini sistem pengoptimalan untuk tujuannya, atau ‘memperoleh nilai -nilai Anda sendiri’? Ini adalah masalah bagaimana hal itu menggambarkannya dan bagaimana bahasa berbulu yang ingin Anda gunakan sehubungan dengan itu.”
Peneliti lain, Stephen Casper, seorang mahasiswa doktoral di MIT, mengatakan kepada TechCrunch bahwa ia percaya bahwa AI setara dengan “peniru” yang melakukan “semua jenis konspirasi[s]”Dan dia berkata” semua jenis hal yang sembrono. “
Namun, ilmuwan lain bersikeras bahwa AI memiliki nilai -nilai dan komponen manusia lainnya dari pengambilan keputusan moral. KE belajar Di luar Pusat Keamanan AI, sebuah organisasi penelitian AI menyiratkan bahwa AI memiliki sistem nilai yang memimpinnya untuk memprioritaskan kesejahteraan mereka sendiri -lebih dari manusia dalam skenario tertentu.
Antrop telah meletakkan fondasi untuk inisiatif kesejahteraan modelnya selama beberapa waktu. Tahun lalu, perusahaan dikontrak Peneliti pertamanya yang berdedikasi tentang “Kesejahteraan AI”, Kyle Fish, untuk mengembangkan pedoman tentang bagaimana antrope dan perusahaan lain harus mengatasi masalah tersebut. (Ikan, yang memimpin program penelitian model baru, Dia memberi tahu New York Times Bahwa dia berpikir bahwa ada kemungkinan 15% bahwa Claude atau AI lain akan sadar hari ini).
Di dalamnya Blog Pada hari Kamis, antrope mengakui bahwa tidak ada konsensus ilmiah tentang apakah sistem AI saat ini atau masa depan dapat menyadari atau memiliki pengalaman yang membenarkan pertimbangan etis.
“Mengingat hal ini, kami mendekati subjek dengan kerendahan hati dan dengan sebanyak mungkin kasus,” kata perusahaan. “Kami menyadari bahwa kami perlu meninjau ide -ide kami secara teratur seiring berkembangnya bidang.