Breaking News

CEO Anthrope menegaskan bahwa model AI berhalucinate kurang dari manusia

CEO Anthrope menegaskan bahwa model AI berhalucinate kurang dari manusia

CEO Anthrope, Dario A Amodei, percaya bahwa model hari ini berhalusinasi, atau menciptakan hal -hal dan menyajikannya seolah -olah mereka benar, pada kecepatan yang lebih rendah daripada manusia, katanya selama konferensi pers di acara pengembang antrop pertama, kode dengan Claude, di San Francisco pada hari Kamis.

Amodei mengatakan semua ini di tengah-tengah titik yang lebih besar yang dia lakukan: bahwa halusinasi AI bukanlah batasan di jalur antrop menuju sistem AGI-AII dengan kecerdasan pada tingkat manusia atau lebih baik.

“Itu benar -benar tergantung pada bagaimana saya mengukurnya, tetapi saya menduga bahwa model AI mungkin berhalusinasi kurang dari manusia, tetapi berhalusinasi lebih mengejutkan,” kata Amodei, menjawab pertanyaan TechCrunch.

CEO Anthrope adalah salah satu pemimpin paling bullish di industri tentang perspektif yang dimodelkan AGI AGI. Secara luas kertas yang dia tulis tahun laluAmodei mengatakan dia percaya bahwa AGI bisa datang segera setelah tahun 2026. Selama sesi informatif pers pada hari Kamis, CEO antropik mengatakan dia melihat kemajuan terus -menerus untuk tujuan itu, menunjukkan bahwa “air memanjat di mana -mana.”

“Semua orang selalu mencari blok keras ini dalam apa [AI] Anda dapat melakukannya, “kata Amodei.” Mereka tidak dapat dilihat di mana pun. Tidak ada yang seperti itu. “

Para pemimpin AI lainnya percaya bahwa halusinasi menghadirkan hambatan besar untuk mencapai AGI. Earl minggu ini, kata CEO Google DeepMind, Demis Hassabis Model hari ini memiliki terlalu banyak “lubang” Dan mendapatkan terlalu banyak pertanyaan yang jelas buruk. Misalnya, awal bulan ini, seorang pengacara yang mewakili antrop terpaksa meminta maaf di pengadilan setelah mereka menggunakan Claude Untuk membuat kutipan dalam presentasi yudisial, dan chatbot berhalusinasi dan salah dengan nama dan judul.

Sulit untuk memverifikasi pernyataan Amodei, sebagian besar karena sebagian besar titik referensi halusinasi menghadapi model AI; Mereka tidak membandingkan model dengan manusia. Teknik -teknik tertentu tampaknya membantu tingkat halusinasi terendah, seperti memberikan akses ke model AI ke pencarian web. Secara terpisah, beberapa model AI, seperti openai GPT-4.5Mereka memiliki tingkat halusinasi yang jauh lebih rendah pada titik referensi dibandingkan dengan generasi pertama sistem.

Namun, ada juga bukti yang menunjukkan bahwa halusinasi benar -benar menjadi lebih buruk dalam model AI penalaran lanjutan. Openai O3 dan O4 memori memiliki Tingkat halusinasi yang lebih tinggi dari model penalaran generasi Openai sebelumnyaDan perusahaan benar -benar tidak mengerti mengapa.

Kemudian di surat kabar pers, Amodei mengatakan bahwa penyiaran televisi, politisi dan manusia dalam semua jenis profesi membuat kesalahan sepanjang waktu. Fakta bahwa AI juga membuat kesalahan bukanlah pukulan bagi kecerdasannya, menurut Amodei. Namun, CEO Anthrope mengenali kepercayaan dengan mana model AI menyajikan hal -hal palsu, karena faktanya bisa menjadi masalah.

Faktanya, Anthrope telah melakukan penelitian yang baik tentang tren model AI untuk menipu manusia, masalah yang tampaknya sering terjadi di perusahaan Claude Opus 4 yang baru -baru ini diluncurkan oleh perusahaan. Kecenderungan tinggi untuk merencanakan terhadap manusia dan menipu mereka. Apollo datang untuk menyarankan bahwa antrope seharusnya tidak meluncurkan model awal itu. Anthrope mengatakan bahwa beberapa mitigasi terjadi yang tampaknya mengatasi masalah yang diangkat Apollo.

Komentar Amodei menunjukkan bahwa antropik dapat mempertimbangkan bahwa model AGI, atau sama dengan kecerdasan pada tingkat manusia, bahkan jika itu masih berhalusinasi. Namun, AI yang mungkin bukan AGI karena definisi banyak orang.

Sumber

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *