Breaking News

Laporan terbaru dari model intelijen buatan Google tidak memiliki detail keamanan utama, kata para ahli

Laporan terbaru dari model intelijen buatan Google tidak memiliki detail keamanan utama, kata para ahli

Pada hari Kamis, berminggu -minggu setelah meluncurkan modelnya yang paling kuat sejauh ini, Gemini 2.5 ProGoogle menerbitkan a Laporan Teknis menunjukkan hasil evaluasi keamanan internalnya. Namun, laporan itu ringan pada detail, kata para ahli, yang membuatnya sulit untuk menentukan risiko apa yang bisa diwakili oleh model.

Laporan teknis memberikan yang bermanfaat, dan Sedikit menyanjungTerkadang, informasi yang perusahaan tidak selalu beriklan di AI mereka. Secara umum, komunitas saya melihat laporan ini sebagai upaya dengan itikad baik untuk mendukung penelitian independen dan evaluasi keamanan.

Google mengadopsi pendekatan laporan keamanan yang berbeda bahwa beberapa saingan AI -nya, menerbitkan laporan teknis hanya setelah dianggap bahwa suatu model telah lulus dari tahap “eksperimental”. Perusahaan juga mencakup temuan semua evaluasi “kapasitas berbahaya” dalam laporan ini; Pesan mereka untuk audit terpisah.

Namun, beberapa ahli dengan mana TechCrunch berbicara masih kecewa dengan kekurangan laporan Gemini 2.5 Pro, yang menunjukkan bahwa ia tidak menyebutkan Google Frontier Safety Framework (FSF). Google memperkenalkan FSF tahun lalu dalam apa yang digambarkan sebagai upaya untuk mengidentifikasi kemampuan AI di masa depan yang dapat menyebabkan “kerusakan parah.”

“Ini [report] Ini sangat langka, berisi informasi minimal dan beberapa minggu setelah model sudah tersedia untuk umum, “kata Peter Wildeford, co -founder dari AI Institute of Policy and Strategy, katanya kepada TechCrunch.” Tidak mungkin untuk memverifikasi apakah Google tergantung pada komitmen publiknya dan, oleh karena itu, tidak mungkin untuk mengevaluasi keselamatan dan keselamatan modelnya. “

Thomas Woodsis, co -founder dari proyek AI yang aman, mengatakan bahwa meskipun dia senang bahwa Google menerbitkan laporan untuk Gemini 2.5 Pro, dia tidak yakin dengan komitmen perusahaan untuk menawarkan evaluasi keamanan komplementer yang tepat. Woodsis mengatakan bahwa terakhir kali Google menerbitkan hasil tes kapasitas berbahaya adalah pada Juni 2024, untuk model yang diumumkan pada bulan Februari pada tahun yang sama.

Tidak menginspirasi banyak kepercayaan, Google belum tersedia untuk laporan Gemini 2.5 FlashModel yang lebih kecil dan lebih efisien daripada yang diumumkan perusahaan minggu lalu. Seorang juru bicara mengatakan kepada TechCrunch sebuah laporan flash “segera.”

“Saya harap ini adalah janji Google untuk mulai menerbitkan pembaruan yang lebih sering,” kata Woodsis kepada TechCrunch. “Pembaruan ini harus mencakup hasil evaluasi untuk model yang belum diterapkan secara publik, karena model -model ini juga dapat meningkatkan risiko serius.”

Google mungkin merupakan salah satu laboratorium pertama AI dalam mengusulkan laporan standar untuk model, tetapi bukan satu -satunya yang telah dituduh sebagai layanan transparansi yang rendah akhir-akhir ini. Tujuan diluncurkan a Demikian pula, evaluasi keamanan yang langka dari barunya Hubungi 4 Model terbuka, dan openai memilih untuk tidak mempublikasikan laporan apa pun untuk itu Seri GPT-4.1.

Kepala di kepala Google dijamin bahwa raksasa teknologi membuat regulator untuk mempertahankan tes tingkat tinggi dan laporan keselamatan AI. Dua tahun lalu, Google memberi tahu pemerintah Amerika Serikat Saya akan menerbitkan laporan keamanan untuk semua model “signifikan” “” dalam ruang lingkup. Perusahaan Janji ini diikuti dengan komitmen yang sama ke Negara lainBerkomitmen untuk “memberikan transparansi publik” di sekitar produk AI.

Kevin Bankston, penasihat utama pemerintah AI di pusat demokrasi dan teknologi, menggambarkan kecenderungan laporan sporadis dan tidak jelas sebagai “karier menuju latar belakang” pada keamanan AI.

“Dikombinasikan dengan laporan bahwa para pesaing seperti OpenAI telah mencukur waktu tes keamanan mereka sebelum meluncurkan berbulan -bulan hingga berhari -hari, dokumentasi kecil untuk model Google AI ini menceritakan kisah yang mengkhawatirkan tentang karier menuju latar belakang keamanan dan transparansi AI seperti perusahaan yang mempercepat model mereka ke pasar,” katanya kepada TechCrunch.

Google telah mengatakan dalam pernyataan bahwa, meskipun tidak dirinci dalam laporan teknis mereka, melakukan tes keselamatan dan “peralatan merah musuh” untuk model sebelum diluncurkan.

Sumber