Openai memiliki diperbarui Kerangka persiapannya: Sistem internal yang digunakan untuk mengevaluasi keamanan model AI dan menentukan perlindungan yang diperlukan selama pengembangan dan implementasi. Dalam pembaruan, Openai menyatakan bahwa ia dapat “menyesuaikan” persyaratan keamanannya jika laboratorium kompetisi merilis sistem “berisiko tinggi” tanpa perlindungan yang sama.
Perubahan ini mencerminkan tekanan kompetitif yang meningkat pada pengembang komersial AI untuk mengimplementasikan model dengan cepat. Openai telah dituduh mengurangi standar keamanan Mendukung rilis yang lebih cepat dan tidak mematuhi Laporan tepat waktu yang merinci tes keselamatan Anda. Pekan lalu, 12 mantan karyawan opera Dia mengajukan brief Dalam kasus Elon Musk melawan Operai, dengan alasan bahwa perusahaan akan mendorong bahkan lebih Sudut -sudut keamanan jika Anda menyelesaikan restrukturisasi perusahaan yang direncanakan.
Mungkin mengantisipasi kritik, Openai menyatakan bahwa ia tidak akan melakukan penyesuaian kebijakan ini dengan ringan, dan bahwa ia akan mempertahankan perlindungannya pada “tingkat yang lebih perlindungan.”
“Jika pengembang perbatasan lain meluncurkan sistem risiko tinggi tanpa perlindungan yang sebanding, kami dapat menyesuaikan persyaratan kami,” tulis Openai dalam a Blog Diposting pada Selasa sore. “Namun, pertama -tama kami akan mengkonfirmasi dengan ketat bahwa panorama risiko telah benar -benar berubah, kami secara terbuka menyadari bahwa kami melakukan penyesuaian, kami mengevaluasi bahwa penyesuaian tidak secara signifikan meningkatkan risiko umum kerusakan parah dan masih menjaga perlindungan pada tingkat yang lebih protektif.”
Kerangka Persiapan Terbaru juga memperjelas bahwa Openai lebih bergantung pada evaluasi otomatis untuk mempercepat pengembangan produk. Perusahaan mengatakan bahwa meskipun belum meninggalkan bukti yang dipimpin oleh manusia, itu telah membangun “seperangkat evaluasi otomatis” yang berkembang yang seharusnya “tetap up to date [a] lebih cepat [release] irama.”
Beberapa laporan bertentangan dengan ini. Menurut Financial TimesOpenai memberi evaluator kurang dari seminggu untuk kontrol keamanan untuk model utama berikutnya, garis waktu terkompresi dibandingkan dengan versi sebelumnya. Sumber publikasi juga menuduh bahwa banyak tes keamanan Openai sekarang dilakukan dalam versi model sebelumnya alih -alih versi yang dirilis ke publik.
Dalam pernyataan itu, Openai telah memainkan gagasan bahwa ia berkomitmen untuk keamanan.
Operai secara diam -diam mengurangi komitmen keamanannya.
Dihilangkan dari daftar perubahan bingkai persiapan openai:
Itu tidak lagi membutuhkan tes keselamatan model yang bagus https://t.co/otmeiatsjs
– Steven Adler (@sjgadler) 15 April 2025
Perubahan lain dalam kerangka Openai merujuk pada cara perusahaan mengklasifikasikan model sesuai dengan risiko, termasuk model yang dapat menyembunyikan kemampuan mereka, menghindari perlindungan, menghindari penutupannya dan bahkan friquar sendiri. Operai mengatakan bahwa sekarang akan fokus pada apakah model memenuhi salah satu dari dua ambang batas: kapasitas “tinggi” atau “kritis”.
Definisi Openai tentang yang pertama adalah model yang dapat “memperkuat jalan yang ada menuju kerusakan parah.” Yang terakhir adalah model yang “memperkenalkan jalan baru yang belum pernah terjadi sebelumnya untuk kerusakan serius,” menurut perusahaan.
“Sistem tertutup yang mencapai kapasitas tinggi harus memiliki perlindungan yang cukup meminimalkan risiko terkait kerusakan parah sebelum diimplementasikan,” tulis Openai dalam posting blognya. “Sistem yang mencapai kapasitas kritis juga membutuhkan perlindungan yang cukup meminimalkan risiko terkait selama pengembangan.”
Pembaruan adalah openai pertama yang telah dibuat untuk kerangka persiapan sejak 2023.