Senin, Openai Dia meluncurkan keluarga baru model AI, GPT-4Itu menurut perusahaan itu melampaui beberapa model yang ada dalam tes tertentu, terutama titik referensi untuk pemrograman. Namun, GPT-4.1 tidak dikirim dengan laporan keamanan yang umumnya menyertai peluncuran model OpenAI, yang dikenal sebagai model atau kartu sistem.
Hingga Selasa pagi, Openai belum menerbitkan laporan keamanan untuk GPT-4.1, dan tampaknya tidak berencana untuk melakukannya. Dalam sebuah pernyataan kepada TechCrunch, juru bicara Openai Shaokyi Amdo mengatakan “GPT-4.1 bukan model perbatasan, jadi tidak akan ada kartu sistem terpisah yang diterbitkan untuk itu.”
Cukup standar bagi AI Labs untuk meluncurkan laporan keamanan yang menunjukkan jenis tes yang mereka lakukan secara internal dan dengan mitra eksternal untuk mengevaluasi keamanan model pribadi. Laporan -laporan ini sesekali mengungkapkan sedikit informasi yang bagus, seperti itu Model cenderung menipu manusia atau itu persuasif yang berbahaya. Secara umum, komunitas AI menerima laporan ini sebagai upaya dengan itikad baik laboratorium AI untuk mendukung penelitian independen dan tim merah.
Tetapi dalam beberapa bulan terakhir, laboratorium para pemimpin tampaknya telah mengurangi standar laporan mereka, yang menyebabkan reaksi keras para peneliti keamanan. Beberapa, sebagai Googlememiliki Dia menyeret kakinya tentang laporan keamanan, sementara yang lain telah menerbitkan laporan Kurangnya detail biasa.
Sejarah baru -baru ini Openai juga tidak luar biasa. Pada bulan Desember, perusahaan menimbulkan kritik karena meluncurkan laporan keamanan yang berisi hasil referensi untuk model yang berbeda dari versi yang ia terapkan dalam produksi. Bulan lalu, Openai meluncurkan model, investigasi mendalamberminggu -minggu sebelum menerbitkan kartu sistem untuk model itu.
Steven Adler, mantan peneliti keamanan Openai, mengatakan kepada TechCrunch bahwa laporan keamanan tidak wajib oleh hukum atau peraturan apa pun: mereka adalah sukarelawan. Namun, Openai telah membuat beberapa komitmen kepada pemerintah untuk meningkatkan transparansi di sekitar model mereka. Sebelum KTT Keamanan Inggris pada tahun 2023, Openai dalam posting blog Panggilan kartu sistem “Bagian penting” dari pendekatan pertanggungjawaban Anda. Dan sebelum AI Action Summit pada tahun 2025, Openai mengatakan kartu sistem memberikan ide yang berharga Dalam risiko model.
“Kartu sistem adalah alat utama industri AI untuk transparansi dan untuk menggambarkan tes keamanan apa yang dilakukan,” kata Adler kepada TechCrunch dalam email. “Aturan dan komitmen transparansi saat ini, pada akhirnya, adalah sukarelawan, sehingga tergantung pada masing -masing perusahaan untuk memutuskan apakah akan meluncurkan kartu sistem untuk model tertentu.”
GPT-4.1 dikirim tanpa kartu sistem pada saat karyawan saat ini dan sebelumnya menimbulkan kekhawatiran tentang praktik keamanan Openai. Pekan lalu, Adler dan 11 karyawan lainnya Ex Openai mempresentasikan laporan amicus yang diusulkan dalam kasus Elon Musk terhadap Openai, dengan alasan bahwa keuntungan untuk keuntungan dapat mengurangi sudut pekerjaan keamanan. Financial Times baru -baru ini dilaporkan Bahwa produsen chatgpt, yang dirangsang oleh tekanan kompetitif, telah mengurangi jumlah waktu dan sumber daya Penguji keselamatan ditugaskan.
Meskipun GPT-4.1 bukan model kinerja tertinggi dalam daftar OpenAI, itu memang mendapatkan keuntungan substansial di departemen efisiensi dan latensi. Thomas Woodsis, co -founder dan analis kebijakan dari Secure AI Project, mengatakan kepada TechCrunch bahwa peningkatan kinerja membuat laporan keamanan menjadi lebih penting. Semakin canggih modelnya, semakin banyak risiko yang bisa diwakilinya, katanya.
Banyak laboratorium AI telah berjuang untuk upaya menyandikan laporan keamanan dalam hukum. Misalnya, Operai menentang SB 1047 dari Californiayang akan mengharuskan banyak pengembang AI audit dan mempublikasikan evaluasi keamanan dalam model yang mempublikasikan.