Breaking News

Microsoft untuk mengklasifikasikan ‘keamanan’ model AI yang dijual kepada pelanggan cloud

Microsoft untuk mengklasifikasikan ‘keamanan’ model AI yang dijual kepada pelanggan cloud

Buka kunci ringkasan editor secara gratis

Microsoft akan mulai mengklasifikasikan model kecerdasan buatan berdasarkan kinerja keamanan mereka, karena grup perangkat lunak berupaya menghasilkan kepercayaan diri dengan pelanggan cloud, karena ia menjual tawaran dari selera XAI OpenI dan Elon Musk.

Sarah Bird, MicrosoftKepala yang bertanggung jawab, mengatakan bahwa perusahaan akan segera menambahkan kategori “keamanan” ke “pelat klasifikasi model”, fitur yang diluncurkan untuk pengembang bulan ini untuk mengklasifikasikan iterasi berbagai pemasok, termasuk Deepseek dari Cina dan Mistral of Prancis.

Tabel klasifikasi diharapkan akan diakses ke puluhan ribu pelanggan yang menggunakan platform pengembang Azure Foundry, pengaruh model dan aplikasi AI yang dibeli melalui Microsoft.

Microsoft saat ini mengklasifikasikan tiga metrik: kualitas, biaya, dan kinerja, yang merupakan kecepatan yang dapat menghasilkan output. Bird mengatakan kepada Financial Times bahwa klasifikasi keamanan baru akan memastikan bahwa “orang dapat membeli dan secara langsung memahami” kemampuan model AI ketika mereka memutuskan mana yang akan dibeli.

Keputusan untuk memasukkan titik referensi keamanan terjadi ketika klien Microsoft menangani potensi risiko yang diajukan oleh model AI baru untuk data dan perlindungan privasi, terutama ketika mereka diimplementasikan sebagai “agen” otonom yang dapat bekerja tanpa pengawasan manusia.

Metrik keamanan baru Microsoft akan didasarkan pada titik referensi Toxigen sendiri, yang mengukur pidato kebencian implisit, dan pusat tolok ukur proksi bangku penghancuran penghancuran keselamatan AI. Yang terakhir mengevaluasi apakah suatu model dapat digunakan untuk tujuan jahat, seperti membangun senjata biokimia.

Klasifikasi memungkinkan pengguna untuk memiliki akses ke metrik objektif dengan memilih dari katalog lebih dari 1.900 model AI, sehingga mereka dapat membuat keputusan untuk digunakan.

“Para pemimpin keamanan dapat membantu perusahaan mengurangi kebisingan dan mengurangi opsi,” kata Cassie Kozyrkov, konsultan dan mantan ilmuwan terkemuka di Google. “Tantangan sebenarnya adalah memahami kompensasi: kinerja yang lebih tinggi dengan biaya berapa? Biaya yang lebih rendah untuk risiko apa?”

Bersama dengan Amazon dan Google, kelompok berbasis Seattle dianggap sebagai salah satu “hiperscaler” terbesar yang bersama -sama mendominasi pasar cloud.

Microsoft juga diposisikan sebagai platform agnostik untuk AI generatif, menandatangani perjanjian untuk menjual model XAI dan antrop, saingan untuk dimulainya openai yang telah mendukung sekitar $ 14 miliar dalam investasi.

Bulan lalu, Microsoft mengatakan akan mulai menawarkan model Grok Xai di bawah yang sama istilah komersial Seperti Openai.

Langkah itu terjadi meskipun versi Grok yang meningkatkan alarm ketika “modifikasi tidak sah” dari kodenya membawanya untuk merujuk berulang kali ke “genosida putih” di Afrika Selatan ketika ia menanggapi konsultasi di situs media sosial X. Xai mengatakan ia memperkenalkan kebijakan pemantauan baru untuk menghindari insiden di masa depan.

“Model datang pada platform, ada tingkat tinjauan internal, dan kemudian tergantung pada klien untuk menggunakan titik referensi untuk menyelesaikannya,” kata Bird.

Tidak ada standar global untuk tes keamanan AI, tetapi undang -undang UE akan memasuki pasukan pada akhir tahun ini dan akan memaksa perusahaan untuk melakukan tes keamanan.

Beberapa pembangun model, termasuk Openai, menghabiskan lebih sedikit waktu dan uang untuk mengidentifikasi dan mengurangi risiko, FT yang sebelumnya dilaporkan dengan mengutip beberapa orang yang akrab dengan proses keamanan start-up. Perusahaan baru itu mengatakan telah mengidentifikasi efisiensi tanpa mengorbankan keamanan.

Bird menolak mengomentari tes keamanan Openai, tetapi mengatakan tidak mungkin mengirim model berkualitas tinggi tanpa menginvestasikan “jumlah besar” dalam evaluasi dan bahwa proses mengotomatisasi.

Microsoft pada bulan April juga meluncurkan “Agen Jaringan AI” yang mengotomatiskan proses bukti program komputer tegangan dengan meluncurkan serangan untuk mengidentifikasi kerentanan. “Cukup tentukan risikonya, tentukan kesulitan serangan … dan kemudian keluar dari menyerang sistemnya,” kata Bird.

Ada kekhawatiran bahwa tanpa pengawasan yang memadai, agen AI dapat mengambil tindakan tidak sah yang membuka pemilik untuk kewajiban.

“Risikonya adalah para pemimpin dapat menyebabkan para pembuat keputusan pada rasa aman yang salah,” kata Kozyrkov. “Metrik keamanan adalah titik awal, bukan lampu hijau.”

Sumber

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *