KE draf pertama Kode praktik yang akan berlaku bagi penyedia model AI tujuan umum berdasarkan Undang-Undang AI Uni Eropa telah diterbitkan, bersama dengan undangan untuk memberikan komentar (dibuka hingga 28 November) sementara proses penyusunannya berlanjut tahun depan, sebelum kepatuhan formal. Batas waktu ini akan berlaku pada tahun-tahun mendatang.
Hukum pan-Eropa, yang mulai berlaku musim panas inimengatur aplikasi kecerdasan buatan di bawah kerangka berbasis risiko. Tapi juga menunjukkan beberapa langkah pada model AI fundamental (atau tujuan umum) yang lebih kuat. (GPAI). Di sinilah Kode Praktik ini akan berperan.
Di antara mereka yang mungkin terlibat adalah OpenAI, pembuatnya model GPT (yang mendukung chatbot AI ObrolanGPT), Google dengan miliknya GPAI Geminitujuan dengan PanggilanAntropis dengan claudiodan lainnya, seperti yang terjadi di Prancis Mistral. Mereka diharapkan untuk mematuhi Kode Praktik AI yang umum digunakan jika mereka ingin memastikan bahwa mereka mematuhi Undang-Undang AI dan dengan demikian menghindari risiko hukum diterapkan pada mereka karena ketidakpatuhan.
Jelasnya, Kode ini dimaksudkan untuk memberikan panduan untuk memenuhi kewajiban UU AI UE. Penyedia GPAI dapat memilih untuk menyimpang dari saran praktik terbaik jika mereka yakin dapat menunjukkan kepatuhan melalui tindakan lain.
Draf pertama Kode ini terdiri dari 36 halaman, namun kemungkinan besar akan panjang, mungkin cukup panjang, karena para pembuatnya mengingatkan bahwa detailnya tidak terlalu rinci karena merupakan “rencana penyusunan tingkat tinggi yang menguraikan prinsip-prinsip panduan dan tujuan Kode Etik ini.” .” Kode”.
Draf tersebut dipenuhi dengan kotak-kotak yang memunculkan “pertanyaan terbuka” yang belum terselesaikan oleh kelompok kerja yang bertugas memproduksi Kode Etik ini. Umpan balik yang diharapkan – dari industri dan masyarakat sipil – jelas akan memainkan peran penting dalam menentukan isi dari sub-langkah tertentu dan indikator kinerja utama (KPI) yang belum dimasukkan.
Namun dokumen tersebut memberikan gambaran tentang apa yang ada di depan (dalam hal ekspektasi) bagi produsen GPAI, setelah tenggat waktu kepatuhan yang relevan diterapkan.
Persyaratan transparansi bagi produsen GPAI akan mulai berlaku pada 1 Agustus 2025.
Namun untuk GPAI yang paling kuat (yang didefinisikan oleh undang-undang sebagai “risiko sistemik”), harapannya adalah bahwa mereka harus mematuhi persyaratan penilaian risiko dan mitigasi 36 bulan setelah berlaku (atau 1 Agustus 2027).
Ada peringatan tambahan: rancangan Kode ini disiapkan dengan asumsi bahwa hanya akan ada “sejumlah kecil” produsen GPAI dan GPAI yang memiliki risiko sistemik. “Jika asumsi tersebut ternyata salah, rancangan masa depan mungkin perlu diubah secara signifikan, misalnya dengan memperkenalkan sistem tindakan berjenjang yang lebih rinci yang bertujuan untuk berfokus terutama pada model-model yang menghadirkan risiko sistemik terbesar,” para penyusunnya memperingatkan.
Hak cipta
Di bidang transparansi, Kode ini akan mengatur bagaimana GPAI harus mematuhi ketentuan pelaporan, termasuk di bidang materi yang dilindungi hak cipta.
Contohnya di sini adalah “Submeasure 5.2”, yang saat ini mewajibkan penandatangan untuk memberikan rincian nama semua perayap web yang digunakan untuk mengembangkan GPAI dan fitur robots.txt yang relevan “termasuk pada saat perayapan”.
Pembuat model GPAI terus menghadapi pertanyaan tentang bagaimana mereka memperoleh data untuk melatih model mereka, dengan banyak pertanyaan tuntutan diajukan oleh pemegang hak cipta dengan tuduhan bahwa perusahaan AI memproses informasi berhak cipta secara ilegal.
Komitmen lain yang tertuang dalam rancangan Kode mengharuskan penyedia GPAI untuk memiliki satu titik kontak dan penanganan pengaduan untuk memfasilitasi pemegang hak untuk mengkomunikasikan pengaduan mereka “secara langsung dan cepat”.
Langkah-langkah terkait hak cipta lainnya yang diusulkan mencakup dokumentasi yang diharapkan disediakan oleh GPAI mengenai sumber data yang digunakan untuk “pelatihan, pengujian dan validasi serta otorisasi untuk mengakses dan menggunakan konten yang dilindungi untuk pengembangan AI umum yang dibuat khusus”.
Risiko sistemik
GPAI yang paling kuat juga tunduk pada aturan UU AI UE yang bertujuan untuk memitigasi apa yang disebut “risiko sistemik”. Sistem AI ini saat ini didefinisikan sebagai model yang telah dilatih penggunaannya total daya komputasi lebih dari 10^25 FLOP.
Kode ini berisi daftar jenis risiko yang diharapkan dianggap oleh para penandatangan sebagai risiko sistemik. Ini termasuk:
- Risiko keamanan siber yang ofensif (seperti ditemukannya kerentanan).
- Risiko kimia, biologi, radiologi dan nuklir.
- “Hilangnya kendali” (di sini berarti ketidakmampuan untuk mengendalikan “AI otonom yang kuat untuk tujuan umum) dan penggunaan model secara otomatis untuk Penelitian dan Pengembangan AI.
- Persuasi dan manipulasi, termasuk misinformasi/misinformasi berskala besar yang dapat menimbulkan risiko terhadap proses demokrasi atau mengakibatkan hilangnya kepercayaan terhadap media.
- Diskriminasi dalam skala besar.
Versi Kode ini juga menyarankan agar pembuat GPAI dapat mengidentifikasi jenis risiko sistemik lain yang juga tidak tercantum secara eksplisit, seperti pelanggaran privasi dan pengawasan “berskala besar”, atau penggunaan yang dapat menimbulkan risiko kesehatan masyarakat. Dan salah satu pertanyaan terbuka yang diangkat dalam makalah ini adalah risiko apa yang harus diprioritaskan untuk dimasukkan ke dalam taksonomi inti. Hal lainnya adalah bagaimana taksonomi risiko sistemik harus mengatasi risiko deepfake (terkait dengan materi pelecehan seksual terhadap anak-anak dan gambar intim non-konsensual yang dihasilkan oleh AI).
Kode ini juga berupaya memberikan panduan dalam mengidentifikasi atribut-atribut utama yang dapat mengarahkan model untuk menciptakan risiko sistemik, seperti “kemampuan model yang berbahaya” (misalnya, serangan dunia maya atau “kemampuan akuisisi atau proliferasi senjata”) dan “kecenderungan model yang berbahaya” (misalnya. , tidak selaras dengan niat dan/atau nilai-nilai kemanusiaan; memiliki kecenderungan untuk menipu;
Meskipun masih banyak rincian yang harus diisi, seiring dengan berlanjutnya proses penyusunan, penulis Kode ini menulis bahwa langkah-langkah, sub-langkah dan KPI harus “proporsional” dengan fokus khusus pada “penyesuaian dengan ukuran dan kemampuan pemasok.” khususnya, khususnya UKM dan perusahaan rintisan (start-up) dengan sumber daya keuangan yang lebih sedikit dibandingkan dengan mereka yang berada di garis depan pengembangan AI. Perhatian juga harus diberikan pada “strategi distribusi yang berbeda (misalnya open source), jika diperlukan.” prinsip proporsionalitas dan mempertimbangkan manfaat dan risikonya,” mereka menambahkan.
Banyak pertanyaan terbuka yang diajukan dalam rancangan tersebut berkaitan dengan bagaimana langkah-langkah spesifik harus diterapkan pada model sumber terbuka.
Keselamatan dan keamanan dalam kerangka.
Ukuran lain dari kode ini mengacu pada “Kerangka Keselamatan dan Keamanan” (SSF). Pencipta GPAI diharapkan merinci kebijakan manajemen risikonya dan “secara terus menerus dan komprehensif” mengidentifikasi risiko sistemik yang mungkin timbul dari GPAI mereka.
Berikut adalah sub-ukuran menarik tentang “Perkiraan Risiko”. Hal ini akan mengikat para penandatangan untuk memasukkan dalam jadwal “perkiraan upaya terbaik” SSF mereka ketika mereka berharap untuk mengembangkan model yang memicu indikator risiko sistemik, seperti kemampuan dan kecenderungan model berbahaya yang disebutkan di atas. Artinya, mulai tahun 2027, kita akan melihat pengembang AI mutakhir menetapkan batas waktu untuk menentukan kapan mereka memperkirakan pengembangan model akan melewati ambang risiko tertentu.
Di tempat lain, rancangan Kode ini berfokus pada GPAI dengan risiko sistemik dengan menggunakan “penilaian terbaik di kelasnya” terhadap kemampuan dan keterbatasan model mereka dan menerapkan “berbagai metodologi yang tepat” untuk melakukannya. Contoh yang tercantum meliputi: rangkaian pertanyaan dan jawaban, tolok ukur, tim merah dan metode pengujian merugikan lainnya, studi ketinggian manusia, model organisme, simulasi, dan evaluasi tidak langsung untuk materi rahasia.
Tindakan lain mengenai “pemberitahuan risiko sistemik yang substansial” akan mewajibkan negara-negara penandatangan untuk memberitahukan hal tersebut Kantor AIsebuah badan pengawas dan tata kelola yang dibentuk berdasarkan undang-undang, “jika mereka mempunyai alasan yang masuk akal untuk meyakini bahwa risiko sistemik yang besar dapat terjadi.”
Kode ini juga menetapkan langkah-langkah mengenai “pelaporan insiden serius”.
“Para penandatangan berkomitmen untuk mengidentifikasi dan melacak insiden serius, sejauh insiden tersebut berasal dari model AI tujuan umum mereka dengan risiko sistemik, mendokumentasikan dan melaporkan, tanpa penundaan yang tidak semestinya, informasi relevan apa pun dan tindakan perbaikan yang mungkin dilakukan ke Kantor IA dan, sebagaimana berlaku , kepada otoritas nasional yang relevan,” bunyinya, meskipun pertanyaan terbuka terkait meminta informasi tentang “apa yang dimaksud dengan insiden serius.” Jadi sepertinya masih banyak pekerjaan yang harus dilakukan untuk memastikan definisinya.
Rancangan Kode Etik ini mencakup pertanyaan-pertanyaan lebih lanjut mengenai “langkah-langkah perbaikan yang mungkin dilakukan” yang dapat diambil sebagai respons terhadap insiden-insiden serius. Ia juga menanyakan “proses respons insiden serius apa yang sesuai untuk vendor open source atau open source?”, di antara formulasi lain yang memerlukan komentar.
“Draf pertama Kode ini adalah hasil tinjauan awal terhadap praktik terbaik yang ada oleh empat kelompok kerja khusus, masukan konsultasi pemangku kepentingan dari hampir 430 pengajuan, tanggapan lokakarya pemasok, pendekatan internasional (termasuk Kode Etik G7, Frontier AI, dan Frontier AI). Komitmen Keselamatan, Deklarasi Bletchley dan temuan pemerintah terkait serta badan pengatur) dan, yang paling penting, UU AI itu sendiri,” simpul editor.
“Kami menekankan bahwa ini hanyalah rancangan pertama dan oleh karena itu saran-saran dalam rancangan Kode Etik ini bersifat sementara dan dapat berubah,” mereka menambahkan. Oleh karena itu, kami mengundang masukan konstruktif Anda saat kami mengembangkan dan memperbarui konten Kode Etik ini dan berupaya menuju bentuk akhir yang lebih terperinci pada tanggal 1 Mei 2025.
TechCrunch memiliki buletin yang berfokus pada AI! Daftar di sini untuk menerimanya di kotak masuk Anda setiap hari Rabu.