Breaking News

Apa yang bisa dilakukan oleh Institut Keamanan AI India

Apa yang bisa dilakukan oleh Institut Keamanan AI India

Gambar untuk representasi. | Kredit foto: Getty Images

YoPada bulan Oktober, Kementerian Elektronika dan Teknologi Informasi (MeitY) mengadakan pertemuan dengan industri dan pakar untuk membahas pendirian Institut Keamanan AI di bawah Misi IndiaAI. Menariknya, hal ini terjadi setelah kunjungan Perdana Menteri Narendra Modi ke Amerika Serikat, Quad Leaders Summit, dan United Nations Future Summit. AI menjadi agenda utama menjelang KTT Masa Depan, dimana panel penasihat tingkat tinggi PBB menghasilkan laporan tentang Tata Kelola AI untuk Kemanusiaan.

Para pengambil kebijakan harus memanfaatkan kepemimpinan India saat ini di G20 dan GPAI, dan memposisikannya sebagai suara pemersatu mayoritas global dalam tata kelola AI. Rancangan Institut Keamanan harus memprioritaskan peningkatan kapasitas nasional, memanfaatkan keunggulan komparatif India dan bergabung dengan inisiatif internasional.

Secara khusus, Future Summit melahirkan Global Digital Compact yang mengidentifikasi kolaborasi multi-pemangku kepentingan, pengawasan yang berpusat pada masyarakat, dan partisipasi inklusif negara-negara berkembang sebagai pilar penting tata kelola dan keamanan AI. Sebagai tindak lanjutnya, PBB kini akan meluncurkan Dialog Global tentang AI. Ini adalah saat yang tepat bagi India untuk mendirikan Institut Keamanan AI untuk berkolaborasi dengan Proses Bletchley dalam Keamanan AI. Jika dilaksanakan dengan benar, India dapat memperdalam dialog global mengenai keselamatan AI dan mengedepankan perspektif mayoritas dunia mengenai keselamatan yang berpusat pada manusia.

Reformasi kelembagaan

Dalam merancang lembaga ini, India harus belajar dari kekhawatiran yang timbul dari Pemberitahuan MeitY AI pada bulan Maret 2024, yang mengusulkan agar ada persetujuan pemerintah sebelum peluncuran sistem AI eksperimental ke publik. Beberapa pihak mempertanyakan kapasitas kelembagaan seperti apa yang dimiliki pemerintah India untuk menentukan dengan tepat keamanan penerapan AI baru. Ketentuan lain mengenai bias, diskriminasi, dan penerapan AI yang bersifat universal menunjukkan bahwa pemberitahuan tersebut tidak didasarkan pada bukti teknis.

Demikian pula, India harus berhati-hati dan menghindari kontrol peraturan preskriptif yang telah diusulkan di Uni Eropa (UE) dan Tiongkok. Ancaman sanksi peraturan dalam ekosistem teknologi yang berkembang pesat menghambat pertukaran informasi proaktif antara perusahaan, pemerintah, dan ekosistem secara keseluruhan. Hal ini mendorong laboratorium untuk hanya mengambil langkah minimal menuju kepatuhan. Namun, setiap yurisdiksi menunjukkan pengakuan berulang terhadap pembentukan badan khusus, misalnya, China Algorithm Registry dan EU AI Office. Namun, untuk memaksimalkan potensi reformasi kelembagaan, India harus memisahkan pengembangan kelembagaan dari pembuatan peraturan.

Proses Bletchley akan digarisbawahi pada KTT Keamanan Inggris pada bulan November 2023 dan KTT Keamanan Korea Selatan pada bulan Mei 2024. KTT berikutnya dijadwalkan di Perancis dan proses ini menghasilkan jaringan internasional Institut Keamanan AI.

Amerika Serikat dan Inggris adalah dua negara pertama yang mendirikan lembaga-lembaga ini dan telah menandatangani MoU untuk bertukar pengetahuan, sumber daya, dan pengalaman. Kedua institusi juga menandatangani nota kesepahaman dengan laboratorium kecerdasan buatan dan menerima akses awal ke model yayasan besar. Mereka telah memasang mekanisme untuk berbagi masukan teknis dengan laboratorium AI sebelum dirilis ke publik. Lembaga Keamanan ini memfasilitasi pertukaran informasi secara proaktif tanpa menjadi regulator. Mereka memposisikan diri mereka sebagai lembaga teknis pemerintah yang memanfaatkan konsorsium dan kemitraan multi-pemangku kepentingan untuk menilai risiko model AI terdepan terhadap keselamatan publik. Namun, mereka sebagian besar mempertimbangkan keamanan AI melalui kacamata keamanan siber, keamanan infrastruktur, keamanan biosfer, dan ancaman keamanan nasional lainnya.

Lembaga keamanan ini bertujuan untuk meningkatkan kapasitas pemerintah dan menggabungkan gagasan pengujian pihak ketiga eksternal serta penilaian dan mitigasi risiko. Lembaga keamanan AI yang dipimpin pemerintah bertujuan untuk memberikan wawasan yang dapat mengubah tata kelola AI menjadi disiplin ilmu berbasis bukti. Proses Bletchley memberi India peluang untuk berkolaborasi dengan pemerintah dan pemangku kepentingan di seluruh dunia. Keahlian bersama akan sangat penting untuk mengimbangi laju inovasi AI yang cepat.

Memetakan pendekatan India

India harus mendirikan Institut Keamanan AI yang akan diintegrasikan ke dalam jaringan lembaga keselamatan Bletchley. Untuk saat ini, lembaga ini harus independen terhadap otoritas regulasi dan penegakan hukum dan beroperasi secara eksklusif sebagai lembaga penelitian teknis, pengujian dan standardisasi. Hal ini akan memungkinkan lembaga-lembaga nasional India untuk memanfaatkan keahlian pemerintah lain, komunitas multi-stakeholder lokal, dan dunia usaha internasional. Sambil meningkatkan kemampuan pengawasan AI, India juga dapat menggunakan jaringan Bletchley untuk menyuarakan kekhawatiran mayoritas global mengenai risiko AI yang berfokus pada individu.

Lembaga ini dapat mengadvokasi perspektif mengenai risiko yang terkait dengan bias, diskriminasi, pengucilan sosial, risiko gender, pasar tenaga kerja, pengumpulan data, dan privasi individu. Oleh karena itu, hal ini dapat memperdalam dialog global mengenai identifikasi dampak buruk, risiko AI secara umum, mitigasi, kerja sama tim merah, dan standardisasi. Jika dilakukan dengan baik, India dapat menjadi pengelola global tata kelola AI yang berpikiran maju dan mencakup banyak pemangku kepentingan dan kolaborasi pemerintah. AI Safety Institute dapat menunjukkan temperamen ilmiah India dan kemauan untuk menerapkan solusi kebijakan yang proporsional, berbasis bukti, dan kompatibel secara global.

Sidharth Deb, Manajer Kebijakan Publik di The Quantum Hub, sebuah firma kebijakan publik yang berbasis di Delhi.

Sumber