Ambisi Inggris untuk mengambil peran sentral dalam pengawasan AI global terkendala oleh kesulitan Inggris dalam meluncurkan pos terdepan di AS dan pemerintahan Trump yang akan datang yang mengancam untuk mengadopsi pendekatan yang “benar-benar” berbeda terhadap regulasi AI.
Pemerintah Inggris berupaya untuk memperkuat AI Safety Institute (AISI), yang dibentuk tahun lalu dengan anggaran sebesar £50 juta dan 100 staf, seiring dengan upaya untuk memperkuat posisinya sebagai badan dengan sumber daya terbaik di dunia yang menyelidiki risiko seputar AI.
Perusahaan teknologi terkemuka, termasuk Buka AI dan Google telah mengizinkan AISI untuk menguji dan meninjau model AI terbaru mereka. Namun rencana untuk memperluas lebih jauh dengan membuka kantor di San Francisco pada bulan Mei tertunda karena pemilu di Amerika Serikat dan Inggris serta kesulitan perekrutan untuk kantor di Silicon Valley, menurut orang-orang yang mengetahui masalah tersebut.
Dalam upaya untuk mempertahankan pengaruhnya, orang-orang yang dekat dengan pemerintah Inggris percaya bahwa mereka akan semakin memposisikan AISI sebagai organisasi yang berfokus pada keamanan nasional, yang memiliki hubungan langsung dengan AISI. badan intelijen GCHQ.
Di tengah masa tegang dalam hubungan antara pemerintahan sayap kiri Partai Buruh Inggris dan pemerintahan AS berikutnya, beberapa orang percaya bahwa kerja keamanan AISI dapat berfungsi sebagai alat diplomasi yang kuat.
“Jelas, pemerintahan Trump akan mengambil pendekatan yang sangat berbeda di bidang tertentu, mungkin dalam hal regulasi,” kata Menteri Teknologi Inggris Peter Kyle, yang menekankan “hubungan aman” Inggris dengan Amerika Serikat, termasuk dalam bidang keamanan dan pertahanan. Menteri pemerintah Inggris menambahkan bahwa dia akan “membuat keputusan yang dipertimbangkan” mengenai kapan AISI akan membuka kantor di San Francisco setelah AISI dapat memperoleh staf yang memadai.
Peningkatan penekanan ini mencerminkan perubahan prioritas di Amerika Serikat, yang merupakan rumah bagi perusahaan-perusahaan AI terkemuka di dunia. Presiden terpilih Donald Trump telah berjanji untuk membatalkan perintah eksekutif Presiden Joe Biden mengenai kecerdasan buatan, yang mendirikan Institut Keamanan AI AS. Trump juga menunjuk pemodal ventura David Sacks sebagai raja AI dan mata uang kripto, dan investor teknologi diketahui khawatir dengan regulasi yang berlebihan terhadap startup AI.
Kelompok masyarakat sipil dan investor teknologi mempertanyakan apakah perusahaan AI akan terus mematuhi badan keamanan AI Inggris, karena pemerintahan AS yang akan datang mengambil sikap yang lebih proteksionis terhadap sektor teknologinya.
Senator Republik Ted Cruz telah memperingatkan mengenai aktor asing, termasuk pemerintah di Eropa dan Inggris, yang memberlakukan peraturan ketat terhadap perusahaan kecerdasan buatan Amerika atau memiliki pengaruh yang terlalu besar terhadap kebijakan teknologi Amerika.
Komplikasi lainnya adalah peran bos Tesla dan penasihat Trump. Elon Musk. Miliarder teknologi ini telah menyatakan keprihatinannya tentang risiko keamanan AI saat baru-baru ini mengembangkan model canggihnya sendiri dengan perusahaan barunya, xAI.
“Ada usulan yang jelas bagi Elon mengenai AISI, yang pada dasarnya menjual lebih banyak pekerjaan yang kami lakukan di bidang keamanan daripada pekerjaan yang kami lakukan di bidang keamanan,” kata salah satu orang yang dekat dengan pemerintah Inggris, seraya menambahkan bahwa AISI memberikan “kedok”. pintu ke GCHQ Inggris.”
Perusahaan teknologi mengatakan bahwa penelitian AISI telah membantu meningkatkan keamanan model AI yang sebagian besar dibuat oleh kelompok yang berbasis di AS. Pada bulan Mei, AISI mengidentifikasi potensi yang ada model terkemuka yang memfasilitasi serangan siber dan memberikan pengetahuan tingkat ahli di bidang kimia dan biologi, yang dapat digunakan untuk mengembangkan senjata biologis.
Pemerintah Inggris juga berencana menjadikan AISI-nya sebagai dasar hukum. Perusahaan-perusahaan terkemuka, termasuk OpenAI, Anthropic, dan Meta, dengan sukarela memberikan akses kepada AISI terhadap model-model baru untuk penilaian keamanan sebelum model-model tersebut dirilis ke kalangan bisnis dan konsumen. Berdasarkan undang-undang Inggris yang diusulkan, komitmen sukarela semacam itu bersifat wajib.
“[These] Kode-kode itulah yang akan diabadikan dalam undang-undang, dan itu karena saya tidak percaya bahwa ketika kekuatan teknologi yang kita bicarakan terlihat, masyarakat akan merasa nyaman berpikir bahwa kemampuan tersebut harus dimanfaatkan. bagian dari teknologi ini. berdasarkan kode sukarela,” kata Kyle, bagian dari pemerintahan Partai Buruh yang terpilih pada bulan Juli.
Lembaga keamanan Inggris juga telah mempekerjakan perusahaan teknologi seperti OpenAI dan Google DeepMind, untuk membantu menjaga hubungan baik dengan perusahaan AI terkemuka dan memastikan mereka beradaptasi dengan rekomendasinya.
“Kami pada dasarnya akan hidup atau mati berdasarkan seberapa bagus sumber daya manusia kami,” kata Jade Leung, chief technology officer di AISI UK, yang sebelumnya bekerja di OpenAI.
Terlepas dari hubungan ini, terdapat beberapa titik konflik dengan perusahaan AI.
AISI mengeluh bahwa mereka tidak diberi cukup waktu untuk menguji model tersebut sebelum diluncurkan, karena perusahaan teknologi saling bersaing untuk merilis penawaran terbaru mereka ke publik.
“Ini tidak sempurna, tetapi ada perbincangan terus-menerus mengenai hal ini,” kata Geoffrey Irving, kepala ilmuwan di AISI, yang sebelumnya bekerja di OpenAI dan DeepMind. “Tidak selalu kami mendapat banyak perhatian [for testing]yang terkadang bisa menjadi sebuah perjuangan [but we have had] “akses yang cukup untuk sebagian besar rilis besar untuk melakukan evaluasi yang baik.”
AISI Inggris sejauh ini telah menguji 16 model dan telah mengidentifikasi kurangnya perlindungan yang kuat dan ketahanan terhadap penyalahgunaan di sebagian besar model tersebut. Dia mempublikasikan temuannya secara publik, tanpa merinci model mana yang telah dia uji.
Meskipun orang-orang di dalam perusahaan mengakui adanya beberapa masalah dalam bekerja dengan institut tersebut, Google, OpenAI, dan Anthropic termasuk di antara mereka yang menyambut baik pekerjaan tersebut. “Kami tidak ingin menilai pekerjaan rumah kami sendiri,” kata Lama Ahmad, manajer program teknis di OpenAI.
Artikel ini telah diperbarui untuk menghilangkan kesalahan terkait posisi Senator Ted Cruz.