Pada bulan Januari, Openai meluncurkan Stargate, investasi $ 500 juta dalam infrastruktur intelijen buatan untuk Amerika Serikat. Pada hari Rabu, ia mengumumkan rencana untuk membawa investasi jenis ini ke negara lain juga.
Operai, perusahaan di belakang ChatGPT, mengatakan bahwa dengan bergaul dengan pemerintah yang tertarik, dapat menyebarkan apa yang disebutnya “AI Demokrat” di seluruh dunia. Lihat ini sebagai penangkal untuk pengembangan AI di negara -negara otoriter yang dapat menggunakannya untuk pengawasan atau serangan cyber.
Namun, makna “demokratis” sulit dicapai. Kecerdasan buatan digunakan untuk segalanya, dari asisten pribadi hingga keamanan nasional, dan para ahli mengatakan bahwa model di balik ini bukan Demokrat atau otoriter pada dasarnya. Mereka hanya mencerminkan data di mana mereka dilatih. Cara AI mempengaruhi politik di seluruh dunia akan bergantung pada siapa yang memiliki suara dalam kendali data dan aturan di balik alat -alat ini, dan bagaimana mereka digunakan.
Mengapa kita menulis ini
Amerika Serikat dan Cina ingin memimpin dalam pengembangan kecerdasan buatan. Tetapi pemerintah dapat menggunakan lebih banyak teknologi untuk tujuan mereka sendiri daripada untuk kebaikan publik. Siapa yang pada akhirnya akan mencerminkan nilai -nilai AI?
Operai menginginkan sebanyak mungkin orang menggunakan AI, kata Scott Timcke, rekan penelitian di Pusat Perubahan Sosial Universitas Johannesburg. “Saya tidak perlu masuk akal [they are] Berpikir tentang partisipasi massal di tingkat desain, pengkodean atau pengambilan keputusan. “
Jenis keputusan ini membentuk bagaimana masyarakat meresapi masyarakat, dari algoritma jejaring sosial yang dapat memengaruhi ras politik hingga chatbots yang mengubah cara siswa belajar.
Dia mengatakan bahwa orang harus mempertimbangkan: “Apa kontrol kolektif kita tentang bagaimana instrumen ilmiah besar ini digunakan dalam kehidupan sehari -hari?”
“Tantangan … Tentang Ekspor Nilai”
Di posting blog iklan Inisiatif baru, openai untuk negara -negara, AI demokratis didefinisikan sebagai kecerdasan buatan yang “melindungi dan menggabungkan prinsip -prinsip demokratis yang telah lama”, seperti kebebasan bagi orang untuk memilih bagaimana mereka menggunakan AI, batas -batas kontrol pemerintah dan pasar bebas.
Bekerja dengan pemerintah AS, Openai sekarang menawarkan untuk berinvestasi dalam infrastruktur negara -negara yang ingin bergaul. Itu berarti membangun pusat data baru, menyediakan obrolan yang dipersonalisasi secara lokal dan membuka dana awal bisnis nasional, sambil menjanjikan kontrol keamanan online dengan nilai -nilai demokratis.
Pemerintahan Trump tetap teguh dalam memenangkan perlombaan melawan China, yang sudah memiliki beberapa perusahaan utama di pedesaan. Melalui perluasan AI “ramah” di negara -negara Sekutu, Openai menjadi pemain penting dalam upaya Amerika Serikat untuk mengatasi Cina dan Rusia dalam karier teknologi.
“Tantangan siapa yang akan memimpin AI bukan hanya tentang ekspor Artikel Opini tahun lalu.
Sementara proyek ini dapat menarik bagi beberapa pemerintah, itu juga menimbulkan kekhawatiran tentang pembangunan ekosistem IA yang infrastrukturnya dikendalikan oleh kepentingan AS.
Yang lain bertanya -tanya apakah teknologi bisa sama demokratisnya dengan perusahaan seperti Openai Hope. Basis demokrasi adalah transparansi, di mana orang memiliki akses ke informasi untuk membantu mereka memahami proses di balik pengambilan keputusan.
Banyak model AI buram, yang berfungsi sebagai “kotak hitam” yang fungsi internalnya adalah misteri bagi sebagian besar pengguna. Dalam beberapa kasus, proses ini disembunyikan untuk melindungi kekayaan intelektual. Dan beberapa algoritma sangat kompleks sehingga bahkan pengembang tidak mengerti persis bagaimana mesin mencapai hasilnya.
Itu bisa membuat sulit untuk mempercayai model ini atau menahan siapa pun ketika ada yang salah.
Seberapa transparan teknologi AI?
Perusahaan dapat memilih untuk meletakkan kode di belakang sistem yang tersedia untuk semua orang.
Sementara Openai, Google dan Antrop tidak membagikan model mereka, perusahaan lain telah memilih rute open source. Model China Deepseek-R1, yang diluncurkan Januari ini, telah memungkinkan banyak pengembang di seluruh dunia untuk membangun model murah yang sudah skala kecil. Beberapa melihat ini sebagai cara untuk mendemokratisasi pengembangan teknologi AI, yang membuatnya lebih mudah diakses oleh lebih banyak orang.
Alat -alat ini juga dapat memperkuat partisipasi demokratis. Selama protes massa Kenya tahun lalu, pengunjuk rasa menciptakan Chatbots Jelaskan undang -undang yang kompleks dalam bahasa sederhana untuk membantu kolega mereka memahami dampaknya.
Yang lain khawatir Bahwa tanpa peraturan yang benar, membuat AI dapat diakses secara luas dapat melakukan lebih banyak kerusakan daripada dengan baik. Mereka menunjukkan kampanye informasi yang salah yang dihasilkan oleh AI, divisi penanaman dan kebingungan. Dan mengingat kecepatan teknologi yang berkembang, perusahaan swasta menetapkan aturan perilaku mereka sendiri dan melakukannya lebih cepat daripada yang dapat diikuti oleh regulator, mirip dengan cara Internet telah dikembangkan.
Hanya segelintir perusahaan, seperti Openai, Microsoft, Google dan Nvidia, mengontrol banyak perangkat keras dan perangkat lunak penting untuk perluasan AI saat ini. Itu telah menyebabkan dorongan peneliti, organisasi nirlaba dan lainnya untuk mendapatkan lebih banyak kontribusi dan pengawasan publik.
Proyek Intelijen Kolektif, yang menggambarkan dirinya sebagai laboratorium yang merancang “model tata kelola baru untuk teknologi transformatif”, dikaitkan dengan perusahaan dan pemerintah AI utama yang ingin “mendemokratisasi” AI dengan membawa berbagai suara yang lebih luas dalam percakapan. Mereka bekerja dengan antropik, produsen chatbot claude, untuk membuat a model Terlatih dalam aturan dan nilai yang ditawarkan oleh 1.000 orang Amerika dari semua bidang kehidupan, bukan hanya sekelompok insinyur perangkat lunak.
Analis juga menunjukkan bahwa banyak alat AI dapat digunakan untuk memperkuat demokrasi, dari dokumen identitas digital hingga penyediaan layanan pemerintah.
“Saya tidak berpikir kita harus takut pada AI,” kata Dr. Timcke, rekan penelitian. “Saya pikir kita harus takut ketika ada begitu banyak konsentrasi kekuasaan di AI … siapa yang mengendalikannya? Dan mereka memiliki seseorang yang mengawasi mereka?”