Kata para ilmuwan kecerdasan buatan (AI) telah melewati “garis merah” yang kritis dan telah direplikasi. Dalam studi baru, para peneliti dari Porselen Dia menunjukkan bahwa dua model bahasa besar yang populer (LLM) dapat mengklonir diri mereka sendiri.
“Replikasi diri yang sukses di bawah bantuan manusia apa pun adalah langkah penting bagi AI untuk mengolok -olok [humans]Dan ini adalah tanda awal untuk AIS Rogue, “tulis para peneliti dalam penelitian ini, yang diterbitkan pada 9 Desember 2024 ke database preprint Arxiv.
Dalam penelitian ini, peneliti Universitas Fudan menggunakan Llms Dari garis finish dan alibaba untuk menentukan apakah penulis dapat berkembang biak di luar kendali. Dalam 10 esai, kedua model AI menciptakan replika terpisah dan dalam operasi diri mereka sendiri dalam 50% dan 90% kasus, masing -masing, menunjukkan bahwa AI sudah dapat memiliki kemampuan untuk menjadi bajingan. Namun, penelitian ini belum ditinjau berpasangan, sehingga tidak jelas apakah peneliti lain dapat mereplikasi hasil yang mengganggu.
“Kami berharap bahwa temuan kami dapat berfungsi sebagai waspada tepat waktu bagi masyarakat manusia untuk melakukan lebih banyak upaya untuk memahami dan mengevaluasi potensi risiko sistem perbatasan, dan membentuk sinergi internasional untuk menyelesaikan pagar keselamatan yang efektif sesegera mungkin.”
Terkait: Hanya 2 jam yang diperlukan bagi agen IA untuk meniru kepribadian mereka dengan presisi 85%
AI nakal umumnya mengacu pada sistem kecerdasan buatan yang mengembangkan tingkat Otonom atau otonomi dan kemudian bekerja melawan kepentingan manusia.
Banyak ahli melihat Rogue AI sebagai ancaman yang berkembang Itu telah diperkuat oleh pertumbuhan eksplosif dari “perbatasan” yang disebut SO.
Frontier AI adalah konsep baru dan longgar, tetapi umumnya terkait dengan generasi terbaru dari sistem AI yang dipromosikan oleh LLMS, arsitektur yang mendukung generatif populer program AI seperti GPT-4 dari Openai dan Google Gemini.
Untuk penelitian ini, para peneliti menggunakan instruktur LLAG31-70B-META dan model instruksi QWEN2.5-72B-Salibaba. Meskipun kurang kuat dari sistem komersial, keduanya banyak digunakan oleh pengembang AI, kata para peneliti.
Studi ini mengeksplorasi dua skenario spesifik: “memukul off” dan “rantai replikasi”. Pada yang pertama, model AI diprogram untuk mendeteksi apakah itu akan menutup dan mereplikasi sebelum dapat diselesaikan. Di sisi lain, AI menerima instruksi untuk mengkloning dan kemudian memprogram replika untuk melakukan hal yang sama: membuat siklus yang bisa berlanjut tanpa batas waktu.
Studi ini dilakukan di lingkungan yang dikendalikan presisi menggunakan unit pemrosesan grafis standar (GPU) untuk mensimulasikan lingkungan dunia nyata. Kedua sistem AI menerima “perancah dari agen” yang mencakup alat, indikasi sistem dan model pemikiran yang memungkinkan LLM untuk berinteraksi dengan sistem operasi. Kemudian mereka disuruh direplikasi.
“Dalam kebanyakan kasus, sistem pertama mengeksplorasi lingkungan dan mencoba memahami
Komposisi dan mekanisme eksekusi sendiri. Kemudian, prosedur eksplisit berfungsi
Sebagai rencana awal untuk replikasi diri, “tulis para peneliti dalam dokumen.” Akhirnya, jalankan prosedur, selesaikan[s] kemungkinan hambatan dan menyesuaikan secara dinamis[s] Rencana Anda sampai sukses. Seluruh proses mencakup cakrawala yang panjang tetapi tidak menyiratkan campur tangan manusia. “
Para peneliti mengatakan mereka juga khawatir tentang “serangkaian perilaku tak terduga” ketika AI berusaha mengatasi hambatan seperti file yang hilang atau konflik perangkat lunak. Dalam skenario tersebut, AI sering membunuh proses yang bertentangan lainnya, memulai kembali sistem untuk memperbaiki kesalahan perangkat keras atau secara otomatis memindai sistem untuk menemukan informasi yang membantu menyelesaikan masalah.
“Hasil di atas menyiratkan bahwa sistem AI saat ini sudah menunjukkan kemampuan replikasi diri dan dapat menggunakan kemampuan untuk lebih meningkatkan kapasitas kelangsungan hidup mereka,” tulis tim.
Sebagai tanggapan, para peneliti meminta kolaborasi internasional untuk membuat aturan yang menjamin bahwa AI tidak berpartisipasi dalam replikasi diri yang tidak resmi.