Masalah utama dengan eksperimen teknologi besar kecerdasan buatan (AI) Bukannya dia bisa menjaga kemanusiaan. Ini adalah model bahasa yang hebat (LLM) seperti AI’s ChatGPT, Google Gemini dan Finish Flame terus melakukan hal -hal yang salah, dan masalahnya tidak dapat dipecahkan.
Dikenal sebagai halusinasi, contoh yang paling menonjol mungkin adalah kasus profesor hukum Amerika Jonathan Turley, yang dulu dituduh secara salah pelecehan seksual oleh chatgpt pada tahun 2023.
Solusi Operai tampaknya pada dasarnya “menghilang” dari pemrograman Turley untuk mengatakan bahwa ia tidak dapat menjawab pertanyaan tentang dia, yang jelas bukan solusi yang adil atau memuaskan. Mencoba memecahkan halusinasi setelah acara dan case -by -case case bukanlah cara untuk mengikuti.
Hal yang sama dapat dikatakan tentang LLMS memperkuat stereotip atau memberi Respons Barat -Pusat. Ada juga kurangnya tanggung jawab dalam menghadapi informasi keliru yang meluas ini, karena sulit untuk menentukan bagaimana LLM sampai pada kesimpulan ini di tempat pertama.
Kami melihat debat sengit tentang masalah-masalah ini setelah peluncuran GPT-4 2023, paradigma penting terbaru dalam pengembangan Openai. Dapat dikatakan bahwa perdebatan telah mendingin sejak itu, meskipun tanpa pembenaran.
Uni Eropa melewatinya Tindakan Dalam rekor waktu pada tahun 2024, misalnya, dalam upaya untuk menjadi pemimpin dunia dalam pengawasan bidang ini. Tetapi tindakan itu sangat tergantung pada perusahaan AI untuk diatur Tanpa benar -benar mengarahkan Masalah yang dipertanyakan. Dia belum mencegah perusahaan teknologi dari menerbitkan LLM di seluruh dunia menjadi ratusan juta pengguna dan mengumpulkan data mereka tanpa pengawasan yang memadai.
Terkait: ‘Felhardy dalam kasus terbaik, dan menyesatkan dan berbahaya di yang terburuk’: Jangan buat hype.
Sementara itu, terbaru bukti menunjukkan itu Bahkan LLM yang paling canggih pun tidak dapat diandalkan. Meskipun demikian, perusahaan utama AI Masih menolak menanggung tanggung jawab Untuk kesalahan.
Sayangnya, tren LLMS untuk menginformasikan dengan buruk dan mereproduksi bias tidak dapat diselesaikan dengan perbaikan bertahap dari waktu ke waktu. Dan dengan munculnya Agen aiDi mana pengguna akan segera dapat menetapkan proyek ke LLM, seperti, misalnya, memesan liburan mereka atau mengoptimalkan pembayaran semua faktur mereka setiap bulan, potensi masalah siap untuk berkembang biak.
Bidang AI neurosimbolic yang muncul dapat menyelesaikan masalah ini, sambil mengurangi sejumlah besar data yang diperlukan untuk melatih LLM. Jadi apa itu AI neuroestimbolic dan bagaimana cara kerjanya?
Masalah LLM
Pekerjaan LLM menggunakan teknik yang disebut Deep Learning, di mana mereka diberikan sejumlah besar data teks dan menggunakan statistik canggih untuk menyimpulkan pola yang menentukan apa kata atau frasa berikut dalam respons yang diberikan. Setiap model, bersama -sama dengan semua pola yang telah Anda pelajari, disimpan dalam set komputer yang kuat di pusat data besar yang dikenal sebagai jaringan saraf.
LLM mungkin tampaknya beralasan menggunakan proses yang disebut rantai pemikiran, di mana mereka menghasilkan respons dari beberapa langkah yang meniru bagaimana manusia secara logis dapat mencapai kesimpulan, berdasarkan pola yang diamati dalam data pelatihan.
Tanpa ragu, LLM adalah pencapaian teknik yang hebat. Mereka mengesankan untuk meringkas teks dan terjemahan, dan dapat meningkatkan produktivitas mereka yang cukup rajin dan berpengetahuan luas untuk mendeteksi kesalahan mereka. Namun, mereka memiliki potensi besar untuk menipu karena kesimpulan mereka selalu didasarkan pada probabilitas, bukan pada pemahaman.
Solusi populer disebut “manusia di loop”: pastikan bahwa manusia yang menggunakan AIS masih membuat keputusan akhir. Namun, mendistribusikan rasa bersalah kepada manusia tidak menyelesaikan masalah. Mereka masih akan tertipu oleh informasi yang salah.
LLM sekarang membutuhkan begitu banyak data pelatihan untuk maju sehingga kita sekarang harus memberi mereka makan dengan data sintetis, yang berarti data yang dibuat oleh LLMS. Data ini dapat menyalin dan memperkuat kesalahan yang ada dari data asal mereka sendiri, sehingga model baru mewarisi kelemahan orang kuno. Akibatnya, biaya pemrograman lebih tepat setelah pelatihan mereka, dikenal sebagai “penyelarasan model post-hoc”- Dia menembak.
Juga menjadi lebih sulit bagi programmer untuk melihat apa yang memiliki waktu yang buruk karena jumlah langkah dalam proses pemikiran model menjadi lebih besar, yang membuatnya semakin sulit untuk memperbaiki kesalahan.
AI neurosimbolik menggabungkan pembelajaran prediktif jaringan saraf dengan pengajaran AI serangkaian aturan formal yang dipelajari manusia untuk dapat secara lebih andal. Ini termasuk aturan logis, seperti “jika A kemudian B”, seperti “jika hujan, maka semuanya biasanya basah”; Aturan matematika, seperti “jika a = byb = c maka a = c”; dan makna yang disepakati tentang hal -hal seperti kata -kata, diagram dan simbol. Beberapa di antaranya akan masuk langsung ke sistem AI, sambil mengurangi orang lain untuk diri mereka sendiri dengan menganalisis data pelatihan mereka dan membuat “ekstraksi pengetahuan”.
Ini harus menciptakan AI yang tidak akan pernah berhalusinasi dan belajar lebih cepat dan lebih cerdas mengatur pengetahuan mereka di bagian yang jelas dan dapat digunakan kembali. Misalnya, jika AI memiliki aturan tentang hal -hal yang basah di luar saat hujan, tidak perlu mempertahankan semua contoh hal -hal yang mungkin basah di luar: aturan dapat diterapkan pada objek baru, bahkan yang belum pernah saya lihat sebelumnya.
Selama pengembangan model, AI neurosimbolik juga mengintegrasikan pembelajaran dan penalaran formal menggunakan proses yang dikenal sebagai “siklus neurosimbolik”. Ini menyiratkan sebagian terlatih -IA dari data pelatihan mereka dan kemudian menanamkan pengetahuan konsolidasi ini dalam jaringan sebelum pelatihan yang lebih besar dengan data.
Ini lebih hemat energi karena AI tidak perlu menyimpan begitu banyak data, sementara AI lebih bertanggung jawab karena lebih mudah bagi pengguna untuk mengontrol bagaimana kesimpulan tertentu dan meningkat dari waktu ke waktu. Ini juga lebih adil karena dapat dibuat untuk mengikuti aturan yang sudah ada sebelumnya, seperti: “Untuk keputusan apa pun yang dibuat oleh AI, hasilnya tidak boleh bergantung pada ras atau genre seseorang.”
Gelombang ketiga
Dia Gelombang pertama AI pada 1980 -an, yang dikenal sebagai AI simbolik, sebenarnya didasarkan pada pengajaran aturan formal komputer yang nantinya dapat diterapkan pada informasi baru. Pembelajaran mendalam berlanjut sebagai gelombang kedua pada 2010, dan banyak yang melihat neurosimbolik ketiga sebagai yang ketiga.
Lebih mudah untuk menerapkan prinsip -prinsip neuroestimbolik ke AI di daerah niche, karena aturan dapat didefinisikan dengan jelas. Jadi tidak mengherankan bahwa kita telah melihatnya muncul untuk pertama kalinya di google Alfafoldyang memprediksi struktur protein untuk membantu penemuan obat; Dan Alfageometriyang memecahkan masalah geometri yang kompleks.
Untuk AIS yang lebih luas, PorselenSSEWSEEK menggunakan a Teknik belajar yang disebut “Distilasi” yang merupakan langkah ke arah yang sama. Tetapi agar AI neuroestimbolic benar -benar layak untuk model umum, masih harus ada lebih banyak penelitian untuk memperbaiki kemampuan mereka untuk membedakan aturan umum dan melakukan ekstraksi pengetahuan.
Tidak jelas sejauh mana mereka sudah mengerjakan ini. Mereka tentu terdengar seolah -olah mereka pergi ke arah mencoba mengajar model mereka untuk berpikir lebih cerdas, tetapi mereka juga tampaknya menikah dengan kebutuhan untuk naik dengan meningkatnya jumlah data.
Kenyataannya adalah bahwa jika IA akan terus maju, kita akan membutuhkan sistem yang beradaptasi dengan kebaruan hanya beberapa contoh, yang memverifikasi pemahaman mereka, yang dapat multitasi dan menggunakan kembali pengetahuan untuk meningkatkan efisiensi data dan yang dapat dengan andal beralasan dengan cara yang canggih.
Dengan cara ini, teknologi digital yang dirancang dengan baik bahkan dapat menawarkan alternatif untuk regulasi, karena kontrol dan keseimbangan akan diintegrasikan ke dalam arsitektur dan mungkin distandarisasi di seluruh industri. Ada jalan panjang yang harus ditempuh, tetapi setidaknya ada jalan di depan.
Artikel yang diedit ini adalah Republik Percakapan Di bawah lisensi Creative Commons. Baca Artikel asli.