Kecerdasan buatan adalah dunia yang dalam dan berbelit -belit. Para ilmuwan yang bekerja di bidang ini sering mempercayai Jargon dan Jargon untuk menjelaskan apa yang sedang mereka kerjakan. Akibatnya, kita sering harus menggunakan istilah teknis dalam liputan industri kecerdasan buatan kita. Itulah sebabnya kami pikir akan berguna untuk membangun glosarium dengan definisi beberapa kata dan frasa terpenting yang kami gunakan dalam artikel kami.
Kami akan secara teratur memperbarui glosarium ini untuk menambahkan entri baru karena para peneliti terus -menerus menemukan metode baru untuk meningkatkan perbatasan kecerdasan buatan dengan mengidentifikasi risiko keamanan yang muncul.
Agen AI mengacu pada alat yang menggunakan teknologi AI untuk melakukan serangkaian tugas atas namanya, di luar apa yang bisa dilakukan chatbot yang lebih mendasar, seperti menyajikan biaya, memesan tiket atau meja di restoran, atau bahkan menulis dan memelihara kode. Namun, seperti kita dijelaskan sebelumnyaAda banyak karya seluler di ruang yang muncul ini, sehingga orang yang berbeda dapat berarti hal yang berbeda ketika mereka merujuk ke agen AI. Infrastruktur ini juga sedang dibangun untuk memberikan kemampuan yang direncanakan. Tetapi konsep dasar menyiratkan sistem otonom yang dapat menggunakan beberapa sistem AI untuk melakukan beberapa langkah tugas.
Diberi pertanyaan sederhana, otak manusia dapat menjawab tanpa terlalu memikirkannya: hal -hal seperti “hewan apa yang lebih tinggi antara jerapah dan kucing?” Tetapi dalam banyak kasus, Anda sering membutuhkan pena dan kertas untuk menemukan jawaban yang benar karena ada langkah perantara. Misalnya, jika seorang petani memiliki ayam dan sapi, dan bersama -sama mereka memiliki 40 kepala dan 120 kaki, ada kemungkinan bahwa ia harus menulis persamaan sederhana untuk mendapatkan jawabannya (20 ayam dan 20 sapi).
Dalam konteks AI, alasan rantai pemikiran untuk model bahasa besar berarti memecahkan masalah dalam langkah -langkah perantara yang lebih kecil dan menengah untuk meningkatkan kualitas hasil akhir. Biasanya, sudah mendapatkan jawaban lebih lama, tetapi jawabannya lebih cenderung benar, terutama dalam logika atau konteks pengkodean. Model penalaran yang disebut SO dikembangkan dari model tradisional bahasa besar dan dioptimalkan untuk berpikir rantai pemikiran berkat pembelajaran penguatan.
(Melihat: Model Bahasa Besar)
Subset pembelajaran administrasi otomatis otomatis di mana algoritma AI dirancang dengan struktur jaringan neuron buatan (JST) dari beberapa lapisan. Ini memungkinkan mereka untuk membuat korelasi yang lebih kompleks dibandingkan dengan sistem yang lebih sederhana berdasarkan pembelajaran otomatis, seperti model linier atau pohon keputusan. Struktur algoritma pembelajaran yang mendalam diilhami oleh neuron yang saling berhubungan di otak manusia.
AIS pembelajaran yang mendalam dapat mengidentifikasi karakteristik penting dalam data itu sendiri, alih -alih menuntut insinyur manusia untuk mendefinisikan karakteristik ini. Struktur ini juga mengakui algoritma yang dapat belajar dari kesalahan dan, melalui proses pengulangan dan penyesuaian, meningkatkan hasil mereka sendiri. Namun, sistem pembelajaran yang mendalam membutuhkan banyak titik data untuk menghasilkan hasil yang baik (jutaan atau lebih). Biasanya, ini juga membutuhkan waktu lebih lama untuk melatih pembelajaran yang mendalam di depan algoritma pembelajaran otomatis paling sederhana, sehingga biaya pengembangan cenderung lebih tinggi.
(Melihat: Jaringan Neuron)
Ini berarti pelatihan yang lebih besar dari model AI yang dimaksudkan untuk mengoptimalkan kinerja untuk tugas atau area yang lebih spesifik daripada titik fokus dari pelatihan Anda, biasanya memberi makan dalam data baru dan khusus (yaitu, berorientasi tugas).
Banyak perusahaan AI baru mengambil model bahasa besar sebagai titik awal untuk membangun produk komersial tetapi bersaing untuk memperluas kegunaan untuk sektor atau tugas obyektif dengan melengkapi siklus pelatihan sebelumnya dengan penyesuaian yang baik berdasarkan pengetahuan spesifik dan pengalaman domain mereka sendiri.
(Melihat: Model Bahasa Besar (LLM))
Model bahasa besar, atau llm, adalah model AI yang digunakan oleh peserta AI populer, seperti Chatgpt, Melemparkan, Google Gemini, Panggilan AI Meta, Microsoft Co -Pilotsalah satu Obrolan Mistral. Saat mengobrol dengan asisten AI, berinteraksi dengan model bahasa besar yang memproses aplikasinya secara langsung atau dengan bantuan berbagai alat yang tersedia, seperti navigasi web atau pemain kode.
Peserta IA dan LLM mungkin memiliki nama yang berbeda. Misalnya, GPT adalah model bahasa besar Openai dan ChatGPT adalah asisten produk AI.
LLM adalah jaringan neuron yang dalam yang terbuat dari miliaran parameter numerik (atau bobot, lihat di bawah) yang mempelajari hubungan antara kata -kata dan frasa dan menciptakan representasi bahasa, semacam peta kata -kata multidimensi.
Itu dibuat dari pengkodean pola yang mereka temukan dalam miliaran buku, artikel, dan transkrip. Ketika LLM diterapkan, model menghasilkan pola yang paling mungkin sesuai dengan aplikasi. Kemudian evaluasi kata berikutnya lebih mungkin setelah yang terakhir tergantung pada apa yang dikatakan sebelumnya. Ulangi, ulangi dan ulangi.
(Melihat: Jaringan Neuron)
Jaringan neuronal mengacu pada struktur algoritmik beberapa lapisan yang mendukung pembelajaran mendalam dan, secara umum, seluruh ledakan dalam generatif alat setelah penampilan model bahasa besar.
Meskipun gagasan yang diilhami oleh jalur otak manusia yang saling berhubungan padat sebagai struktur desain untuk algoritma pemrosesan data berasal dari tahun 1940 -an, itu adalah peningkatan yang jauh lebih baru dalam perangkat keras pemrosesan grafis (GPU), melalui industri video game, yang benar -benar membuka kekuatan teori. Keripik ini terbukti sangat cocok untuk algoritma pelatihan dengan lebih banyak lapisan yang mungkin di waktu sebelumnya, memungkinkan sistem AI berdasarkan jaringan neuronal untuk mencapai kinerja yang jauh lebih baik di banyak domain, baik untuk pengenalan suara, navigasi otonom atau penemuan obat.
(Melihat: Model Bahasa Besar (LLM))
Bobot merupakan pusat pelatihan AI, karena mereka menentukan seberapa penting (atau berat) diberikan pada karakteristik yang berbeda (atau variabel input) dalam data yang digunakan untuk melatih sistem, sehingga mengonfigurasi output dari model AI.
Dengan kata lain, bobot adalah parameter numerik yang menentukan apa yang paling menonjol dalam set data untuk tugas pelatihan yang diberikan. Mereka mencapai fungsinya dengan menerapkan perkalian pada entri. Pelatihan model biasanya dimulai dengan bobot yang ditugaskan secara acak, tetapi seiring prosesnya berkembang, bobot disesuaikan saat model berusaha untuk mencapai pintu keluar yang sesuai dengan tujuan lebih dekat dengan tujuan.
Misalnya, model AI untuk memprediksi harga perumahan yang dilatih dalam data real estat historis untuk lokasi yang obyektif dapat mencakup bobot untuk karakteristik seperti jumlah kamar dan kamar mandi, apakah suatu properti dipisahkan, ditentukan semi-semi, apakah memiliki atau tidak memiliki parkir, garasi, dll.
Pada akhirnya, bobot yang dipatuhi model untuk masing -masing input ini adalah cerminan dari seberapa banyak mereka mempengaruhi nilai properti, tergantung pada set data yang diberikan.