Breaking News

Inteksi muncul dari sembunyi -sembunyi dengan jenis baru model AI

Inteksi muncul dari sembunyi -sembunyi dengan jenis baru model AI

AwalSebuah perusahaan baru yang berbasis di Palo Alto dimulai oleh profesor komputer Stanford Stefano Emon, mengklaim telah mengembangkan model AI baru berdasarkan teknologi “difusi”. Inception disebut model bahasa penyiaran besar, atau “DLM” untuk menyingkat.

Model AI generatif yang menerima perhatian terbanyak sekarang dapat dibagi secara luas menjadi dua jenis: model bahasa besar (LLM) dan model difusi. Llms, dibangun di Arsitektur TransformerMereka digunakan untuk pembuatan teks. Sementara itu, model difusi, yang memberi makan sistem IA seperti Perantara dan openai SoraMereka terutama digunakan untuk membuat gambar, video, dan audio.

Model awal menawarkan kapasitas LLM tradisional, termasuk generasi kode dan respons pertanyaan, tetapi dengan hasil yang jauh lebih cepat dan berkurangnya biaya komputer, menurut perusahaan.

Emon mengatakan kepada TechCrunch bahwa dia telah mempelajari cara melamar Model Difusi Kirim pesan teks untuk waktu yang lama di laboratorium Stanford Anda. Penelitiannya didasarkan pada gagasan bahwa LLM tradisional relatif lambat dibandingkan dengan teknologi difusi.

Dengan LLM, “itu tidak dapat menghasilkan kata kedua sampai menghasilkan yang pertama, dan tidak dapat menghasilkan yang ketiga sampai menghasilkan dua yang pertama,” kata Emon.

Emon sedang mencari cara untuk menerapkan pendekatan difusi pada teks karena, tidak seperti LLMS, yang berfungsi secara berurutan, model difusi dimulai dengan perkiraan perkiraan data yang mereka hasilkan (misalnya, gambar), dan kemudian menempatkan data dalam fokus pada saat yang sama.

Ermon berhipotesis generasi dan modifikasi blok besar teks paralel dimungkinkan dengan model difusi. Setelah bertahun -tahun mencoba, Emon dan muridnya pekerjaan penelitian Diposting tahun lalu.

Menyadari potensi kemajuan, Emon yang didirikan Inception musim panas lalu, mengambil keuntungan dari dua mantan siswa, Profesor UCLA, Profesor Aditya Grover dan Cornell, Volodymyr Kuleshov, untuk co-leader perusahaan.

Sementara Ermon menolak untuk membahas dana intision, TechCrunch memahami bahwa Mayfield Fund telah berinvestasi.

Inteksi telah meyakinkan beberapa pelanggan, termasuk perusahaan Fortune 100 yang tidak dikenal, dengan menangani kebutuhan kritis mereka untuk pengurangan latensi AI dan kecepatan yang lebih tinggi, kata Emron.

“Apa yang kami temukan adalah bahwa model kami dapat memanfaatkan GPU jauh lebih efisien,” kata Emon, merujuk pada chip komputer yang biasa digunakan untuk menjalankan model dalam produksi. “Saya pikir ini adalah masalah besar. Ini akan mengubah cara orang membangun model bahasa. “

Inteksi menawarkan API, serta opsi implementasi perangkat di fasilitas dan tepi, dukungan untuk menyesuaikan model dan satu set DLM yang siap untuk beberapa kasus penggunaan. Perusahaan menyatakan bahwa DLMnya dapat berjalan hingga 10 kali lebih cepat dari LLM tradisional sementara biaya 10 kali lebih sedikit.

Model pengkodean “kami” kecil ‘sama bagusnya dengan [OpenAI’s] GPT-4O Mini Sementara lebih dari 10 kali lebih cepat, ”kata juru bicara perusahaan kepada TechCrunch. “Model ‘mini’ kami melebihi model open source kecil sebagai [Meta’s] Hubungi 3.1 8b dan mencapai lebih dari 1.000 token per detik. “

“Token” adalah bahasa industri untuk bit data yang belum diproses. Seribu token per detik Kecepatan yang mengesankan sebenarnyadengan asumsi bahwa pernyataan awal dipertahankan.

Sumber