Minggu ini, Google meluncurkan keluarga model AI terbuka, Gemma 3, yang dengan cepat memperoleh pujian karena efisiensinya yang mengesankan. Tapi seperti a nomor dari pengembang Lorded in X, lisensi Gemma 3 menjadikan penggunaan komersial model proposal yang berisiko.
Ini bukan masalah eksklusif Gemma 3. Perusahaan sebagai tujuan juga menerapkan persyaratan lisensi yang dipersonalisasi dan tidak standar untuk model mereka yang tersedia secara terbuka, dan syarat -syarat tersebut memiliki tantangan hukum untuk perusahaan. Beberapa perusahaan, terutama operasi yang lebih kecil, peduli bahwa Google dan yang lainnya dapat “menarik karpet” ke bisnis mereka dengan menegaskan klausa yang paling berat.
“Lisensi yang membatasi dan tidak konsisten dari model ‘terbuka’ SO yang menciptakan ketidakpastian yang signifikan, terutama untuk adopsi komersial,” Kepala Komunitas Inisiatif Sumber Terbuka, A jangka panjang Dengan tujuan mendefinisikan dan “mengelola” semua hal open source, katanya kepada TechCrunch. “Sementara model -model ini dipasarkan sebagai terbuka, istilah nyata memberlakukan beberapa hambatan hukum dan praktis yang menghalangi perusahaan untuk mengintegrasikannya ke dalam produk atau layanan mereka.”
Pengembang model terbuka memiliki alasan mereka untuk melepaskan model di bawah lisensi properti dibandingkan dengan opsi standar industri seperti Apache dan MIT. AI startup koheren, misalnya, Sudah jelas tentang niatnya untuk mendukung pekerjaan ilmiah, tetapi non -komersial pada modelnya.
Tetapi lisensi Gemma dan tujuan khususnya memiliki batasan yang membatasi cara perusahaan dapat menggunakan model tanpa takut akan pembalasan hukum.
Tujuan, misalnya, Melarang pengembang Dari penggunaan “output atau hasil” dari model memanggil 3 untuk meningkatkan model apa pun selain Flame 3 atau “Demived Works”. Ini juga mencegah perusahaan dengan lebih dari 700 juta pengguna aktif bulanan dari menerapkan model api tanpa terlebih dahulu mendapatkan lisensi khusus dan tambahan.
Lisensi Gemma Umumnya kurang berat. Tapi itu memberi Google hak untuk “membatasi (dari jarak jauh atau lainnya) penggunaan” Gemma bahwa Google percaya bahwa perusahaan melanggar. Kebijakan penggunaan yang dilarang atau “hukum dan peraturan yang berlaku”.
Istilah -istilah ini tidak hanya berlaku untuk model nyala api dan Gemma asli. Llama atau model berbasis Gemma juga harus mematuhi lisensi api dan Gemma. Dalam kasus Gemma, itu termasuk model yang dilatih dalam data sintetis yang dihasilkan oleh Gemma.
Brand Florian, asisten peneliti di Pusat Penelitian Kecerdasan Buatan Jerman, percaya bahwa, terlepas dari Eksekutif teknologi raksasa apa yang akan membuat Anda percaya? – Lisensi seperti Gemma dan hubungi “Anda tidak dapat menyebut” open source “.
“Sebagian besar perusahaan memiliki serangkaian lisensi yang disetujui, seperti Apache 2.0, jadi lisensi yang dipersonalisasi adalah banyak masalah dan uang,” kata Brand kepada TechCrunch. “Perusahaan kecil tanpa peralatan hukum atau uang untuk pengacara akan tetap dalam model dengan lisensi standar.”
Brand mengatakan bahwa AI model pengembang dengan lisensi yang dipersonalisasi, seperti Google, belum secara agresif menerapkan persyaratan mereka. Namun, ancaman itu cukup untuk mencegah adopsi, tambahnya.
“Pembatasan ini berdampak pada ekosistem AI, bahkan pada peneliti AI seperti saya,” kata Brand.
Han-chung Lee, direktur pembelajaran otomatis di Moody’s, setuju bahwa lisensi yang dipersonalisasi seperti yang melekat pada Gemma dan Call Make the Models “tidak dapat digunakan” dalam banyak skenario komersial. Begitu juga Eric Tramel, seorang ilmuwan staf di Startup Gretel.
“Lisensi model spesifik membuat ukuran khusus untuk turunan model dan distilasi, yang menyebabkan kepedulian terhadap NAUFLA,” kata Tramel. “Bayangkan sebuah bisnis yang secara khusus menghasilkan model penyesuaian untuk pelanggannya. Lisensi apa yang harus dimiliki oleh penyesuaian api-data Gemma? Apa dampaknya bagi semua klien Anda di hilir?
Skenario yang ditimbulkan oleh para penggalian yang paling takut, kata Tramel, adalah bahwa model -modelnya adalah semacam kuda Trojan.
“Model besi cor dapat menerbitkan [open] Model, tunggu untuk melihat kasus bisnis mana yang berkembang menggunakan model -model tersebut, dan kemudian lengan yang kuat dalam vertikal yang sukses karena “
Untuk lebih jelasnya, model -model tertentu telah mencapai distribusi umum meskipun lisensi mereka yang membatasi. Panggilan, misalnya, sudah Diunduh ratusan juta kali dan diintegrasikan ke dalam produk dari perusahaan utama, termasuk Spotify.
Tetapi mereka dapat memiliki lebih banyak berhasil jika mereka memiliki lisensi secara permanen, menurut Yacine Jernite, kepala pembelajaran mesin dan masyarakat startup AI memeluk wajah. Jernite meminta pemasok seperti Google untuk pindah ke bingkai berlisensi terbuka dan “berkolaborasi lebih langsung” dengan pengguna dengan syarat yang diterima secara luas.
“Mengingat kurangnya konsensus tentang persyaratan ini dan fakta bahwa banyak asumsi yang mendasari belum terbukti di pengadilan, semuanya terutama berfungsi sebagai deklarasi niat para aktor tersebut,” kata Jernite. “[But if certain clauses] Mereka ditafsirkan terlalu luas, banyak pekerjaan baik akan ditemukan di bidang hukum yang tidak pasti, yang sangat menakutkan bagi organisasi yang membangun produk komersial yang sukses. “
Vidal mengatakan ada kebutuhan mendesak untuk perusahaan model AI yang dapat diintegrasikan, dimodifikasi dan dibagikan secara bebas tanpa takut perubahan mendadak dalam lisensi hukum atau ambiguitas.
“Panorama lisensi model AI saat ini terganggu oleh kebingungan, ketentuan ketat dan klaim pembukaan yang menipu,” kata Vidal. “Alih -alih mendefinisikan kembali ‘terbuka’ untuk beradaptasi dengan kepentingan perusahaan, industri AI harus selaras dengan prinsip -prinsip sumber terbuka yang mapan untuk menciptakan ekosistem yang benar -benar terbuka.”