Breaking News

Minggu ini di AI: miliarder berbicara tentang pekerjaan otomatis

Minggu ini di AI: miliarder berbicara tentang pekerjaan otomatis

Halo, orang -orang, selamat datang di buletin reguler TechCrunch. Jika Anda menginginkan ini di baki masuk Anda setiap hari Rabu, daftar Di Sini.

Anda mungkin telah memperhatikan bahwa kami melompat buletin minggu lalu. Alasannya? Siklus berita kacau yang dibuat lebih banyak lagi Promosi tiba -tiba perusahaan Cina menjadi terkenalDan respons praktis setiap waktu adalah sudut industri dan pemerintahan.

Untungnya, kami kembali sepanjang jalan, dan tidak terlalu cepat, mengingat perkembangan jurnalistik akhir pekan terakhir Openai.

CEO Operai, Sam Altman, berhenti di Tokyo untuk berbicara di atas panggung dengan Masayoshi Son, CEO Konglomerat Jepang Softbank. Softbank adalah Opadai yang hebat investor Dan pasanganmemiliki berkomitmen untuk membantu keuangan Proyek Infrastruktur Infrastruktur Pusat Data Masif di Openai di AS.

Kemudian, Altman mungkin merasa bahwa ia harus beberapa jam dari waktunya.

Apa yang dibicarakan oleh kedua miliarder? Banyak karya abstrak melalui “agen” AI, dengan laporan kedua. Son mengatakan bahwa perusahaan mereka akan menghabiskan $ 3 miliar per tahun untuk produk operai dan akan bergabung dengan Openai untuk mengembangkan platform, “Cristal [sic] Kecerdasan “, dengan tujuan mengotomatiskan jutaan alur kerja kerah putih tradisional.

“Dengan mengotomatiskan dan mengotonominya semua pekerjaan dan alur kerjanya, SoftBank Corp akan mengubah bisnis dan layanannya, dan menciptakan nilai baru,” kata SoftBank dalam a Pernyataan pers pada hari Senin.

Namun, saya bertanya apa pendapat pekerja yang rendah hati tentang semua otomasi dan otonomi ini.

Sebagai Sebastian Siestkowski, CEO Fintech Klarna, yang sering kali Itu membanggakan AI menggantikan manusiaMereka adalah pendapat bahwa pengganti agen untuk pekerja hanya dapat memicu kekayaan yang luar biasa. Diposkan adalah biaya kelimpahan. Haruskah otomatisasi pekerjaan umum? Pengangguran besar sepertinya paling mungkin.

Sangat mengecewakan bahwa mereka yang berada di garis depan perlombaan AI, perusahaan seperti OpenAi dan investor seperti SoftBank, memilih untuk menghabiskan konferensi pers melukis citra perusahaan otomatis dengan lebih sedikit pekerja di daftar gaji. Mereka adalah bisnis, tentu saja, bukan organisasi yang menguntungkan. Dan pengembangan AI tidak murah. Tapi mungkin orang Saya akan mempercayai AI Jika mereka yang memandu penyebaran mereka menunjukkan sedikit lebih banyak kekhawatiran tentang kesejahteraan mereka.

Makanan untuk dipikirkan.

Berita

Penelitian mendalam: Operai telah meluncurkan “agen” baru yang dirancang untuk membantu orang melakukan investigasi dalam dan kompleks menggunakan ChatGPT, platform chatbot perusahaan.

O3-Mini: Dalam berita opera lainnya, perusahaan meluncurkan model “penalaran” AI, O3-Mini baru, setelah pandangan sebelumnya Desember lalu. Ini bukan model Openai yang paling kuat, tetapi O3-Mini memiliki kecepatan dan kecepatan respons yang lebih baik.

UE melarang AI yang berisiko: Sampai hari Minggu di Uni Eropa, blokir regulator dapat melarang penggunaan sistem AI yang mereka pertimbangkan untuk meningkatkan “risiko yang tidak dapat diterima” atau kerusakan. Itu termasuk AI yang digunakan untuk skor sosial dan iklan bawah sadar.

A Work oleh AI “Doomers”: Ada permainan baru tentang budaya “doomer” AI, berdasarkan secara bebas Yang dikeluarkan dari Sam Altman sebagai CEO Openai Pada bulan November 2023. Rekan -rekan saya Dominic dan Rebecca membagikan pemikiran mereka setelah melihat pemutaran perdana.

Teknologi untuk meningkatkan hasil panen: X “Monshot Factory” dari Google mengumumkan minggu ini lulusan terakhirnya. Pertanian yang dapat diwariskan Ini adalah startup yang dipromosikan oleh pembelajaran data dan mesin dengan tujuan meningkatkan cara tanaman ditanam.

Dokumen Penelitian Minggu Ini

Model penalaran lebih baik daripada AI rata -rata mereka untuk menyelesaikan masalah, terutama konsultasi yang berkaitan dengan sains dan matematika. Tapi mereka bukan peluru perak.

KE Studi baru para peneliti dari perusahaan Cina Tencent Selidiki topik “lebih rendah” dalam model penalaran, di mana model -model sebelum waktunya, tidak dapat dijelaskan meninggalkan rantai pemikiran yang berpotensi menjanjikan. Menurut hasil penelitian, pola “pemikiran yang mendasari” cenderung terjadi lebih sering dengan masalah yang lebih sulit, yang mengarah pada model untuk berubah antara rantai penalaran tanpa mencapai jawaban.

Tim mengusulkan solusi yang menggunakan “hukuman perubahan pemikiran” untuk mendorong model untuk mengembangkan “sepenuhnya” setiap garis penalaran sebelum mempertimbangkan alternatif, yang meningkatkan keakuratan model.

Model minggu

Kredit gambar:Yue

Sebuah tim peneliti yang didukung oleh pemilik Tiktok Bytedance, perusahaan Cina dari The Monchot dan lainnya menerbitkan model terbuka baru yang mampu menghasilkan musik yang relatif berkualitas tinggi dari indikasi.

Model, disebut YueAnda dapat menghasilkan lagu hingga beberapa menit dengan panjang penuh dengan suara dan trek cadangan. Ini berada di bawah lisensi Apache 2.0, yang berarti bahwa model dapat digunakan secara komersial tanpa batasan.

Namun, ada ketidaknyamanan. Berlari dan membutuhkan GPU yang kuat; Hasilkan lagu 30 -detik telah dengan NVIDIA RTX 4090. Selain itu, tidak jelas apakah model tersebut dilatih menggunakan data hak cipta; Penciptanya belum mengatakannya. Jika ternyata lagu -lagu dengan hak cipta benar -benar dalam set pelatihan model, pengguna dapat menghadapi tantangan IP di masa depan.

Tas pegangan

Klasifikasi Konstitusi
Kredit gambar:Antropik

AI Lab Anthrope menyatakan bahwa ia telah mengembangkan teknik untuk membela diri lebih andal terhadap “jailbreak”, metode yang dapat digunakan untuk menghindari langkah -langkah keamanan sistem AI.

Tekniknya, Klasifikasi KonstitusiIni didasarkan pada dua set model “classifier” AI: classifier “pintu masuk” dan classifier “output”. Klasifikasi input menambahkan indikasi pada model perlindungan dengan templat yang menggambarkan jailbreak dan konten lainnya tidak diizinkan, sementara classifier output menghitung probabilitas bahwa respons dari model membahas informasi berbahaya.

Anthrope mengatakan bahwa pengklasifikasi konstitusional dapat menyaring “mayoritas besar” dari jailbreak. Namun, ia memiliki biaya. Setiap konsultasi 25% lebih menuntut secara komputasi, dan model perlindungan memiliki 0,38% lebih kecil kemungkinannya untuk menjawab pertanyaan berbahaya.

Sumber