Halo teman-teman, selamat datang di buletin AI reguler TechCrunch. Jika Anda ingin ini masuk ke kotak masuk Anda setiap hari Rabu, Putuskan tautannya dan daftar di sini.
Minggu lalu, OpenAI diluncurkan Mode suara tingkat lanjut dengan penglihatanyang mentransmisikan video secara real time ke ObrolanGPTmemungkinkan chatbot untuk “melihat” melampaui batas lapisan aplikasinya. Premisnya adalah dengan memberikan kesadaran kontekstual yang lebih besar kepada ChatGPT, bot tersebut dapat merespons dengan cara yang lebih alami dan intuitif.
Tapi pertama kali saya mencobanya dia berbohong kepada saya.
“Sofa itu kelihatannya nyaman!” Kata ChatGPT sambil memegang ponselku dan meminta robot untuk mendeskripsikan ruang tamu kami. Saya salah mengira ottoman sebagai sofa.
“Kesalahanku!” Kata ChatGPT ketika saya mengoreksinya. “Yah, sepertinya masih ada tempat yang nyaman.”
Sudah hampir setahun sejak OpenAI pertama kali terbukti Mode suara tingkat lanjut dengan visi yang dimiliki perusahaan cenderung sebagai langkah menuju AI seperti yang digambarkan dalam film Spike Jonze “Her.” Seperti yang dijual oleh OpenAI, mode suara canggih dengan penglihatan akan memberikan kekuatan super ChatGPT, memungkinkan robot memecahkan sketsa soal matematika, membaca emosi, dan merespons. surat cinta.
Sudahkah Anda mencapai semua itu? Lebih kurang. Namun mode suara canggih dengan penglihatan belum memecahkan masalah terbesar ChatGPT: keandalan. Jika ada, fitur tersebut membuat robot halusinasi lebih jelas.
Pada satu titik, penasaran untuk melihat apakah Mode Ucapan Tingkat Lanjut dengan Vision dapat membantu ChatGPT menawarkan saran yang sedang tren, saya mengaktifkannya dan meminta ChatGPT untuk menilai kumpulan saran saya. Untungnya dia melakukannya. Namun meskipun robot memberikan opini tentang kombinasi jeans dan kemeja zaitun saya, saya selalu merindukan jaket coklat yang saya kenakan.
Saya bukan satu-satunya yang melakukan kesalahan.
Ketika Presiden OpenAI Greg Brockman memamerkan mode suara canggih dengan visi dalam “60 Menit” awal bulan ini, ChatGPT gagal dalam masalah geometri. Saat menghitung luas segitiga, salah diidentifikasi tinggi segitiga.
Jadi pertanyaan saya adalah: apa gunanya AI tipe “Dia” jika Anda tidak bisa mempercayainya?
Dengan setiap kerusakan ChatGPT, saya mendapati diri saya semakin tidak ingin merogoh saku, membuka kunci ponsel, meluncurkan ChatGPT, membuka Mode Suara Tingkat Lanjut, dan mengaktifkan Vision—serangkaian langkah yang paling rumit. Dengan pembawaannya yang cerah dan ceria, Mode Suara Tingkat Lanjut jelas dirancang untuk membangun kepercayaan. Ketika perusahaan tersebut tidak memenuhi janji yang tersirat, hal ini sangat mengejutkan dan mengecewakan.
Mungkin OpenAI suatu hari nanti dapat memecahkan masalah halusinasi untuk selamanya. Sampai saat itu tiba, kita terjebak dengan robot yang melihat dunia melalui kabel yang saling bersilangan. Dan sejujurnya, saya tidak yakin siapa yang menginginkan hal itu.
Berita
Pengiriman OpenAI selama 12 hari berlanjut: OpenAI akan merilis produk baru setiap hari hingga 20 Desember. ini dia ringkasan semua pengumuman, yang kami perbarui secara berkala.
YouTube Mengizinkan Pembuat Konten untuk Menyisih: YouTube memberikan lebih banyak pilihan kepada pembuat konten tentang bagaimana pihak ketiga dapat menggunakan konten mereka untuk melatih model AI mereka. Pembuat konten dan pemegang hak akan dapat menandai YouTube jika mereka mengizinkan perusahaan tertentu untuk melatih model dalam klip mereka.
Kacamata pintar meta menerima pembaruan: Kacamata pintar Ray-Ban Meta dari Meta telah diperoleh beberapa pembaruan baru yang didukung AItermasuk kemampuan untuk melakukan percakapan berkelanjutan dengan AI Meta dan menerjemahkan antar bahasa.
Tanggapan DeepMind terhadap Sora: Google DeepMind, laboratorium penelitian AI andalan Google, ingin mengalahkan OpenAI dalam permainan pembuatan video. Pada hari Senin, DeepMind mengumumkan Veo 2, AI generasi video generasi berikutnya yang dapat membuat klip berdurasi lebih dari dua menit pada resolusi hingga 4k (4096 x 2160 piksel).
Pelapor OpenAI Ditemukan Meninggal: Seorang mantan karyawan OpenAI, Suchir Balaji, baru-baru ini ditemukan tewas di apartemennya di San Francisco, menurut Kepala Pemeriksa Medis Kantor San Francisco. Pada bulan Oktober, peneliti AI berusia 26 tahun menyatakan keprihatinannya bahwa OpenAI melanggar undang-undang hak cipta ketika diwawancarai oleh The New York Times.
Grammarly mengakuisisi Coda: Grammarly, yang terkenal dengan alat pemeriksa ejaan dan gayanya, telah mengakuisisi startup produktivitas Coda dengan jumlah yang tidak diungkapkan. Sebagai bagian dari kesepakatan tersebut, CEO dan salah satu pendiri Coda Shishir Mehrotra akan menjadi CEO baru Grammarly.
Cohere bekerja dengan Palantir: TechCrunch secara eksklusif melaporkan bahwa Cohere, startup AI yang berfokus pada perusahaan senilai $5,5 miliar, memiliki kemitraan dengan perusahaan analisis data Palantir. Palantir berbicara secara terbuka tentang penutupannya, dan kadang-kadang kontroversial — bekerja dengan badan intelijen dan pertahanan AS.
Makalah penelitian minggu ini.
Anthropic telah membuka tirai pada Clio (“selAudi Yopandangan dan Ohbservations”), sebuah sistem yang digunakan perusahaan untuk memahami bagaimana pelanggan menggunakan berbagai model AI miliknya. Clio, yang dibandingkan dengan alat analisis seperti Google Trends, memberikan “wawasan berharga” untuk meningkatkan keamanan AI Anthropic, kata perusahaan itu.
Anthropic beralih ke Clio untuk mengumpulkan data penggunaan anonim, beberapa di antaranya dipublikasikan oleh perusahaan minggu lalu. Jadi untuk apa pelanggan menggunakan Anthropic AI? Beragam tugas, tetapi pengembangan aplikasi web dan seluler, pembuatan konten, dan penelitian akademis berada di urutan teratas. Seperti yang diharapkan, kasus penggunaan berbeda-beda menurut bahasa; Misalnya, penutur bahasa Jepang lebih cenderung meminta AI Anthropic untuk menganalisis anime dibandingkan penutur bahasa Spanyol.

model minggu ini
Rumah AI pika meluncurkan model generasi video generasi berikutnya, Pika 2yang dapat membuat klip dari karakter, objek, dan lokasi yang disediakan pengguna. Melalui platform Pika, pengguna dapat mengunggah beberapa referensi (misalnya, gambar ruang rapat dan pekerja kantor) dan Pika 2 akan “mengintuisi” peran setiap referensi sebelum menggabungkannya menjadi satu adegan.
Tentu saja, tidak ada model yang sempurna. Lihat “anime” di bawah ini yang dibuat oleh Pika 2, yang memiliki konsistensi yang mengesankan tetapi memiliki keanehan estetika yang ada di semua gambar generatif AI.
pic.twitter.com/3jWCy4659o Seperti yang saya katakan, anime akan menjadi genre pertama yang 100% dihasilkan oleh AI. Sungguh menakjubkan melihat apa yang bisa dilakukan dengan Pika 2.0.
— Gordito ♨️ (@kimmonismus) 16 Desember 2024
Namun, alat-alat tersebut berkembang dengan sangat cepat dalam domain video dan, pada tingkat yang sama, menarik minat dan meningkatkan kemarahan para kreatif.
ambil tas
The Future of Life Institute (FLI), organisasi nirlaba yang didirikan bersama oleh kosmolog MIT Max Tegmark, menerbitkan “Indeks Keamanan AI” yang dirancang untuk mengevaluasi praktik keselamatan perusahaan AI terkemuka di lima bidang utama: kerusakan saat ini, kerangka keamanan, dan kerangka kerja keamanan. eksistensial. strategi keamanan, tata kelola dan akuntabilitas, serta transparansi dan komunikasi.

Meta adalah kelompok terburuk yang dievaluasi dalam Indeks, dengan nilai keseluruhan F. (Indeks menggunakan sistem penilaian numerik berbasis IPK.) Antropik adalah yang terbaik, tetapi gagal menangani dirinya sendiri lebih baik daripada nilai C, sehingga menunjukkan masih ada ruang untuk perbaikan.