Breaking News

Amazon meningkatkan upayanya untuk membangun chip AI yang dapat menyaingi Nvidia

Amazon meningkatkan upayanya untuk membangun chip AI yang dapat menyaingi Nvidia

Amazon siap meluncurkan chip kecerdasan buatan terbarunya seiring dengan upaya grup Big Tech untuk mewujudkan pengembalian investasi semikonduktor bernilai miliaran dolar dan mengurangi ketergantungannya pada pemimpin pasar Nvidia.

Para eksekutif di divisi komputasi awan Amazon menghabiskan banyak uang untuk membeli chip khusus dengan harapan meningkatkan efisiensi di lusinan pusat datanya dan pada akhirnya mengurangi biaya mereka sendiri dan biaya lainnya. Layanan Web Amazon‘ pelanggan.

Upaya ini dipimpin oleh Annapurna Labs, sebuah startup chip Israel yang diakuisisi Amazon pada awal tahun 2015 seharga $350 juta, dan beroperasi di Austin.

Karya terbaru Annapurna diperkirakan akan dipamerkan bulan depan ketika Amazon mengumumkan ketersediaan Trainium 2 secara luas, bagian dari rangkaian AI. kentang goreng dimaksudkan untuk melatih model terbesar.

Trainium 2 sudah diuji oleh Anthropic, pesaing OpenAI yang telah mengumpulkan dukungan sebesar $4 miliar dari Amazon, serta Databricks, Deutsche Telekom, dan Ricoh dan Stockmark dari Jepang.

Tujuan AWS dan Annapurna adalah untuk menghadapi Nvidia, salah satu perusahaan paling berharga di dunia berkat perusahaannya domain dari pasar prosesor AI.

“Kami ingin menjadi tempat terbaik untuk menjalankan Nvidia,” kata Dave Brown, wakil presiden layanan komputasi dan jaringan di AWS. “Tetapi pada saat yang sama kami pikir adalah hal yang sehat untuk memiliki alternatif lain.” Amazon mengatakan Inferentia, lini chip AI khusus lainnya, sudah 40 persen lebih murah untuk dijalankan guna menghasilkan respons dari model AI.

Gadi Hutt, direktur senior pengembangan bisnis, dengan chip Trainium

“Harganya [of cloud computing] angkanya cenderung jauh lebih tinggi dalam hal pembelajaran mesin dan kecerdasan buatan,” kata Brown. “Bila Anda menghemat 40 persen dari $1.000, hal itu tidak akan terlalu memengaruhi pilihan Anda. Namun ketika Anda menghemat 40 persen dari puluhan juta dolar, itulah yang terjadi.”

Amazon kini memperkirakan belanja modal sekitar $75 miliar pada tahun 2024, sebagian besar untuk infrastruktur teknologi. Mengenai laporan pendapatan terbaru perusahaan, CEO Andy Jassy mengatakan dia memperkirakan perusahaan akan membelanjakan lebih banyak lagi pada tahun 2025.

Jumlah ini merupakan peningkatan dari tahun 2023, yang menghabiskan $48,4 miliar sepanjang tahun. Penyedia cloud terbesar, termasuk Microsoft dan Google, sedang melakukan belanja AI yang tidak menunjukkan tanda-tanda melambat.

Amazon, Microsoft, dan Meta adalah pelanggan besar Nvidia, namun mereka juga merancang chip pusat data mereka sendiri untuk meletakkan dasar bagi apa yang mereka harapkan akan menjadi gelombang pertumbuhan AI.

“Masing-masing penyedia cloud besar bergerak dengan tergesa-gesa menuju situasi yang lebih vertikal dan, jika mungkin, homogen dan terintegrasi. [chip technology] tumpukan,” kata Daniel Newman dari The Futurum Group.

“Semua orang mulai dari OpenAI hingga Apple ingin membuat chip mereka sendiri,” kata Newman, seiring mereka mencari “biaya produksi yang lebih rendah, margin yang lebih tinggi, ketersediaan yang lebih tinggi, dan kontrol yang lebih besar.”

“Yang mana yang tidak [just] “Ini bukan tentang chip, ini tentang keseluruhan sistem,” kata Rami Sinno, direktur teknik di Annapurna dan veteran SoftBank Arm dan Intel.

Untuk infrastruktur AI Amazon, hal ini berarti membangun segalanya dari awal, mulai dari wafer silikon hingga rak server yang sesuai, semuanya didukung oleh perangkat lunak dan arsitektur milik Amazon. “Sangat sulit untuk melakukan apa yang kami lakukan dalam skala besar. Tidak banyak perusahaan yang bisa melakukannya,” kata Sinno.

Setelah mulai membangun chip keamanan untuk AWS yang disebut Nitro, Annapurna telah mengembangkan beberapa generasi Graviton, unit pemrosesan pusat berbasis Arm yang menyediakan alternatif berdaya rendah dibandingkan server tradisional yang disediakan oleh Intel atau AMD.

“Keuntungan besar AWS adalah chipnya dapat mengonsumsi lebih sedikit daya dan pusat datanya mungkin bisa sedikit lebih efisien,” sehingga mengurangi biaya, kata G Dan Hutcheson, analis di TechInsights. Jika unit pemrosesan grafis Nvidia adalah alat serba guna yang kuat (dalam istilah otomotif, seperti truk atau station wagon), Amazon dapat mengoptimalkan chipnya untuk tugas dan layanan tertentu, seperti mobil kompak atau hatchback, katanya.

Namun, AWS dan Annapurna hampir tidak mempengaruhi dominasi Nvidia dalam infrastruktur AI.

Nvidia melaporkan pendapatan sebesar $26,3 miliar dari penjualan chip pusat data AI pada kuartal kedua fiskal tahun 2024. Angka tersebut sama dengan yang diumumkan Amazon untuk seluruh divisi AWS pada kuartal kedua fiskalnya, yang hanya mencakup sebagian kecil saja. kepada pelanggan yang menjalankan beban kerja AI pada infrastruktur Annapurna, menurut Hutcheson.

Mengenai kinerja mentah chip AWS dibandingkan dengan Nvidia, Amazon menghindari perbandingan langsung dan tidak menguji kinerja chipnya secara independen.

“Tolok ukur bagus untuk itu, ‘hei, haruskah saya mempertimbangkan chip ini?'” kata Patrick Moorhead, konsultan chip di Moor Insights & Strategy, namun ujian sesungguhnya adalah ketika chip ini ditempatkan “di beberapa rak bersama-sama sebagai satu armada”. ”.

Moorhead mengatakan dia yakin bahwa klaim Amazon tentang peningkatan kinerja empat kali lipat antara Trainium 1 dan Trainium 2 adalah akurat, setelah memeriksa perusahaan tersebut selama bertahun-tahun. Namun angka kinerja mungkin tidak terlalu berarti dibandingkan sekadar menawarkan lebih banyak pilihan kepada pelanggan.

“Masyarakat mengapresiasi segala inovasi yang dibawakan Nvidia, namun tidak ada yang nyaman dengan pangsa pasar Nvidia yang mencapai 90 persen,” imbuhnya. “Ini tidak akan bertahan lama.”

Artikel ini telah dimodifikasi untuk memperjelas asal dan lokasi Annapurna Labs.

Sumber