ChatgptPlatform chatbot Openai mungkin tidak haus akan kekuasaan seperti yang seharusnya. Tetapi nafsu makannya sangat tergantung pada bagaimana chatgpt digunakan dan model AI yang menanggapi konsultasi, menurut sebuah studi baru.
KE Analisis terbaru Dengan Epoch AI, sebuah nirlaba, AI Research Institute mencoba menghitung berapa banyak energi yang mengkonsumsi konsultasi chatgpt yang khas. KE Statistik yang umum dikutip Ini adalah chatgpt membutuhkan sekitar 3 watt energi untuk menjawab satu pertanyaan, atau 10 kali lebih banyak dari pencarian Google.
Epoch percaya itu adalah perkiraan yang terlalu tinggi.
Menggunakan model openai default terakhir untuk chatgpt, GPT-4OSebagai referensi, Epoch menemukan bahwa konsultasi rata-rata ChatGPT mengkonsumsi sekitar 0,3 watt-horas, kurang dari banyak peralatan.
“Penggunaan energi sebenarnya bukan masalah besar dibandingkan dengan penggunaan peralatan normal atau pemanasan atau pendinginan rumah Anda, atau mengendarai mobil,” kata Joshua kepada TechCrunch, analis data zaman, yang melakukan analisis.
Penggunaan energi AI, dan dampak lingkungannya, secara umum, tunduk pada perdebatan yang kontroversial, karena perusahaan AI berusaha untuk memperluas jejak infrastruktur mereka dengan cepat. Pekan lalu, sekelompok lebih dari 100 organisasi Memposting surat terbuka Meminta regulator industri dan AI untuk memastikan bahwa pusat data AI baru tidak menghabiskan sumber daya alam dan memaksa layanan publik untuk bergantung pada sumber energi yang tidak terbarukan.
Anda mengatakan kepada TechCrunch bahwa analisisnya dirangsang oleh apa yang dicirikan sebagai investigasi yang sudah ketinggalan zaman sebelumnya. Anda menunjukkan, misalnya, bahwa penulis laporan yang mencapai perkiraan 3 watt, seharusnya menggunakan chip lama dan kurang efisien untuk menjalankan model Anda.
“Saya telah melihat banyak pidato publik yang dengan benar mengakui bahwa AI akan mengkonsumsi banyak energi di tahun -tahun mendatang, tetapi pada kenyataannya saya tidak secara akurat menggambarkan energi yang akan terjadi hari ini,” katanya. “Selain itu, beberapa kolega saya memperhatikan bahwa estimasi 3 -watt yang paling banyak diinformasikan per konsultasi didasarkan pada penyelidikan yang cukup lama, dan berdasarkan pada beberapa Savines Matematika tampaknya terlalu tinggi.”
Menurut angka 0,3 watt zaman juga merupakan pendekatan; Operai belum menerbitkan detail yang diperlukan untuk membuat perhitungan yang tepat.
Analisis ini juga tidak mempertimbangkan biaya energi tambahan yang dikeluarkan oleh karakteristik chatgpt seperti generasi gambar atau pemrosesan input. Anda mengakui bahwa konsultasi chatgpt “input panjang”, konsultasi dengan lampiran file panjang, misalnya, Anda mungkin mengkonsumsi lebih banyak listrik di muka daripada pertanyaan khas.
Namun, Anda mengatakan Anda mengharapkan konsumsi energi dari baseline chatgpt meningkat.
“[The] AI akan lebih maju, pelatihan AI ini mungkin akan membutuhkan lebih banyak energi, dan masa depan ini dapat digunakan lebih intens, menangani lebih banyak tugas dan tugas yang lebih kompleks daripada cara orang menggunakan chatgpt hari ini, ”katanya .
Sementara sudah ada Kemajuan penting Dalam efisiensi AI dalam beberapa bulan terakhir, skala di mana perluasan infrastruktur energi yang sangat besar dan lapar diharapkan akan ditampilkan. Dalam dua tahun ke depan, pusat data IA mungkin membutuhkan hampir semua kapasitas energi 2022 di California (68 GW), Menurut laporan rand. Pada tahun 2030, pelatihan model perbatasan dapat menuntut daya daya yang setara dengan delapan reaktor nuklir (8 GW), laporan tersebut diprediksi.
ChatGPT hanya mencapai sejumlah besar orang, yang membuat server mereka menuntut sama besarnya. Operai, bersama dengan beberapa mitra investasi, rencana menghabiskan miliaran dolar untuk proyek pusat data AI baru Di tahun -tahun mendatang.
Perhatian Openai, bersama dengan industri AI lainnya, juga berubah menjadi model penalaran, yang umumnya lebih mampu dalam hal tugas yang dapat mereka lakukan tetapi membutuhkan lebih banyak ilmu komputer untuk dieksekusi. Tidak seperti model seperti GPT-4O, yang menanggapi konsultasi hampir secara instan, model penalaran “berpikir” selama beberapa detik sampai menit sebelum merespons, suatu proses yang menyerap lebih banyak komputasi dan, oleh karena itu, makanan.
“Model penalaran akan semakin mengambil tugas yang tidak bisa dilakukan oleh model tertua, dan akan menghasilkan lebih banyak [data] Untuk melakukannya, dan keduanya membutuhkan lebih banyak pusat data, ”katanya.
Operai telah mulai meluncurkan model penalaran yang lebih efisien seperti daya sebagai O3-Mini. Tetapi tampaknya tidak mungkin, setidaknya dalam situasi ini, bahwa keuntungan efisiensi mengimbangi permintaan energi yang lebih besar dari proses “pemikiran” dari model penalaran dan meningkatnya penggunaan AI di seluruh dunia.
Anda menyarankan agar orang -orang khawatir tentang jejak energi Anda untuk menggunakan aplikasi seperti chatgpt, atau memilih model yang meminimalkan ilmu komputer yang diperlukan, sampai tingkat realistis.
“Anda bisa mencoba menggunakan model AI yang lebih kecil seperti [OpenAI’s] GPT-4O-Mini, “katanya,” dan menggunakannya dengan cara yang membutuhkan pemrosesan atau menghasilkan banyak data. “