Semakin tepat kami mencoba membuat model AI, semakin besar jejak karbonnya, dengan beberapa indikasi yang menghasilkan emisi karbon dioksida hingga 50 kali lebih banyak daripada yang lain, telah mengungkapkan studi baru.
Model penalaran, seperti Claude de Anthrope, O3 O3 dan Deepseek’s R1, adalah model bahasa khusus bahasa besar yang menghabiskan lebih banyak waktu dan kekuatan komputer untuk menghasilkan jawaban yang lebih tepat dari pendahulunya.
Namun, terlepas dari beberapa hasil yang mengesankan, telah ditunjukkan bahwa model -model ini menghadap berat batasan dalam kemampuannya untuk menguraikan masalah yang kompleks. Sekarang, tim peneliti telah menyoroti pembatasan lain pada kinerja model: jejak karbon selangit. Mereka menerbitkan temuan mereka pada 19 Juni di majalah Perbatasan dalam Komunikasi.
“Dampak lingkungan dari LLM yang dilatih yang dipertanyakan sangat ditentukan oleh pendekatan penalarannya, dengan proses penalaran eksplisit yang secara signifikan meningkatkan konsumsi energi dan emisi karbon”, penulis pertama studi studi studi studi ini Dauner EstimilianoPeneliti di Universitas Ilmu Terapan Hochschule München di Jerman, kata dalam sebuah pernyataan. “Kami menemukan bahwa model yang diaktifkan untuk penalaran menghasilkan hingga 50 kali lebih banyak emisi CO₂ daripada model respons singkat.”
Untuk menanggapi indikasi yang diberikan, LLM melanggar bahasa dalam token: fragmen kata yang menjadi rantai angka sebelum diberi makan dalam jaringan saraf. Jaringan neuronal ini disetel menggunakan data pelatihan yang menghitung probabilitas yang muncul oleh pola tertentu. Kemudian mereka menggunakan peluang ini untuk menghasilkan jawaban.
Model penalaran mencoba meningkatkan presisi menggunakan proses yang dikenal sebagai “rantai pemikiran”. Ini adalah teknik yang bekerja dengan menguraikan masalah kompleks dalam langkah perantara yang lebih kecil dan dapat dicerna yang mengikuti aliran logis, meniru bagaimana manusia dapat menyimpulkan masalah yang sama.
Terkait: Ai ‘hallucina’ terus -menerus, tetapi ada solusi
Namun, model ini memiliki tuntutan energi yang jauh lebih tinggi bahwa LLM konvensional, yang menimbulkan kemungkinan kemacetan ekonomi bagi perusahaan dan pengguna yang ingin mengimplementasikannya. Namun, terlepas dari beberapa Penelitian tentang Dampak Lingkungan Dari meningkatnya adopsi secara umum, perbandingan antara jejak karbon dari model yang berbeda tetap relatif jarang.
Biaya penalaran
Untuk memeriksa emisi CO₂ yang diproduksi oleh model yang berbeda, para ilmuwan di balik penelitian baru ini melakukan 14 LLMS 1.000 pertanyaan tentang berbagai topik. Model yang berbeda memiliki antara 7 dan 72 miliar parameter.
Perhitungan dibuat menggunakan bingkai Perun (yang menganalisis kinerja LLM dan energi yang dibutuhkannya) dalam GPU NVIDIA A100. Kemudian, tim mengubah penggunaan energi menjadi co₂ dengan asumsi bahwa setiap kilowatt-energi menghasilkan energi 480 gram CO₂.
Hasil mereka menunjukkan bahwa, rata -rata, model penalaran menghasilkan 543,5 token per pertanyaan dibandingkan dengan hanya 37,7 token untuk model yang lebih ringkas. Token tambahan ini, yang setara dengan lebih banyak perhitungan, berarti bahwa model penalaran yang paling tepat menghasilkan lebih banyak CO₂.
Model yang paling tepat adalah model Cogito parameter 7200 miliar, yang dengan benar menjawab 84,9% dari pertanyaan referensi. Cogito diluncurkan tiga kali emisi CO₂ dari model ukuran yang sama yang dibuat untuk menghasilkan tanggapan lebih ringkas.
“Saat ini, kami melihat kompensasi yang jelas untuk keberlanjutan presisi yang melekat pada teknologi LLM,” kata Dauner. “Tidak ada model yang mempertahankan emisi di bawah 500 gram setara co₂ [total greenhouse gases released] Dia mencapai presisi lebih dari 80% untuk menjawab 1.000 pertanyaan dengan benar. “
Tetapi masalahnya melampaui presisi. Pertanyaan yang membutuhkan waktu penalaran yang lebih lama, seperti dalam aljabar atau filsafat, membuat emisi meningkat enam kali lebih tinggi dari konsultasi pencarian langsung.
Perhitungan peneliti juga menunjukkan bahwa emisi tergantung pada model yang dipilih. Untuk menjawab 60.000 pertanyaan, model parameter DePeeek R1 akan menghasilkan CO₂ yang dikeluarkan oleh perjalanan pulang pergi antara New York dan London. Namun, model 72 miliar parameter Alibaba Cloud Qwen 2.5 dapat menjawabnya dengan tingkat presisi yang sama untuk sepertiga dari emisi.
Temuan penelitian tidak pasti; Emisi dapat bervariasi sesuai dengan perangkat keras yang digunakan dan jaringan energi yang digunakan untuk memasok energi mereka, para peneliti menekankan. Tetapi mereka harus membuat pengguna AI berpikir sebelum menerapkan teknologi, kata para peneliti.
“Jika pengguna mengetahui biaya yang tepat dari output mereka yang dihasilkan oleh AI, seperti menjadi santai sebagai figur aksi, mereka bisa lebih selektif dan reflektif tentang kapan dan bagaimana mereka menggunakan teknologi ini,” kata Dauner.