


Di sebalik model AI yang besar, terdapat pelepasan karbon yang mengejutkan
Memandangkan model bahasa berskala besar seperti ChatGPT menjadi sensasi global, beberapa orang menyedari bahawa latihan dan menjalankan model bahasa berskala besar menghasilkan pelepasan karbon yang mengejutkan.
Walaupun OpenAI mahupun Google tidak menyatakan berapakah kos pengiraan produk masing-masing, menurut penyelidik pihak ketiga Menurut analisis, bahagian ChatGPT dalam latihan itu menggunakan 1,287 megawatt jam dan menghasilkan lebih daripada 550 tan pelepasan karbon dioksida, yang bersamaan dengan seseorang yang berulang-alik antara New York dan San Francisco sebanyak 550 kali.
Malah, ini hanya pelepasan semasa latihan Lebih banyak karbon dioksida akan dikeluarkan apabila model besar AI sedang dijalankan.
Martin Bouchard, pengasas bersama syarikat pusat data Kanada QScale, percaya bahawa untuk memenuhi keperluan pengguna enjin carian yang semakin meningkat, Microsoft dan Google telah menambah AI generatif seperti ChatGPT kepada carian, yang akan membawa kepada Setiap carian meningkatkan usaha pengiraan sekurang-kurangnya 4 hingga 5 kali ganda.
Jika anda perlu melatih semula model dengan kerap dan menambah lebih banyak parameter, skala pengiraan akan berbeza sama sekali.
Menurut Agensi Tenaga Antarabangsa, pelepasan gas rumah hijau daripada pusat data sudah menyumbang kira-kira 1% daripada pelepasan gas rumah hijau global.
Jumlah ini dijangka meningkat apabila model AI yang besar dan permintaan untuk pengkomputeran awan berkembang.
Model besar AI menjadi sumber penting pelepasan karbon.
1 Mengurangkan pelepasan karbon model AI yang besar
Proses latihan dan operasi model AI menggunakan banyak tenaga, tetapi isu utama ialah bagaimana untuk mengetahui dan mengukur mesin tunggal Berapa banyak pelepasan gas rumah hijau yang dihasilkan oleh eksperimen pembelajaran, dan berapa banyak yang boleh dikurangkan?
Pada masa ini, saintis data masih tidak dapat memperoleh hasil pengukuran dengan mudah dan pasti dalam bidang ini, yang turut menghalang pembangunan lanjut strategi tindak balas yang boleh dilaksanakan.
Sebagai tindak balas kepada masalah ini, Google menerbitkan kajian yang memperincikan kos tenaga model bahasa terkini, termasuk versi awal dan lebih besar LaMDA.
Hasil penyelidikan menunjukkan bahawa menggabungkan model, pemproses dan pusat data yang cekap dengan tenaga bersih boleh mengurangkan jejak karbon sistem pembelajaran mesin sebanyak 1,000 kali ganda.
Pasukan mencadangkan empat kaedah asas untuk mengurangkan kesan karbon (dan tenaga) beban kerja pembelajaran mesin dengan ketara, yang kini digunakan di Google dan sesiapa sahaja yang menggunakan perkhidmatan Google Cloud Boleh digunakan oleh sesiapa sahaja .
Amalan Terbaik Pengurangan Jejak Karbon dan Tenaga Google (4M) adalah seperti berikut:
- Model: Pilih yang cekap, kata penyelidik Seni bina model ML adalah penting kerana ia berpotensi untuk meningkatkan kualiti ML sambil memotong separuh masa pengiraan.
- Mesin: Menggunakan pemproses dan sistem yang direka khusus untuk latihan ML boleh meningkatkan prestasi dan kecekapan tenaga sebanyak 2x hingga 5x berbanding pemproses tujuan umum.
- Mekanisasi: Dalam kebanyakan kes, pusat data di premis lebih lama dan lebih kecil. Oleh itu, kos sistem penyejukan dan pengagihan kuasa cekap tenaga baharu tidak boleh dilunaskan.
Pusat data berasaskan awan ialah gudang baharu yang direka bentuk tersuai dengan ciri cekap tenaga yang boleh memuatkan 50,000 pelayan. Mereka menyediakan penggunaan kuasa yang sangat cekap (PUE).
Oleh itu, pengkomputeran dalam awan dan bukannya secara tempatan boleh menjimatkan tenaga 1.4-2 kali ganda dan mengurangkan pencemaran.
- Pengoptimuman: Awan membenarkan pelanggan memilih kawasan dengan tenaga paling bersih, dengan itu mengurangkan jumlah jejak karbon mereka sebanyak 5 hingga 10 kali ganda. Peningkatan beban ini sebahagian besarnya diimbangi oleh model yang dipertingkatkan berdasarkan 4M, perkakasan khusus pembelajaran mesin dan pusat data yang cekap.
Data Google menunjukkan bahawa latihan dan inferens pembelajaran mesin menyumbang hanya 10% hingga 15% daripada keseluruhan penggunaan tenaga Google sepanjang tiga tahun lalu, dengan 35% digunakan setiap tahun inferens, 25% digunakan untuk latihan.
Untuk mencari model pembelajaran mesin yang dipertingkatkan, Google menggunakan Carian Seni Bina Neural (NAS).
NAS biasanya dilakukan sekali sahaja bagi setiap kombinasi domain/ruang carian bermasalah, dan model yang terhasil kemudiannya boleh digunakan semula untuk beratus-ratus aplikasi, dengan kos sekali NAS biasanya digunakan secara berterusan diimbangi oleh pengurangan pelepasan.
Penyelidik menjalankan kajian untuk melatih model Transformer.
Untuk melakukan ini, mereka menggunakan GPU Nvidia P100 dalam pusat data biasa dengan campuran tenaga yang serupa dengan purata global, sambil menggunakan perkakasan ML generasi seterusnya seperti TPUv4, prestasi bertambah baik berbanding P100 14 kali.
Pada masa yang sama, pusat data awan yang cekap menjimatkan tenaga 1.4 kali ganda daripada pusat data biasa, sekali gus mengurangkan jumlah penggunaan tenaga sebanyak 83 kali.
Selain itu, pusat data yang dikuasakan oleh tenaga karbon rendah boleh mengurangkan pelepasan karbon sebanyak sembilan kali lagi, dengan jumlah pengurangan sebanyak 747 kali dalam tempoh empat tahun.
Pasukan Google percaya bahawa dalam bidang teknologi maklumat, kos kitaran hayat pembuatan peranti pengkomputeran pelbagai jenis dan saiz adalah jauh lebih tinggi daripada kos operasi pembelajaran mesin.
Anggaran kos pengeluaran pelepasan termasuk karbon terbenam yang dikeluarkan oleh pembuatan semua komponen yang berkaitan, daripada cip ke bangunan pusat data.
Sudah tentu, selain menggunakan pendekatan 4Ms, penyedia perkhidmatan dan pengguna juga boleh mengambil langkah mudah untuk meningkatkan prestasi jejak karbon mereka, seperti:
Pelanggan harus menganalisis dan mengurangkan penggunaan tenaga dan jejak karbon mereka dengan meminta pembekal pusat data melaporkan kecekapan pusat data dan kebersihan bekalan tenaga untuk setiap lokasi.
Jurutera harus melatih model tentang pemproses terpantas di pusat data paling hijau, yang semakin banyak di awan.
Penyelidik pembelajaran mesin harus menumpukan pada mereka bentuk model yang lebih cekap, seperti mengambil kesempatan daripada jarang atau termasuk mendapatkan semula untuk mengurangkan model.
Selain itu, mereka harus melaporkan penggunaan tenaga dan kesan karbon mereka. Ini bukan sahaja akan menggalakkan persaingan di luar kualiti model, tetapi ia juga akan memastikan kerja mereka diambil kira dengan betul.
2. AI membantu mengurangkan pelepasan karbon
Walaupun model besar AI adalah pemancar karbon yang besar, teknologi canggih yang diwakili oleh AI juga menyumbang kepada mengurangkan pelepasan karbon. Buat sumbangan.
Kajian yang dijalankan bersama oleh Baidu dan agensi perunding IDC (International Data Corporation) menunjukkan bahawa sumbangan teknologi berkaitan AI kepada pengurangan karbon akan meningkat dari tahun ke tahun, mencecah sekurang-kurangnya 70 % menjelang 2060 , jumlah pengurangan karbon dijangka melebihi 35 bilion tan.
Mengambil industri pengangkutan sebagai contoh, pelepasan karbon industri pengangkutan China pada 2020 dianggarkan sebanyak 1.04 bilion tan, menyumbang 9% daripada jumlah pelepasan negara.
Dalam proses memacu industri pengangkutan untuk mengurangkan pelepasan karbon, penggunaan teknologi pengangkutan pintar yang mengurangkan kesesakan berdasarkan kawalan maklumat pintar dapat meningkatkan kecekapan trafik persimpangan jalan bandar utama dengan berkesan .
Dari amalan semasa, kunci untuk memahami dan mencapai pengurangan pelepasan adalah untuk meramal dan memantau kesan pengurangan pelepasan, dan AI mempunyai fungsi meramalkan pelepasan dan memantau pelepasan dalam penjimatan tenaga dan pengurangan pelepasan, tiga aplikasi utama untuk mengurangkan pelepasan.
Menurut "White Paper on Carbon Neutral Industry Development", dari segi meramalkan pelepasan, AI boleh meramalkan pelepasan karbon masa hadapan berdasarkan usaha dan keperluan pengurangan pelepasan semasa, dan pada masa yang sama masa menentukan pelepasan karbon garis panduan lebih rendah.
Dari segi pemantauan pelepasan, AI boleh menjejaki data jejak karbon dalam masa nyata dan mengumpul data daripada semua aspek perolehan, pengeluaran, jualan, operasi dan penyelenggaraan, logistik, dsb., untuk meningkatkan ketepatan pemantauan.
Dari segi mengurangkan pelepasan, selepas AI mengumpul data daripada setiap pautan, ia boleh mengoptimumkan dan melaraskan aliran kerja setiap pautan dari perspektif global.
Malah, AI telah digunakan dalam banyak bidang domestik untuk membantu mengurangkan pelepasan karbon.
Dalam bidang tenaga baharu, masalah yang ketara terletak pada sifat turun naik, rawak dan terputus-putusnya.
Gunakan teknologi AI yang digabungkan dengan pengiraan simulasi untuk meramalkan ketidakstabilan angin dan kuasa fotovoltaik, seperti: menggabungkan kelajuan angin, arah angin, keamatan cahaya dan ciri meteorologi semula jadi yang lain untuk meramal masa depan dengan munasabah ramalan penjanaan kuasa, mengeluarkan pelan penjanaan kuasa yang lebih tepat kepada grid kuasa, dan melindungi ketidakpastian dan ketidakstabilan sumber tenaga baharu di bawah lapisan teknikal.
Untuk contoh lain, bidang kuasa Kumpulan Air termasuk air mentah, pengeluaran air, bekalan air, saliran, kumbahan, pemuliharaan air, dll.
Ambil bekalan air kediaman sebagai contoh Jika tekanan air terlalu tinggi, ia akan memerlukan tenaga yang banyak dan kadar kebocoran rangkaian paip akan menjadi tinggi, yang mungkin menyebabkan. letupan paip; jika tekanan air terlalu rendah, ia boleh menyebabkan letupan paip Ia akan menyebabkan ketidakselesaan bagi penduduk untuk menggunakan air.
Untuk menyelesaikan masalah ini, kumpulan air menggunakan sensor perkakasan di bawah tanah untuk memantau tekanan air dan membina otak air atas premis memastikan bekalan air yang selamat dan stabil, teknologi AI boleh mencapai kecerdasan kawalan peraturan voltan dan pengoptimuman penggunaan tenaga.
Bukan itu sahaja, teknologi pengurangan karbon AI juga digunakan dalam senario perniagaan dengan penggunaan tenaga yang tinggi seperti loji kuasa, taman dan pusat data untuk meramal dan mengawal keperluan elektrik pengeluaran mereka dengan tepat. Optimumkan peralatan yang menggunakan kuasa dan jejak karbon.
3. Kesimpulan
Kemajuan teknologi AI telah membawa banyak kemudahan kepada manusia, tetapi kita juga harus memberi perhatian kepada isu alam sekitar semasa pembangunan.
Bagaimana AI boleh mencapai pembangunan mampan pada masa hadapan dan bagaimana AI boleh menyokong perubahan dengan lebih baik dalam bidang dwi-karbon masih menjadi isu yang perlu diselesaikan oleh semua industri.
Atas ialah kandungan terperinci Di sebalik model AI yang besar, terdapat pelepasan karbon yang mengejutkan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas











DALL-E 3 telah diperkenalkan secara rasmi pada September 2023 sebagai model yang jauh lebih baik daripada pendahulunya. Ia dianggap sebagai salah satu penjana imej AI terbaik setakat ini, mampu mencipta imej dengan perincian yang rumit. Walau bagaimanapun, semasa pelancaran, ia adalah tidak termasuk

Laman web ini melaporkan pada 27 Jun bahawa Jianying ialah perisian penyuntingan video yang dibangunkan oleh FaceMeng Technology, anak syarikat ByteDance Ia bergantung pada platform Douyin dan pada asasnya menghasilkan kandungan video pendek untuk pengguna platform tersebut Windows , MacOS dan sistem pengendalian lain. Jianying secara rasmi mengumumkan peningkatan sistem keahliannya dan melancarkan SVIP baharu, yang merangkumi pelbagai teknologi hitam AI, seperti terjemahan pintar, penonjolan pintar, pembungkusan pintar, sintesis manusia digital, dsb. Dari segi harga, yuran bulanan untuk keratan SVIP ialah 79 yuan, yuran tahunan ialah 599 yuan (nota di laman web ini: bersamaan dengan 49.9 yuan sebulan), langganan bulanan berterusan ialah 59 yuan sebulan, dan langganan tahunan berterusan ialah 499 yuan setahun (bersamaan dengan 41.6 yuan sebulan) . Di samping itu, pegawai yang dipotong juga menyatakan bahawa untuk meningkatkan pengalaman pengguna, mereka yang telah melanggan VIP asal

Model Bahasa Besar (LLM) dilatih pada pangkalan data teks yang besar, di mana mereka memperoleh sejumlah besar pengetahuan dunia sebenar. Pengetahuan ini dibenamkan ke dalam parameter mereka dan kemudiannya boleh digunakan apabila diperlukan. Pengetahuan tentang model ini "diperbaharui" pada akhir latihan. Pada akhir pra-latihan, model sebenarnya berhenti belajar. Selaraskan atau perhalusi model untuk mempelajari cara memanfaatkan pengetahuan ini dan bertindak balas dengan lebih semula jadi kepada soalan pengguna. Tetapi kadangkala pengetahuan model tidak mencukupi, dan walaupun model boleh mengakses kandungan luaran melalui RAG, ia dianggap berfaedah untuk menyesuaikan model kepada domain baharu melalui penalaan halus. Penalaan halus ini dilakukan menggunakan input daripada anotasi manusia atau ciptaan LLM lain, di mana model menemui pengetahuan dunia sebenar tambahan dan menyepadukannya

Editor |ScienceAI Question Answering (QA) set data memainkan peranan penting dalam mempromosikan penyelidikan pemprosesan bahasa semula jadi (NLP). Set data QA berkualiti tinggi bukan sahaja boleh digunakan untuk memperhalusi model, tetapi juga menilai dengan berkesan keupayaan model bahasa besar (LLM), terutamanya keupayaan untuk memahami dan menaakul tentang pengetahuan saintifik. Walaupun pada masa ini terdapat banyak set data QA saintifik yang meliputi bidang perubatan, kimia, biologi dan bidang lain, set data ini masih mempunyai beberapa kekurangan. Pertama, borang data adalah agak mudah, kebanyakannya adalah soalan aneka pilihan. Ia mudah dinilai, tetapi mengehadkan julat pemilihan jawapan model dan tidak dapat menguji sepenuhnya keupayaan model untuk menjawab soalan saintifik. Sebaliknya, Soal Jawab terbuka

Editor |. KX Dalam bidang penyelidikan dan pembangunan ubat, meramalkan pertalian pengikatan protein dan ligan dengan tepat dan berkesan adalah penting untuk pemeriksaan dan pengoptimuman ubat. Walau bagaimanapun, kajian semasa tidak mengambil kira peranan penting maklumat permukaan molekul dalam interaksi protein-ligan. Berdasarkan ini, penyelidik dari Universiti Xiamen mencadangkan rangka kerja pengekstrakan ciri berbilang mod (MFE) novel, yang buat pertama kalinya menggabungkan maklumat mengenai permukaan protein, struktur dan jujukan 3D, dan menggunakan mekanisme perhatian silang untuk membandingkan ciri modaliti yang berbeza penjajaran. Keputusan eksperimen menunjukkan bahawa kaedah ini mencapai prestasi terkini dalam meramalkan pertalian mengikat protein-ligan. Tambahan pula, kajian ablasi menunjukkan keberkesanan dan keperluan maklumat permukaan protein dan penjajaran ciri multimodal dalam rangka kerja ini. Penyelidikan berkaitan bermula dengan "S

Menurut berita dari laman web ini pada 1 Ogos, SK Hynix mengeluarkan catatan blog hari ini (1 Ogos), mengumumkan bahawa ia akan menghadiri Global Semiconductor Memory Summit FMS2024 yang akan diadakan di Santa Clara, California, Amerika Syarikat dari 6 hingga 8 Ogos, mempamerkan banyak produk penjanaan teknologi baru. Pengenalan kepada Sidang Kemuncak Memori dan Penyimpanan Masa Depan (FutureMemoryandStorage), dahulunya Sidang Kemuncak Memori Flash (FlashMemorySummit) terutamanya untuk pembekal NAND, dalam konteks peningkatan perhatian kepada teknologi kecerdasan buatan, tahun ini dinamakan semula sebagai Sidang Kemuncak Memori dan Penyimpanan Masa Depan (FutureMemoryandStorage) kepada jemput vendor DRAM dan storan serta ramai lagi pemain. Produk baharu SK hynix dilancarkan tahun lepas

Dalam dunia pembangunan bahagian hadapan, VSCode telah menjadi alat pilihan untuk banyak pembangun dengan fungsi yang berkuasa dan ekosistem pemalam yang kaya. Dalam beberapa tahun kebelakangan ini, dengan perkembangan pesat teknologi kecerdasan buatan, pembantu kod AI pada VSCode telah muncul, meningkatkan kecekapan pengekodan pembangun. Pembantu kod AI pada VSCode telah muncul seperti cendawan selepas hujan, meningkatkan kecekapan pengekodan pembangun. Ia menggunakan teknologi kecerdasan buatan untuk menganalisis kod secara bijak dan menyediakan penyiapan kod yang tepat, pembetulan ralat automatik, semakan tatabahasa dan fungsi lain, yang mengurangkan kesilapan pembangun dan kerja manual yang membosankan semasa proses pengekodan. Hari ini, saya akan mengesyorkan 12 pembantu kod AI pembangunan bahagian hadapan VSCode untuk membantu anda dalam perjalanan pengaturcaraan anda.

Menurut berita dari laman web ini pada 5 Julai, GlobalFoundries mengeluarkan kenyataan akhbar pada 1 Julai tahun ini, mengumumkan pemerolehan teknologi power gallium nitride (GaN) Tagore Technology dan portfolio harta intelek, dengan harapan dapat mengembangkan bahagian pasarannya dalam kereta dan Internet of Things dan kawasan aplikasi pusat data kecerdasan buatan untuk meneroka kecekapan yang lebih tinggi dan prestasi yang lebih baik. Memandangkan teknologi seperti AI generatif terus berkembang dalam dunia digital, galium nitrida (GaN) telah menjadi penyelesaian utama untuk pengurusan kuasa yang mampan dan cekap, terutamanya dalam pusat data. Laman web ini memetik pengumuman rasmi bahawa semasa pengambilalihan ini, pasukan kejuruteraan Tagore Technology akan menyertai GLOBALFOUNDRIES untuk membangunkan lagi teknologi gallium nitride. G
