Mengira kos karbon bagi kecerdasan buatan
Jika anda sedang mencari topik yang menarik, Kepintaran Buatan (AI) tidak akan mengecewakan anda. Kecerdasan buatan merangkumi satu set algoritma statistik yang kuat dan membengkokkan minda yang boleh bermain catur, mentafsir tulisan tangan yang ceroboh, memahami pertuturan, mengklasifikasikan imej satelit dan banyak lagi. Ketersediaan set data gergasi untuk melatih model pembelajaran mesin telah menjadi salah satu faktor utama dalam kejayaan kecerdasan buatan. Tetapi semua kerja pengiraan ini tidak percuma. Sesetengah pakar AI semakin bimbang tentang kesan alam sekitar yang dikaitkan dengan membina algoritma baharu, perdebatan yang telah mendorong idea baharu tentang cara membuat mesin belajar dengan lebih cekap untuk mengurangkan jejak karbon AI.
Kembali ke Bumi
Untuk mendapatkan butirannya, pertama sekali kita perlu mempertimbangkan beribu-ribu pusat data (seluruh dunia) yang beroperasi 24/ 7 Kendalikan permintaan pengiraan kami. Bagi penyelidik AI, tugas ini termasuk melatih algoritma berbilang lapisan dengan berbilion elemen data (atau token—bit perkataan bersamaan dengan empat aksara atau kira-kira 3/4 perkataan dalam bahasa Inggeris). Usaha pengiraan yang terlibat adalah menakjubkan. Syarikat infrastruktur kecerdasan buatan Lambda menyediakan beberapa fakta menarik tentang GPT-3, model bahasa semula jadi OpenAI yang berkuasa untuk menjana teks seperti manusia. Menurut analisis Lambda, jika anda ingin melatih model parameter 175 bilion GPT-3 pada NVIDIA RTX 8000 tunggal, ia akan mengambil masa 665 tahun, yang mana ianya tidak mudah untuk digunakan dalam kad grafik.
Ringkasnya, lebih besar model, lebih baik prestasi pasukan Lambda menunjukkan bahawa saiz model bahasa terkini berkembang pada kadar 10 kali setiap tahun, yang membawa kita. kembali kepada pemahaman AI yang semakin meningkat tentang jejak karbon. Kembali ke pusat data, anda boleh menambah lebih banyak nombor pada perbincangan, sekurang-kurangnya pada tahap yang tinggi. Menurut anggaran Agensi Tenaga Antarabangsa (IEA), jumlah penggunaan elektrik pusat data di seluruh dunia adalah antara 200 dan 250 TWj. Untuk menjadikan nombor ini lebih mudah untuk digambarkan, dengan mengandaikan bahawa lokomotif dan kereta luncur menggunakan purata 2.5 kilowatt jam setiap kilometer perjalanan, 225 jam terawatt sudah cukup untuk membolehkan kereta api elektrik berkelajuan tinggi bergerak sejauh 9 juta kilometer. Walaupun hanya sebahagian (dalam pusat data) akan digunakan untuk melatih dan menjalankan model AI, sumber menunjukkan bahawa permintaan pengkomputeran untuk pembelajaran mesin dan latihan mengatasi pertumbuhan purata dalam aktiviti pusat data.
Pada ketika ini adalah adil untuk mengakui bahawa pusat data menjalankan tugas dengan baik dalam mengurus keperluan tenaga mereka – kebimbangan alam sekitar adalah pendorong, tetapi perlu dinyatakan bahawa kuasa adalah perbelanjaan operasi yang ketara, "Misi kritikal" kepada setiap Walaupun terdapat lonjakan dalam trafik internet global, meningkat 40% pada tahun 2020 sahaja, penggunaan tenaga pusat data kekal stabil sepanjang dekad yang lalu. "Pertumbuhan kukuh dalam permintaan untuk perkhidmatan pusat data terus diimbangi oleh peningkatan kecekapan berterusan dalam pelayan, storan, suis rangkaian dan infrastruktur pusat data, serta bahagian perkhidmatan yang semakin meningkat yang disediakan oleh pusat data awan dan hiperskala yang cekap," IEA menulis.
Fotonik dan banyak lagi
Selain itu, pengendali pusat data bersepadu secara menegak seperti Amazon, Google, Facebook dan lain-lain akan menambah bahawa kemudahan mereka dikuasakan oleh tenaga boleh diperbaharui. Sememangnya, ini mengurangkan beban alam sekitar pemprosesan data, kerana tenaga elektrik kepada rak kuasa perkakasan pengkomputeran dan perkhidmatan sampingan yang diperlukan seperti pemanasan, penyejukan dan pencahayaan boleh datang dari matahari dan angin. Walau bagaimanapun, memandangkan Financial Times tidak memilih, walaupun perjanjian tenaga pusat data boleh mengimbangi 100% penggunaan elektriknya melalui tenaga boleh diperbaharui, kemudahan itu mungkin masih menggunakan bahan api fosil apabila angin dan solar tidak tersedia. Terdapat juga keperluan untuk mempertimbangkan pelepasan karbon terbenam peranti pengkomputeran itu sendiri, kerana kaedah pembuatan dan aktiviti penyumberan bahan komponen juga menghasilkan pelepasan karbon - sesuatu yang diakui oleh Microsoft.
Awal tahun ini, Microsoft membincangkan topik latihan model yang cekap dalam catatan blog baru-baru ini. Pembangun sibuk meneroka cara untuk mengecilkan jejak karbon AI—atau sekurang-kurangnya mengekang pertumbuhannya. Langkah di sini termasuk mencari cara untuk mengurangkan keperluan pengiraan dan memori semasa penalaan halus model, dengan pengesyoran mengesyorkan pengurangan tiga kali ganda dalam penggunaan GPU semasa peringkat proses ini. Pemampatan model juga menunjukkan janji, di mana sub-lapisan data AI dipangkas menjadi versi yang lebih jarang tetapi masih mewakili keadaan gabungan sebelumnya. Di sini, penyelidikan menunjukkan bahawa model memampatkan mungkin memerlukan masa latihan lebih kurang 40% sambil mencapai hasil algoritma yang serupa.
Pembangun juga boleh mendapat manfaat daripada alat pemantauan yang akan menentukan keuntungan yang diperoleh dengan mengoptimumkan pengaturan pengehosan kod atau data. "CodeCarbon ialah pakej perisian ringan yang disepadukan dengan lancar ke dalam pangkalan kod Python anda," tulis pencipta, yang menyediakan alat mereka secara percuma. "Ia menganggarkan jumlah karbon dioksida (CO2) yang dihasilkan oleh awan atau sumber pengkomputeran peribadi yang digunakan untuk melaksanakan kod."
Kitaran penuh
Kitaran ini berulang-alik, dengan AI yang lebih cekap tenaga mungkin akan digunakan pada masa hadapan untuk membantu membimbing operasi pusat data yang lebih cekap untuk mengurangkan – anda rasa itu – jejak karbon AI . Hari ini, Cirrus Nexus menyediakan perisian tersedia yang boleh digunakan oleh pengendali pusat data untuk memperuntukkan kos kepada karbon dan menyebarkannya melalui algoritma kecerdasan buatan. Hasilnya bukan sahaja menunjukkan pengiraan CO2, tetapi juga memberikan pandangan tentang cara pengguna boleh mengkonfigurasi kemudahan mereka untuk memaksimumkan faedah alam sekitar yang tersedia.
Menjadikan jejak karbon bagi algoritma yang menjanakan teknologi hari ini kelihatan membantu dalam pelbagai cara. Ia membuka perbincangan tentang cara paling berkesan untuk melatih kecerdasan buatan masa depan, menjadikan jabatan IT dan pelanggan mereka lebih bertanggungjawab terhadap kos persekitaran pengkomputeran. Akhirnya, ia boleh menjadi baik untuk perniagaan. Terutama, Amazon mengeluarkan alat jejak karbon pelanggan awal tahun ini, dan syarikat utama lain seperti Google membenarkan pelanggan mengeksport maklumat pelepasan karbon awan - perkhidmatan yang sedang dalam pratonton.
Atas ialah kandungan terperinci Mengira kos karbon bagi kecerdasan buatan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Laman web ini melaporkan pada 27 Jun bahawa Jianying ialah perisian penyuntingan video yang dibangunkan oleh FaceMeng Technology, anak syarikat ByteDance Ia bergantung pada platform Douyin dan pada asasnya menghasilkan kandungan video pendek untuk pengguna platform tersebut Windows , MacOS dan sistem pengendalian lain. Jianying secara rasmi mengumumkan peningkatan sistem keahliannya dan melancarkan SVIP baharu, yang merangkumi pelbagai teknologi hitam AI, seperti terjemahan pintar, penonjolan pintar, pembungkusan pintar, sintesis manusia digital, dsb. Dari segi harga, yuran bulanan untuk keratan SVIP ialah 79 yuan, yuran tahunan ialah 599 yuan (nota di laman web ini: bersamaan dengan 49.9 yuan sebulan), langganan bulanan berterusan ialah 59 yuan sebulan, dan langganan tahunan berterusan ialah 499 yuan setahun (bersamaan dengan 41.6 yuan sebulan) . Di samping itu, pegawai yang dipotong juga menyatakan bahawa untuk meningkatkan pengalaman pengguna, mereka yang telah melanggan VIP asal

Tingkatkan produktiviti, kecekapan dan ketepatan pembangun dengan menggabungkan penjanaan dipertingkatkan semula dan memori semantik ke dalam pembantu pengekodan AI. Diterjemah daripada EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, pengarang JanakiramMSV. Walaupun pembantu pengaturcaraan AI asas secara semulajadi membantu, mereka sering gagal memberikan cadangan kod yang paling relevan dan betul kerana mereka bergantung pada pemahaman umum bahasa perisian dan corak penulisan perisian yang paling biasa. Kod yang dijana oleh pembantu pengekodan ini sesuai untuk menyelesaikan masalah yang mereka bertanggungjawab untuk menyelesaikannya, tetapi selalunya tidak mematuhi piawaian pengekodan, konvensyen dan gaya pasukan individu. Ini selalunya menghasilkan cadangan yang perlu diubah suai atau diperhalusi agar kod itu diterima ke dalam aplikasi

Model Bahasa Besar (LLM) dilatih pada pangkalan data teks yang besar, di mana mereka memperoleh sejumlah besar pengetahuan dunia sebenar. Pengetahuan ini dibenamkan ke dalam parameter mereka dan kemudiannya boleh digunakan apabila diperlukan. Pengetahuan tentang model ini "diperbaharui" pada akhir latihan. Pada akhir pra-latihan, model sebenarnya berhenti belajar. Selaraskan atau perhalusi model untuk mempelajari cara memanfaatkan pengetahuan ini dan bertindak balas dengan lebih semula jadi kepada soalan pengguna. Tetapi kadangkala pengetahuan model tidak mencukupi, dan walaupun model boleh mengakses kandungan luaran melalui RAG, ia dianggap berfaedah untuk menyesuaikan model kepada domain baharu melalui penalaan halus. Penalaan halus ini dilakukan menggunakan input daripada anotasi manusia atau ciptaan LLM lain, di mana model menemui pengetahuan dunia sebenar tambahan dan menyepadukannya

Untuk mengetahui lebih lanjut tentang AIGC, sila layari: 51CTOAI.x Komuniti https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou berbeza daripada bank soalan tradisional yang boleh dilihat di mana-mana sahaja di Internet memerlukan pemikiran di luar kotak. Model Bahasa Besar (LLM) semakin penting dalam bidang sains data, kecerdasan buatan generatif (GenAI) dan kecerdasan buatan. Algoritma kompleks ini meningkatkan kemahiran manusia dan memacu kecekapan dan inovasi dalam banyak industri, menjadi kunci kepada syarikat untuk kekal berdaya saing. LLM mempunyai pelbagai aplikasi Ia boleh digunakan dalam bidang seperti pemprosesan bahasa semula jadi, penjanaan teks, pengecaman pertuturan dan sistem pengesyoran. Dengan belajar daripada sejumlah besar data, LLM dapat menjana teks

Editor |ScienceAI Question Answering (QA) set data memainkan peranan penting dalam mempromosikan penyelidikan pemprosesan bahasa semula jadi (NLP). Set data QA berkualiti tinggi bukan sahaja boleh digunakan untuk memperhalusi model, tetapi juga menilai dengan berkesan keupayaan model bahasa besar (LLM), terutamanya keupayaan untuk memahami dan menaakul tentang pengetahuan saintifik. Walaupun pada masa ini terdapat banyak set data QA saintifik yang meliputi bidang perubatan, kimia, biologi dan bidang lain, set data ini masih mempunyai beberapa kekurangan. Pertama, borang data adalah agak mudah, kebanyakannya adalah soalan aneka pilihan. Ia mudah dinilai, tetapi mengehadkan julat pemilihan jawapan model dan tidak dapat menguji sepenuhnya keupayaan model untuk menjawab soalan saintifik. Sebaliknya, Soal Jawab terbuka

01Garis prospek Pada masa ini, sukar untuk mencapai keseimbangan yang sesuai antara kecekapan pengesanan dan hasil pengesanan. Kami telah membangunkan algoritma YOLOv5 yang dipertingkatkan untuk pengesanan sasaran dalam imej penderiaan jauh optik resolusi tinggi, menggunakan piramid ciri berbilang lapisan, strategi kepala pengesanan berbilang dan modul perhatian hibrid untuk meningkatkan kesan rangkaian pengesanan sasaran dalam imej penderiaan jauh optik. Menurut set data SIMD, peta algoritma baharu adalah 2.2% lebih baik daripada YOLOv5 dan 8.48% lebih baik daripada YOLOX, mencapai keseimbangan yang lebih baik antara hasil pengesanan dan kelajuan. 02 Latar Belakang & Motivasi Dengan perkembangan pesat teknologi penderiaan jauh, imej penderiaan jauh optik resolusi tinggi telah digunakan untuk menggambarkan banyak objek di permukaan bumi, termasuk pesawat, kereta, bangunan, dll. Pengesanan objek dalam tafsiran imej penderiaan jauh

Pembelajaran mesin ialah cabang penting kecerdasan buatan yang memberikan komputer keupayaan untuk belajar daripada data dan meningkatkan keupayaan mereka tanpa diprogramkan secara eksplisit. Pembelajaran mesin mempunyai pelbagai aplikasi dalam pelbagai bidang, daripada pengecaman imej dan pemprosesan bahasa semula jadi kepada sistem pengesyoran dan pengesanan penipuan, dan ia mengubah cara hidup kita. Terdapat banyak kaedah dan teori yang berbeza dalam bidang pembelajaran mesin, antaranya lima kaedah yang paling berpengaruh dipanggil "Lima Sekolah Pembelajaran Mesin". Lima sekolah utama ialah sekolah simbolik, sekolah sambungan, sekolah evolusi, sekolah Bayesian dan sekolah analogi. 1. Simbolisme, juga dikenali sebagai simbolisme, menekankan penggunaan simbol untuk penaakulan logik dan ekspresi pengetahuan. Aliran pemikiran ini percaya bahawa pembelajaran adalah proses penolakan terbalik, melalui sedia ada

Editor |. KX Dalam bidang penyelidikan dan pembangunan ubat, meramalkan pertalian pengikatan protein dan ligan dengan tepat dan berkesan adalah penting untuk pemeriksaan dan pengoptimuman ubat. Walau bagaimanapun, kajian semasa tidak mengambil kira peranan penting maklumat permukaan molekul dalam interaksi protein-ligan. Berdasarkan ini, penyelidik dari Universiti Xiamen mencadangkan rangka kerja pengekstrakan ciri berbilang mod (MFE) novel, yang buat pertama kalinya menggabungkan maklumat mengenai permukaan protein, struktur dan jujukan 3D, dan menggunakan mekanisme perhatian silang untuk membandingkan ciri modaliti yang berbeza penjajaran. Keputusan eksperimen menunjukkan bahawa kaedah ini mencapai prestasi terkini dalam meramalkan pertalian mengikat protein-ligan. Tambahan pula, kajian ablasi menunjukkan keberkesanan dan keperluan maklumat permukaan protein dan penjajaran ciri multimodal dalam rangka kerja ini. Penyelidikan berkaitan bermula dengan "S
