


Penyelidik: Inferens model AI menggunakan lebih banyak kuasa, dan penggunaan elektrik industri pada 2027 akan setanding dengan Belanda
IT Home News pada 13 Oktober, "Joule", jurnal saudara perempuan "Cell", menerbitkan makalah minggu ini yang dipanggil "Jejak tenaga yang semakin meningkat bagi kecerdasan buatan."
Melalui pertanyaan, kami mengetahui bahawa kertas kerja ini diterbitkan oleh Alex De Vries, pengasas institusi penyelidikan saintifik Digiconomist. Beliau mendakwa bahawa prestasi penaakulan kecerdasan buatan pada masa hadapan mungkin menggunakan banyak tenaga elektrik Dianggarkan menjelang 2027, penggunaan elektrik kecerdasan buatan mungkin bersamaan dengan penggunaan elektrik Belanda selama setahun
.Alex De Vries berkata bahawa dunia luar sentiasa percaya bahawa melatih model AI adalah "peringkat AI yang paling memakan kuasa namun, Vries memetik laporan daripada SemiAnalysis dan Google dan menunjukkan bahawa "pautan inferens". menggunakan lebih banyak kuasa Sejak 2019, Menjelang 2021, 60% penggunaan tenaga berkaitan AI dijangka datang daripada inferens model.
▲ Sumber gambar Makalah berkaitan
Alex De Vries juga dikira berdasarkan penggunaan kuasa 18.3 TWh yang didedahkan oleh Google pada tahun 2021, dengan mendakwa bahawa AI menyumbang 10%-15% daripada penggunaan kuasa keseluruhan Google pada masa itu, dan "carian AI" telah dilaksanakan sepenuhnya dalam Google Selepas itu, penggunaan kuasa syarikat untuk AI mungkin mencecah sehingga 27.4 TWj, yang hampir dengan tenaga elektrik yang digunakan oleh Ireland sepanjang tahun (29.3 TWj).
Dengan rakan kongsi NVIDIA Taiwan Semiconductor Manufacturing Company (TSMC) merancang untuk memulakan pengeluaran besar-besaran kilang CoWoS baharu pada 2027, keseluruhan pasaran dijangka berubah. Menurut anggaran oleh Alex De Vries, pada masa itu, jumlah penggunaan kuasa semua pelayan AI yang dihantar oleh NVIDIA akan mencecah 85-134 TWj, bersamaan dengan penggunaan elektrik Belanda selama setahun
▲ Sumber gambar Makalah berkaitan
Alex De Vries percaya bahawa industri kecerdasan buatan harus meningkatkan kecekapan perkakasan dan meningkatkan kecekapan algoritma model untuk meningkatkan penggunaan tenaga industri. Beliau juga mencadangkan agar pembangun tidak hanya menumpukan pada mengoptimumkan kecerdasan buatan, tetapi juga mempertimbangkan keperluan menggunakan kecerdasan buatan untuk mengurangkan kos tenaga dalam industri kecerdasan buatan
Untuk menulis semula kandungan tanpa mengubah maksud asal, bahasa perlu ditulis semula ke dalam bahasa Cina. Tidak perlu ayat asal
Atas ialah kandungan terperinci Penyelidik: Inferens model AI menggunakan lebih banyak kuasa, dan penggunaan elektrik industri pada 2027 akan setanding dengan Belanda. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Baru-baru ini, "Persidangan Pengkomputeran Pintar Kawasan Baharu Lingang" dengan tema "AI menerajui era, kuasa pengkomputeran memacu masa depan" telah diadakan. Pada mesyuarat itu, Perikatan Industri Pengkomputeran Pintar Kawasan Baru telah ditubuhkan secara rasmi SenseTime menjadi ahli perikatan sebagai pembekal kuasa pengkomputeran Pada masa yang sama, SenseTime telah dianugerahkan gelaran perusahaan "Industri Pengkomputeran Pintar Kawasan Baru". Sebagai peserta aktif dalam ekosistem kuasa pengkomputeran Lingang, SenseTime kini telah membina salah satu platform pengkomputeran pintar terbesar di Asia - SenseTime AIDC, yang boleh mengeluarkan jumlah kuasa pengkomputeran sebanyak 5,000 Petaflops dan menyokong 20 model ultra-besar dengan ratusan bilion parameter. Berlatih pada masa yang sama. SenseCore, peranti berskala besar yang dibina dengan AIDC sebagai asas dan berpandangan ke hadapan, komited untuk mencipta infrastruktur dan perkhidmatan AI generasi seterusnya yang cekap tinggi, kos rendah dan berskala besar untuk memperkasakan kecerdasan buatan.

IT House melaporkan pada 13 Oktober bahawa "Joule", jurnal saudara perempuan "Cell", menerbitkan kertas minggu ini yang dipanggil "The growth footprint of artificial intelligence (The growing energy footprint of artificial intelligence)". Melalui pertanyaan, kami mengetahui bahawa kertas kerja ini diterbitkan oleh Alex DeVries, pengasas institusi penyelidikan saintifik Digiconomist. Beliau mendakwa bahawa prestasi penaakulan kecerdasan buatan pada masa hadapan mungkin menggunakan banyak tenaga elektrik Dianggarkan menjelang 2027, penggunaan elektrik kecerdasan buatan mungkin bersamaan dengan penggunaan elektrik Belanda selama setahun dunia luar sentiasa percaya bahawa melatih model AI adalah "perkara yang paling penting dalam AI".

Model Transformer berasal daripada kertas kerja "Attentionisallyouneed" yang diterbitkan oleh pasukan Google pada 2017. Kertas kerja ini mula-mula mencadangkan konsep penggunaan Attention untuk menggantikan struktur kitaran model Seq2Seq, yang membawa impak yang hebat kepada bidang NLP. Dan dengan kemajuan berterusan penyelidikan dalam beberapa tahun kebelakangan ini, teknologi berkaitan Transformer telah beransur-ansur mengalir daripada pemprosesan bahasa semula jadi ke bidang lain. Sehingga kini, model siri Transformer telah menjadi model arus perdana dalam NLP, CV, ASR dan bidang lain. Oleh itu, cara melatih dan membuat kesimpulan model Transformer dengan lebih pantas telah menjadi hala tuju penyelidikan yang penting dalam industri. Teknik pengkuantitian ketepatan rendah boleh

Memandu China News pada 28 Jun 2023, hari ini semasa Kongres Dunia Mudah Alih di Shanghai, China Unicom mengeluarkan model grafik "Honghu Graphic Model 1.0". China Unicom berkata bahawa model grafik Honghu ialah model besar pertama untuk perkhidmatan tambah nilai pengendali. Wartawan China Business News mengetahui bahawa model grafik Honghu pada masa ini mempunyai dua versi 800 juta parameter latihan dan 2 bilion parameter latihan, yang boleh merealisasikan fungsi seperti gambar berasaskan teks, penyuntingan video dan gambar berasaskan gambar. Di samping itu, Pengerusi Unicom China Liu Liehong juga berkata dalam ucaptama hari ini bahawa AI generatif membawa ketunggalan pembangunan, dan 50% pekerjaan akan terjejas teruk oleh kecerdasan buatan dalam tempoh dua tahun akan datang.

Saya percaya bahawa rakan-rakan yang mengikuti bulatan telefon bimbit tidak akan asing dengan ungkapan "dapat markah jika anda tidak menerimanya". Sebagai contoh, perisian ujian prestasi teori seperti AnTuTu dan GeekBench telah menarik banyak perhatian daripada pemain kerana ia boleh mencerminkan prestasi telefon mudah alih pada tahap tertentu. Begitu juga, terdapat perisian penanda aras yang sepadan untuk pemproses PC dan kad grafik untuk mengukur prestasi mereka Memandangkan "semuanya boleh ditanda aras", model AI besar yang paling popular juga telah mula mengambil bahagian dalam pertandingan penanda aras, terutamanya dalam "Seratus Model" Selepas itu. "perang" bermula, kejayaan dibuat hampir setiap hari, dan setiap syarikat mendakwa sebagai "nombor satu dalam skor larian model AI domestik yang besar hampir tidak pernah ketinggalan dari segi skor prestasi, tetapi mereka tidak pernah dapat mengatasi GP." syarat pengalaman pengguna.

IT House melaporkan pada 3 November bahawa laman web rasmi Institut Fizik Akademi Sains China menerbitkan artikel Baru-baru ini, Kumpulan SF10 Institut Fizik Akademi Sains China/Pusat Penyelidikan Kebangsaan Beijing untuk Fizik Pekat. dan Pusat Maklumat Rangkaian Komputer Akademi Sains China bekerjasama untuk menggunakan model AI yang besar kepada sains bahan Dalam bidang ini, puluhan ribu data laluan sintesis kimia disalurkan kepada model bahasa besar LLAMA2-7b, dengan itu memperoleh model MatChat. , yang boleh digunakan untuk meramalkan laluan sintesis bahan bukan organik. IT House menyatakan bahawa model itu boleh melakukan penaakulan logik berdasarkan struktur pertanyaan dan mengeluarkan proses penyediaan dan formula yang sepadan. Ia telah digunakan dalam talian dan terbuka kepada semua penyelidik bahan, membawa inspirasi baharu dan idea baharu kepada penyelidikan dan inovasi bahan. Kerja ini adalah untuk model bahasa besar dalam bidang sains bersegmen

Jabatan kecerdasan buatan Meta Platforms baru-baru ini menyatakan bahawa mereka sedang mengajar model AI cara belajar berjalan di dunia fizikal dengan sokongan sejumlah kecil data latihan, dan telah mencapai kemajuan pesat. Penyelidikan ini boleh memendekkan dengan ketara masa untuk model AI memperoleh keupayaan navigasi visual. Sebelum ini, untuk mencapai matlamat sedemikian memerlukan "pembelajaran pengukuhan" berulang menggunakan set data yang besar. Penyelidik Meta AI berkata bahawa penerokaan navigasi visual AI ini akan memberi kesan yang ketara kepada dunia maya. Idea asas projek itu tidak rumit: untuk membantu AI menavigasi ruang fizikal seperti yang dilakukan manusia, hanya melalui pemerhatian dan penerokaan. Jabatan Meta AI menjelaskan, “Sebagai contoh, jika kita mahu cermin mata AR membimbing kita untuk mencari kunci, kita mesti

Nvidia baru-baru ini mengumumkan pelancaran suite perisian sumber terbuka baharu yang dipanggil TensorRT-LLM, yang memperluaskan keupayaan pengoptimuman model bahasa besar pada GPU Nvidia dan memecahkan had prestasi inferens kecerdasan buatan selepas penggunaan. Model bahasa besar AI Generatif telah menjadi popular kerana keupayaannya yang mengagumkan. Ia memperluaskan kemungkinan kecerdasan buatan dan digunakan secara meluas dalam pelbagai industri. Pengguna boleh mendapatkan maklumat dengan bercakap dengan chatbots, meringkaskan dokumen besar, menulis kod perisian dan menemui cara baharu untuk memahami maklumat, kata Ian Buck, naib presiden pengkomputeran skala besar dan berprestasi tinggi di Nvidia Corporation: "Inferens model bahasa besar semakin meningkat. sukar. .Kerumitan model terus meningkat, model menjadi lebih dan lebih pintar, dan ia menjadi
