Rumah > Peranti teknologi > AI > teks badan

Cip AI terbesar di dunia memecahkan rekod latihan peranti tunggal model besar, Cerebras mahu 'membunuh' GPU

王林
Lepaskan: 2023-04-25 15:34:08
ke hadapan
637 orang telah melayarinya

Artikel ini diterbitkan semula daripada Lei Feng.com Jika anda perlu mencetak semula, sila pergi ke tapak web rasmi Lei Feng.com untuk memohon kebenaran.

Cerebras, sebuah syarikat yang terkenal kerana mencipta cip pemecut terbesar di dunia CS-2 Wafer Scale Engine, mengumumkan semalam bahawa mereka telah mengambil langkah penting dalam menggunakan "teras gergasi" untuk latihan kecerdasan buatan. Syarikat itu telah melatih model AI NLP (pemprosesan bahasa semula jadi) terbesar di dunia pada satu cip.

Model ini mempunyai 2 bilion parameter dan dilatih pada cip CS-2. Cip pemecut terbesar di dunia menggunakan proses 7nm dan terukir daripada wafer persegi. Ia beratus kali lebih besar daripada cip arus perdana dan mempunyai kuasa 15KW. Ia menyepadukan 2.6 trilion transistor 7nm, pakej 850,000 teras dan 40GB memori.

世界超大AI芯片打破单设备训练大模型记录 ,Cerebras要「杀死」GPU

Rajah 1 Cip Enjin Skala Wafer CS-2

Rekod baharu untuk melatih model AI besar pada satu cip

Pembangunan model NLP merupakan bidang penting dalam kecerdasan buatan. Menggunakan model NLP, kecerdasan buatan boleh "memahami" maksud teks dan mengambil tindakan yang sepadan. Model DALL.E OpenAI ialah model NLP biasa. Model ini boleh menukar input maklumat teks oleh pengguna kepada output imej.

Contohnya, apabila pengguna memasuki "kerusi berlengan berbentuk alpukat", AI secara automatik akan menjana beberapa imej yang sepadan dengan ayat ini.

世界超大AI芯片打破单设备训练大模型记录 ,Cerebras要「杀死」GPU

Gambar: Gambar "kerusi berlengan berbentuk alpukat" yang dijana oleh AI selepas menerima maklumat

Lebih daripada sekadar Selain itu, model ini juga boleh membolehkan AI memahami pengetahuan yang kompleks seperti spesies, geometri dan era sejarah.

Tetapi bukan mudah untuk mencapai semua ini Pembangunan tradisional model NLP mempunyai kos kuasa pengkomputeran yang sangat tinggi dan ambang teknikal.

Malah, jika kita hanya membincangkan nombor, 2 bilion parameter model yang dibangunkan oleh Cerebras kelihatan agak biasa-biasa sahaja berbanding dengan rakan sebayanya.

Model DALL.E yang dinyatakan sebelum ini mempunyai 12 bilion parameter, dan model terbesar pada masa ini ialah Gopher, yang dilancarkan oleh DeepMind pada penghujung tahun lepas, dengan 280 bilion parameter.

Tetapi selain daripada jumlah yang mengejutkan, NLP yang dibangunkan oleh Cerebras mempunyai kejayaan besar: ia mengurangkan kesukaran membangunkan model NLP.

Bagaimanakah "Giant Core" mengalahkan GPU?

Menurut proses tradisional, membangunkan model NLP memerlukan pembangun membahagikan model NLP yang besar kepada beberapa bahagian berfungsi dan menyebarkan beban kerja mereka merentasi ratusan atau ribuan unit pemprosesan grafik.

Beribu-ribu unit pemprosesan grafik bermakna kos yang besar untuk pengeluar.

Kesukaran teknikal juga menyebabkan pengilang sengsara.

Model penghirisan ialah masalah tersuai, spesifikasi setiap rangkaian saraf, setiap GPU dan rangkaian yang menghubungkan (atau menyambung) mereka bersama-sama adalah unik dan tidak mudah alih merentas sistem.

Pengilang mesti mempertimbangkan semua faktor ini dengan jelas sebelum latihan pertama.

Kerja ini sangat kompleks dan kadangkala mengambil masa berbulan-bulan untuk disiapkan.

Cerebras berkata ini adalah "salah satu aspek yang paling menyakitkan" dalam latihan model NLP. Hanya segelintir syarikat yang mempunyai sumber dan kepakaran yang diperlukan untuk membangunkan NLP. Bagi syarikat lain dalam industri AI, latihan NLP terlalu mahal, memakan masa dan tidak tersedia.

Tetapi jika satu cip boleh menyokong model dengan 2 bilion parameter, ini bermakna tidak perlu menggunakan GPU besar-besaran untuk menyebarkan beban kerja melatih model. Ini boleh menjimatkan beribu-ribu kos latihan GPU dan keperluan perkakasan serta penskalaan yang berkaitan. Ia juga menyelamatkan vendor daripada terpaksa melalui kesakitan menghiris model dan mengagihkan beban kerja mereka merentasi ribuan GPU.

Serebral bukan sahaja taksub dengan nombor Untuk menilai kualiti model, bilangan parameter bukanlah satu-satunya kriteria.

Daripada mengharapkan "kerja keras" model yang dilahirkan pada "teras gergasi", Cerebras berharap model itu akan menjadi "pintar".

Sebab mengapa Cerebras telah dapat mencapai pertumbuhan eksplosif dalam bilangan parameter adalah kerana ia menggunakan teknologi aliran berwajaran. Teknologi ini memisahkan jejak pengiraan dan memori dan membolehkan memori dikembangkan menjadi cukup besar untuk menyimpan sebarang bilangan parameter yang meningkatkan beban kerja AI.

Terima kasih kepada kejayaan ini, masa untuk menyediakan model telah dikurangkan dari beberapa bulan kepada beberapa minit. Dan pembangun boleh bertukar antara model seperti GPT-J dan GPT-Neo dengan "hanya beberapa ketukan kekunci." Ini menjadikan pembangunan NLP lebih mudah.

Ini telah membawa perubahan baharu dalam bidang NLP.

Ketika Dan Olds, Ketua Pegawai Penyelidik Intersect360 Research, mengulas tentang pencapaian Cerebras: “Keupayaan Cerebras untuk membawa model bahasa yang besar kepada orang ramai dengan cara yang kos efektif dan mudah diakses membuka masa depan yang menarik untuk kecerdasan buatan ”

Atas ialah kandungan terperinci Cip AI terbesar di dunia memecahkan rekod latihan peranti tunggal model besar, Cerebras mahu 'membunuh' GPU. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:51cto.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan
Tentang kita Penafian Sitemap
Laman web PHP Cina:Latihan PHP dalam talian kebajikan awam,Bantu pelajar PHP berkembang dengan cepat!