Rumah > Peranti teknologi > AI > teks badan

Nvidia mengeluarkan cip AI H200: prestasi melonjak sebanyak 90%, kelajuan inferens Llama 2 meningkat dua kali ganda

王林
Lepaskan: 2023-11-14 12:09:54
ke hadapan
930 orang telah melayarinya

DoNews melaporkan pada 14 November bahawa NVIDIA mengeluarkan cip superkomputer kecerdasan buatan generasi akan datang pada masa Beijing ke-13 Cip ini akan memainkan peranan penting dalam pembelajaran mendalam dan model bahasa besar (LLM), seperti GPT-4 OpenAI.

英伟达发布AI芯片H200:性能飙升90%,Llama 2推理速度翻倍

Generasi cip baharu telah mencapai kemajuan yang ketara berbanding dengan generasi sebelumnya dan akan digunakan secara meluas dalam pusat data dan superkomputer untuk mengendalikan tugas yang kompleks seperti ramalan cuaca dan iklim, penyelidikan dan pembangunan dadah, serta pengkomputeran kuantum

Produk utama yang dikeluarkan ialah GPU HGX H200 berdasarkan seni bina "Hopper" Nvidia, yang merupakan pengganti kepada GPU H100 dan merupakan cip pertama syarikat yang menggunakan memori HBM3e. Memori HBM3e mempunyai kelajuan yang lebih pantas dan kapasiti yang lebih besar, jadi ia sangat sesuai untuk aplikasi model bahasa yang besar

NVIDIA berkata: "Dengan teknologi HBM3e, kelajuan memori NVIDIA H200 mencapai 4.8TB sesaat, kapasiti ialah 141GB, hampir dua kali ganda berbanding A100, dan lebar jalur juga telah meningkat sebanyak 2.4 kali ganda."

Dalam bidang kecerdasan buatan, NVIDIA mendakwa bahawa kelajuan inferens HGX H200 pada Llama 2 (70 bilion parameter LLM) adalah dua kali lebih pantas daripada H100. HGX H200 akan tersedia dalam konfigurasi 4 hala dan 8 hala, serasi dengan perisian dan perkakasan dalam sistem H100

Ia akan tersedia di setiap jenis pusat data (on-premise, cloud, hybrid cloud dan edge) dan digunakan oleh Amazon Web Services, Google Cloud, Microsoft Azure dan Oracle Cloud Infrastructure, dan akan tersedia pada Q2 2024.

Satu lagi produk utama yang dikeluarkan oleh NVIDIA kali ini ialah "supercip" GH200 Grace Hopper, yang menggabungkan GPU HGX H200 dan CPU NVIDIA Grace berasaskan Arm melalui sambung NVLink-C2C syarikat Direka untuk superkomputer, ia membolehkan "saintis dan penyelidik untuk menyelesaikan masalah paling mencabar di dunia dengan mempercepatkan aplikasi AI dan HPC kompleks yang menjalankan terabait data.”

GH200 akan digunakan dalam "lebih daripada 40 superkomputer AI di pusat penyelidikan, pengeluar sistem dan pembekal awan di seluruh dunia," termasuk Dell, Eviden, Hewlett Packard Enterprise (HPE), Lenovo, QCT dan Supermicro.

Terutamanya, komputer super Cray EX2500 HPE akan menampilkan GH200 empat hala, boleh berskala kepada puluhan ribu nod cip besar Grace Hopper

Atas ialah kandungan terperinci Nvidia mengeluarkan cip AI H200: prestasi melonjak sebanyak 90%, kelajuan inferens Llama 2 meningkat dua kali ganda. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

sumber:sohu.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan