ホームページ > テクノロジー周辺機器 > AI > NVIDIA が AI チップ H200 をリリース: パフォーマンスが 90% 向上、Llama 2 の推論速度が 2 倍に

NVIDIA が AI チップ H200 をリリース: パフォーマンスが 90% 向上、Llama 2 の推論速度が 2 倍に

王林
リリース: 2023-11-14 12:09:54
転載
949 人が閲覧しました

DoNews は 11 月 14 日、NVIDIA が北京時間の 13 日に次世代の人工知能スーパーコンピューター チップをリリースしたと報じました。これらのチップは、OpenAI の GPT-4 などの深層学習や大規模言語モデル (LLM) で重要な役割を果たすことになります。

英伟达发布AI芯片H200:性能飙升90%,Llama 2推理速度翻倍

新世代のチップは前世代と比較して大幅な進歩を遂げており、天気や気候の予測、医薬品の研究開発、量子コンピューティングなどの複雑なタスクを処理するためにデータセンターやスーパーコンピューターで広く使用されるでしょう

リリースされた主な製品は、Nvidia の「Hopper」アーキテクチャに基づく HGX H200 GPU です。これは、H100 GPU の後継であり、HBM3e メモリを使用する同社の最初のチップです。 HBM3e メモリは高速かつ大容量であるため、大規模な言語モデルのアプリケーションに非常に適しています

NVIDIA は、「HBM3e テクノロジーにより、NVIDIA H200 のメモリ速度は毎秒 4.8 TB に達し、容量は 141 GB となり、A100 のほぼ 2 倍となり、帯域幅も 2.4 倍増加しました。」と述べています。

人工知能の分野では、NVIDIA は、Llama 2 (700 億パラメータ LLM) 上の HGX H200 の推論速度が H100 の 2 倍であると主張しています。 HGX H200 は、H100 システムのソフトウェアおよびハードウェアと互換性のある 4 ウェイおよび 8 ウェイ構成で利用可能になります

あらゆるタイプのデータセンター (オンプレミス、クラウド、ハイブリッド クラウド、エッジ) で利用でき、Amazon Web Services、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructure によって展開され、2024 年第 2 四半期に利用可能になる予定です。

今回 NVIDIA がリリースしたもう 1 つの重要な製品は、同社の NVLink-C2C インターコネクトを介して HGX H200 GPU と Arm ベースの NVIDIA Grace CPU を組み合わせた GH200 Grace Hopper「スーパーチップ」です。テラバイト規模のデータを実行する複雑な AI および HPC アプリケーションを高速化することで、世界で最も困難な問題を解決します。」

GH200 は、Dell、Eviden、Hewlett Packard Enterprise (HPE)、Lenovo、QCT、Supermicro を含む「世界中の研究センター、システム メーカー、クラウド プロバイダーの 40 を超える AI スーパーコンピューター」で使用される予定です。

特に、HPE の Cray EX2500 スーパーコンピューターは、数万の Grace Hopper スーパーチップ ノードまで拡張可能な 4 ウェイ GH200 を搭載します

以上がNVIDIA が AI チップ H200 をリリース: パフォーマンスが 90% 向上、Llama 2 の推論速度が 2 倍にの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ソース:sohu.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート