


新しいタイトル: NVIDIA H200 リリース: HBM 容量が 76% 増加、大規模モデルのパフォーマンスが 90% 大幅に向上する最も強力な AI チップ
11月14日のニュース、Nvidiaは現地時間13日朝の「Supercomputing 23」カンファレンスで新しいH200 GPUを正式にリリースし、GH200製品ラインをアップデートしました
その中で、H200 は依然として既存の Hopper H100 アーキテクチャに基づいて構築されていますが、人工知能の開発と実装に必要な大規模なデータ セットをより適切に処理するために、より多くの高帯域幅メモリ (HBM3e) が追加され、大規模なモデルの実行が可能になります。前世代のH100と比較して60%~90%向上しました。アップデートされた GH200 は、次世代の AI スーパーコンピューターにも搭載されます。 2024 年には 200 エクサフロップスを超える AI コンピューティング能力が稼働する予定です。
H200: HBM 容量が 76% 増加、大型モデルのパフォーマンスが 90% 向上
具体的には、新しい H200 は最大 141 GB の HBM3e メモリを提供し、実質的に約 6.25 Gbps で動作し、6 つの HBM3e スタックの GPU ごとに合計 4.8 TB/秒の帯域幅を実現します。これは、前世代の H100 (80GB HBM3 および 3.35 TB/秒の帯域幅を搭載) と比較して大幅な改善であり、HBM 容量が 76% 以上増加しています。公式データによると、大規模モデルを実行する場合、H200 は H100 と比較して 60% (GPT3 175B) ~ 90% (Llama 2 70B) の改善をもたらします
H100 の一部の構成では、2 つのボードをペアにして合計 188GB のメモリ (GPU あたり 94GB) を提供する H100 NVL など、より多くのメモリを提供しますが、H100 SXM バリアントと比較しても、新しい H200 SXM はまた、メモリ容量が 76% 増加し、帯域幅が 43% 増加します。
H200 の生のコンピューティング パフォーマンスはあまり変わっていないように見えることを指摘しておく必要があります。 Nvidia が示した唯一のスライドは、反映されたコンピューティング パフォーマンスが 8 つの GPU を使用した HGX 200 構成に基づいており、合計パフォーマンスが「32 PFLOPS FP8」であることを示しています。オリジナルの H100 は 3,958 テラフロップスの FP8 演算能力を提供しましたが、8 つのそのような GPU は約 32 PFLOPS の FP8 演算能力も提供します
より高い帯域幅メモリによってもたらされる改善は、ワークロードによって異なります。大規模モデル (GPT-3 など) は、HBM メモリ容量の増加から大きな恩恵を受けます。 Nvidia によると、H200 は、GPT-3 を実行した場合、オリジナルの A100 よりも最大 18 倍優れたパフォーマンスを発揮し、H100 よりも約 11 倍高速になります。さらに、次期 Blackwell B100 のティーザーには、黒にフェードインする背の高いバーが含まれていることが示されています。これは、一番右の H200 のおよそ 2 倍の長さです
それだけでなく、H200とH100は相互に互換性があります。つまり、H100 トレーニング/推論モデルを使用している AI 企業は、最新の H200 チップにシームレスに切り替えることができます。クラウド サービス プロバイダーは、H200 を自社の製品ポートフォリオに追加する際に変更を加える必要はありません。
NVIDIA は、新製品を発売することで、人工知能モデルとサービスの作成に使用されるデータセットのサイズの増大に追いつきたいと述べています。強化されたメモリ機能により、H200 はソフトウェアにデータを供給するプロセスが高速化され、画像や音声の認識などのタスクを実行する人工知能のトレーニングに役立ちます。
「より高速で大容量の HBM メモリを統合することで、GPU の使用量と効率を最適化しながら、生成 AI モデルやハイパフォーマンス コンピューティング アプリケーションなどの計算負荷の高いタスクのパフォーマンスを向上させることができます。」
NVIDIA のデータセンター製品責任者、ディオン・ハリス氏は次のように述べています。「市場開発の傾向を見ると、これは当社がどのように最新かつ最高のテクノロジーを導入し続けているかを示す一例です。」メインフレーム コンピューター メーカーとクラウド サービス プロバイダーは、2024 年の第 2 四半期に H200 の使用を開始する予定です。 NVIDIA サーバー製造パートナー (Evergreen、Asus、Dell、Eviden、Gigabyte、HPE、Hongbai、Lenovo、Wenda、MetaVision、Wistron、Wiwing など) は、H200 を使用して既存のシステムを更新できますが、Amazon、Google、Microsoft、Oracle なども同様です。は、H200 を採用する最初のクラウド サービス プロバイダーになります。
NVIDIA AI チップに対する現在の強い市場需要と、より高価な HBM3e メモリを追加した新しい H200 を考慮すると、H200 の価格は間違いなくより高価になります。 Nvidiaは価格を公表していないが、前世代のH100の価格は2万5000ドルから4万ドルだった。
NVIDIA の広報担当者クリスティン内山氏は、最終的な価格は NVIDIA の製造パートナーによって決定されると述べました
H200 の発売が H100 の生産に影響を与えるかどうかについて、クリスティン内山氏は次のように述べています。「年間の総供給量は増加すると予想しています。」
Nvidia のハイエンド AI チップは、大量のデータを処理し、大規模な言語モデルと AI 生成ツールをトレーニングするのに最適な選択肢であると常に考えられています。しかし、H200 チップが発売されたとき、AI 企業はまだ市場で A100/H100 チップを必死に探していました。市場の注目は引き続き、エヌビディアが市場の需要を満たす十分な供給を提供できるかどうかにある。したがって、NVIDIA は、H200 チップが H100 チップと同様に供給不足になるかどうかについては答えていませんしかし、来年は GPU 購入者にとってより有利な時期となる可能性があります。8 月の Financial Times の報道によると、NVIDIA は 2024 年に H100 の生産を 3 倍に増やす計画であり、生産目標は 2023 年の約 500,000 から 2023 年までに増加する予定です。 2024年には200万人。しかし、生成 AI は依然としてブームであり、将来的には需要がさらに高まる可能性があります。
たとえば、新しく発売された GPT-4 は、約 10,000 ~ 25,000 個の A100 ブロックでトレーニングされます。 Meta の大規模 AI モデルのトレーニングには、約 21,000 個の A100 ブロックが必要です。スタビリティ AI は約 5,000 台の A100 を使用します。 Falcon-40B のトレーニングには 384 A100 が必要です
マスク氏によると、GPT-5 には 30,000 ~ 50,000 H100 が必要になる可能性があります。モルガン・スタンレーの見積もりは 25,000 GPU です。
Sam Altman 氏は GPT-5 のトレーニングを否定しましたが、「OpenAI では GPU が深刻に不足しており、当社の製品を使用する人が少なければ少ないほど良い」と述べました。
もちろん、NVIDIA に加えて、AMD や Intel も NVIDIA に対抗するために AI 市場に積極的に参入しています。 AMDが以前に発売したMI300Xは、192GBのHBM3と5.2TB/秒のメモリ帯域幅を搭載しており、容量と帯域幅の点でH200をはるかに上回ります。
同様に、Intel は Gaudi AI チップの HBM 容量を増やすことを計画しています。最新のリリース情報によると、Gaudi 3 は 5nm プロセスを使用しており、BF16 ワークロードでのパフォーマンスは Gaudi 2 の 4 倍、ネットワーク パフォーマンスも Gaudi 2 の 2 倍になります (Gaudi 2 には 24 個の 100 個のプロセッサが内蔵されています) GbE RoCE NIC)。さらに、Gaudi 3 には Gaudi 2 の 1.5 倍の HBM 容量があります (Gaudi 2 の HBM2E は 96 GB)。下の写真からわかるように、Gaudi 3 は、Intel のシングルチップ ソリューションを使用する Gaudi 2 とは異なり、2 つのコンピューティング クラスターを備えたチップレット ベースの設計を使用しています
新しい GH200 スーパーチップ: 次世代の AI スーパーコンピューターを強化
新しい H200 GPU のリリースに加えて、NVIDIA は GH200 スーパー チップのアップグレード バージョンも発売しました。このチップは、NVIDIA NVLink-C2C チップ相互接続テクノロジを使用し、最新の H200 GPU と Grace CPU (アップグレード バージョンかどうかは不明) を組み合わせています。各 GH200 スーパー チップには合計 624 GB のメモリも搭載されます
NVIDIA は GH200 スーパー チップの Grace CPU の詳細を紹介しませんでしたが、NVIDIA は GH200 と「最新のデュアルソケット x86 CPU」との比較をいくつか提供しました。 GH200 は ICON のパフォーマンスを 8 倍向上させ、MILC、量子フーリエ変換、RAG LLM 推論などは数十倍、さらには数百倍の向上をもたらしていることがわかります。
新しい GH200 は、新しい HGX H200 システムでも使用されます。これらは既存の HGX H100 システムと「シームレスな互換性」があると言われており、HGX H200 を同じインストールで使用して、インフラストラクチャを再設計することなくパフォーマンスとメモリ容量を向上させることができます。
報道によると、スイス国立スーパーコンピューティング センターの Alpine スーパーコンピューターは、来年使用される GH100 ベースの Grace Hopper スーパーコンピューターの最初のバッチの 1 つになる可能性があります。米国で運用を開始する最初の GH200 システムは、ロス アラモス国立研究所の Venado スーパーコンピューターとなります。テキサス アドバンスト コンピューティング センター (TACC) Vista システムも、発表されたばかりの Grace CPU と Grace Hopper スーパーチップを使用しますが、それらが H100 と H200 のどちらをベースにするかは不明です
現在、設置される最大のスーパーコンピューターは、ジュリッヒ スーパーコンピューティング センターの Jupiter スーパーコンピューターです。これには「ほぼ」24,000 個の GH200 スーパーチップが搭載され、合計 93 エクサフロップスの AI コンピューティング (おそらく FP8 を使用しますが、ほとんどの AI は依然として BF16 または FP16 を使用しています)。また、従来の FP64 コンピューティングの 1 エクサフロップスも提供します。 GH200スーパーチップを4個搭載した「Quad GH200」ボードを採用する。
NVIDIA が今後 1 年ほどで設置する予定のこれらの新しいスーパーコンピューターは、合計で 200 エクサフロップスを超える人工知能の計算能力を実現します
元の意味を変更する必要がない場合は、内容を中国語に書き直す必要があり、元の文を表示する必要はありません
以上が新しいタイトル: NVIDIA H200 リリース: HBM 容量が 76% 増加、大規模モデルのパフォーマンスが 90% 大幅に向上する最も強力な AI チップの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









2 月 23 日のこの Web サイトのニュースによると、NVIDIA は昨夜 NVIDIA アプリケーションを更新してリリースし、プレイヤーに新しい統合 GPU コントロール センターを提供し、プレイヤーはゲーム内フローティングによって提供される強力な記録ツールを通じて素晴らしい瞬間をキャプチャできるようになりました。窓。このアップデートでは、NVIDIA も RTXHDR 機能を導入しました。公式の紹介文はこのサイトに添付されています: RTXHDR は、ハイ ダイナミック レンジ (HDR) のゴージャスな視覚効果をゲームにシームレスに導入できる、AI を活用した新しいフリースタイル フィルターです。もともとHDRをサポートしています。この機能をさまざまな DirectX および Vulkan ベースのゲームで使用するには、HDR 互換モニターが必要です。プレーヤーが RTXHDR 機能を有効にすると、HD をサポートしていなくてもゲームが実行されます。

2 月 19 日のこの Web サイトのニュースによると、ムーアの LawisDead チャンネルの最新ビデオでアンカーのトムは、Nvidia GeForce RTX50 シリーズ グラフィックス カードに PCIeGen6 16 ピン電源インターフェイスがネイティブに装備されることを明らかにしました。トム氏は、ハイエンドのGeForceRTX5080およびGeForceRTX5090シリーズに加えて、ミッドレンジのGeForceRTX5060でも新しい電源インターフェースが可能になると述べた。 Nvidia は、サプライ チェーンを簡素化するために、将来的に各 GeForce RTX50 シリーズに PCIeGen6 16 ピン電源インターフェイスを搭載するという明確な要件を設定したと報告されています。このサイトに添付されているスクリーンショットは次のとおりです: Tom は、GeForceRTX5090 とも述べています

2月22日の当ウェブサイトのニュースによると、一般的にNVIDIAとAMDはチャネル価格に制限を設けており、個人的に価格を大幅に引き下げた一部のディーラーも処罰される予定で、例えばAMDは最近、6750GREグラフィックスカードを以下の価格で販売したディーラーを処罰したという。最低価格 商人は罰せられた。このサイトは、Nvidia GeForce RTX 4070 および 4060 Ti が記録的な安値に落ちていることに気づきました。その創設者のバージョン、つまりグラフィックス カードのパブリック バージョンは、現在、JD.com の自営ストアで 200 元のクーポンを受け取ることができます。価格は4,599元と2,999元。もちろん、サードパーティのストアを考慮すれば、さらに安い価格もあります。パラメータに関しては、RTX4070 グラフィックス カードは 5888CUDA コアを備え、12GBGDDR6X メモリを使用し、ビット幅は 192bi です。

オープンな LLM コミュニティは百花繚乱の時代です Llama-3-70B-Instruct、QWen2-72B-Instruct、Nemotron-4-340B-Instruct、Mixtral-8x22BInstruct-v0.1 などがご覧いただけます。優秀なパフォーマーモデル。しかし、GPT-4-Turboに代表される独自の大型モデルと比較すると、オープンモデルには依然として多くの分野で大きなギャップがあります。一般的なモデルに加えて、プログラミングと数学用の DeepSeek-Coder-V2 や視覚言語タスク用の InternVL など、主要な領域に特化したいくつかのオープン モデルが開発されています。

6月2日の当サイトのニュースによると、現在開催中のHuang Renxun 2024 Taipei Computexの基調講演で、Huang Renxun氏は、生成人工知能がソフトウェアスタック全体の再構築を促進すると紹介し、NIM(Nvidia Inference Microservices)のクラウドネイティブマイクロサービスをデモしました。 。 Nvidia は、「AI ファクトリー」が新たな産業革命を引き起こすと信じています。Microsoft が開拓したソフトウェア業界を例に挙げると、Huang Renxun 氏は、生成人工知能がそのフルスタックの再構築を促進すると信じています。あらゆる規模の企業による AI サービスの導入を促進するために、NVIDIA は今年 3 月に NIM (Nvidia Inference Microservices) クラウドネイティブ マイクロサービスを開始しました。 NIM+ は、市場投入までの時間を短縮するために最適化されたクラウドネイティブのマイクロサービスのスイートです

最近、レイヤー1ブロックチェーンVanarChainは、その高い成長率とAI大手NVIDIAとの連携により市場の注目を集めています。 VanarChain の人気の背景には、複数のブランド変革を経たことに加え、メインゲーム、メタバース、AI などの人気コンセプトもプロジェクトに多くの人気と話題をもたらしたことです。変革前の Vanar (旧 TerraVirtua) は、有料サブスクリプションをサポートし、仮想現実 (VR) および拡張現実 (AR) コンテンツを提供し、暗号通貨による支払いを受け入れるプラットフォームとして 2018 年に設立されました。このプラットフォームは共同創設者の Gary Bracey と Jawad Ashraf によって作成されました。Gary Bracey はビデオ ゲームの制作と開発に携わった豊富な経験を持っています。

Love と Deep Sky のキャラクターにはさまざまな数値属性があり、ゲーム内での各属性には独自の役割があり、クリティカルヒット率属性はキャラクターのダメージに影響を与える、非常に重要な属性と言えます。この特性を向上させる方法を以下に記載しますので、知りたいプレイヤーは参考にしてください。方法1. 愛と深宇宙のクリティカル率を上げるための核となる方法 クリティカル率80%を達成するには、手札6枚のクリティカル属性の合計が鍵となります。コロナカードの選択:コロナカードを2枚選択する場合、コアαとコアβの副属性項目の少なくとも1つはクリティカルヒット属性であることを確認してください。ルナー コロナ カードの利点: ルナー コロナ カードの基本属性にクリティカル ヒットが含まれているだけでなく、レベル 60 に達してまだ突破していない場合、各カードはクリティカル ヒットの 4.1% を提供できます。

4月17日の当サイトのニュースによると、TrendForceは最近、Nvidiaの新しいBlackwellプラットフォーム製品に対する需要は強気で、2024年にはTSMCのCoWoSパッケージング総生産能力が150%以上増加すると予想されるレポートを発表した。 NVIDIA Blackwell の新しいプラットフォーム製品には、B シリーズ GPU と、NVIDIA 独自の GraceArm CPU を統合する GB200 アクセラレータ カードが含まれます。 TrendForce は、サプライチェーンが現在 GB200 について非常に楽観的であることを確認しており、2025 年の出荷台数は 100 万台を超え、Nvidia のハイエンド GPU の 40 ~ 50% を占めると予想されています。 Nvidiaは今年下半期にGB200やB100などの製品を提供する予定だが、上流のウェーハパッケージングではさらに複雑な製品を採用する必要がある。
