世界は依然として NVIDIA H100 チップに夢中で、AI コンピューティング能力の需要の高まりに応えるために狂ったように購入していますが、現地時間月曜日、NVIDIA は大規模な AI モデルのトレーニング用に最新の AI チップ H200 を静かに発売しました。前世代製品H100に対し、H200の性能は約60%~90%向上しました。
H200 は NVIDIA H100 のアップグレード バージョンであり、H100 と同様にホッパー アーキテクチャに基づいており、主なアップグレードには 141GB の HBM3e ビデオ メモリが含まれており、ビデオ メモリの帯域幅は H100 の 3.35TB/s から 4.8TB/s に増加しています。 。 NVIDIA の公式 Web サイトによると、H200 は HBM3e メモリを使用する同社初のチップでもあり、このメモリはより高速で大容量であるため、大規模な言語モデルに適しています。 NVIDIA は次のように述べています。「HBM3e を使用すると、NVIDIA H200 は 1 秒あたり 4.8 TB で 141 GB のメモリを実現し、A100 と比較してほぼ 2 倍の容量と 2.4 倍の帯域幅 を実現します。」 公式写真によると、H200の大型モデルLlama 2とGPT-3.5の出力速度は、それぞれH100の1.9倍と1.6倍です、高性能コンピューティングHPCにおける速度はデュアルコアの110倍に達していますx86 CPU 時間。
H200 は来年の第 2 四半期に納入される予定ですが、Nvidia はまだ価格を発表していません。 ただし、H100 や他の AI チップと同様に、Nvidia は H200 チップを中国メーカーに供給しません。
今年10月17日、米国商務省はチップの新たな輸出管理規制、特に高計算能力のAIチップに対する規制を強化しました。非常に重要な新しい規制の 1 つは、高度なコンピューティング チップの制限された規格を調整し、パラメーターとして新しい「パフォーマンス密度のしきい値」を設定することです。新しい規制により、NVIDIA 中国の「特別版」H800 および A800 は中国への輸出が制限されました。
最先端の AI チップの不足は、短期的には国内 AI 産業の発展にいくつかの課題をもたらすでしょうが、そこにはチャンスも含まれています:
第一に、Baidu が最近発注した 1,600 個の Huawei Ascend 910B チップなど、国内のコンピューティング パワー チップを置き換える機会が存在します。第二に、需要と供給の不一致の下で、
コンピューティング パワーのレンタル価格の上昇がコンピューティング パワーのレンタルに利益をもたらします。企業。 Huina Technology は 14 日、NVIDIA A100 チップを搭載した高性能コンピューティング サーバーのコンピューティング電力サービス料金を 100% 引き上げると発表しました。最終的には、Chiplet に代表される高度なパッケージング技術により、この問題をある程度解決できます。先端プロセスの生産能力不足の問題により、開発が加速すると予想されます。 それでは、Huawei Shengteng のほかに、国内のコンピューティング能力を持つ誰が旗を掲げることができるのでしょうか?業界チェーンに関連する企業は何ですか?他にどのような方向が間接的に利益をもたらすと予想されますか? 国内のAIコンピューティングパワーの独立制御の4つの主要な利益の方向性と代表的な企業は、特別なトピック「
AIコンピューティングパワーの独立制御が不可欠です」を作成しました。必要な友達は、以下のQRコードをスキャンするか、大歓迎です。アシスタント WeChat: hzkyxjyy を追加し、無料で入手するか、友達のサークルで読んでください。追加が成功すると、過去のすべてのレポートと今後の各特別レポートを無料で読むことができます。
以上がNVIDIA が新しい AI チップ H200 を発表、パフォーマンスが 90% 向上!中国のコンピューティング能力が独自の躍進を達成!の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。