7 月 18 日の当サイトのニュースによると、NVIDIA Japan の公式ブログによると、HPE は産業技術総合研究所 (当サイトからの注: 英語では AIST と呼ばれます) 向けに日本最速の AI スーパーコンピュータ ABCI 3.0 を構築する予定です。スーパーコンピュータ「ABCI 3.0」は東京近郊の千葉県柏市の施設に設置され、今年末までに運用が開始される予定だ。
▲ 設置場所の概略図 ABCI 3.0 は、その名が示すように、日本の産官学の産学研究所
の第 3 世代 AI ブリッジング クラウド インフラストラクチャ (ABCI) スーパーコンピューターになります。 AI分野における日本の研究、開発、イノベーション、社会実践を加速するために、AIクラウドサービスを提供しています。
ABCI 3.0 は HPE の Cray XD ノード システムに基づいており、各ノードには 8 つの NVIDIA H200 GPU が搭載されます。 NVIDIA Quantum-2 InfiniBand 相互接続ネットワークは、集中的な AI ワークロードと大量のデータ セットの高速通信要件を満たすために、Cray XD ノード間で使用されます。
ABCI 3.0 には、6 エクサフロップスの 16 ビット浮動小数点 AI コンピューティング能力を備えた数千の NVIDIA H200 Tensor コア GPU が含まれます。
スーパーコンピューティングのパフォーマンスを測定するための従来の標準である倍精度浮動小数点演算能力に関しても、ABCI 3.0 は 410 ペタフロップスに達します。この理論上の計算能力が完全に実現されれば、ABCI 3.0 は、最新のスーパーコンピューティング トップ 500 リストで 5 位にランクされている LUMI を超えるのに十分です。
NVIDIA CEO のジェンセン・ファン氏は次のように述べています:
私たちは HPE および IRI と協力して、日本が独自の能力とデータを活用して生産性を向上させ、経済を活性化し、科学的発見を前進できるよう支援していきます。
以上が日本最速のAIスーパーコンピューターが年内に発売予定:NVIDIA H200 GPUをベースにAI演算能力は6エクサフロップスに到達の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。