8月31日のニュースによると、Google Cloudは本日開催されたCloud Next Conferenceで来月A3仮想マシンインスタンスを開始すると発表した。この新しい仮想マシン インスタンスの最大のハイライトは、NVIDIA H100 が搭載されていることです。 Tensor Core GPU は、生成人工知能と大規模言語モデルのニーズを満たすことができます。
レポートによると、A3 インスタンスは第 4 世代 Intel Xeon スケーラブル プロセッサ、2TB DDR5-4800 メモリ、および 8 個の NVIDIA H100「ホッパー」を使用しています。 GPU。 NVlink 著 4.0 および NVSwitch、このインスタンスは 3.6 を実装します 二分帯域幅 (TBps)。新しい A3 スーパーコンピューターは、最も要求の厳しい人工知能モデルをトレーニングして提供し、生成人工知能と大規模な言語モデルのイノベーションを推進するように設計されています。このスーパーコンピュータは26の機能を提供できると言われています。 exaFlopsの人工知能性能。
さらに、Google Cloud は記者会見で新しい TPU v5e も紹介しました。このクラウド TPU は、これまでで最もコスト効率が高く、アクセスしやすいものです。これらの TPU またはカスタム ASIC は、人工知能と機械学習のワークロードを高速化することを目的としています。 SDxCentral によると、TPU v5e は、前世代と比較して 1 ドルあたりのトレーニング パフォーマンスを 2 倍にし、1 ドルあたりの推論パフォーマンスを 2.5 倍向上させます
以上がGoogle Cloudは、AIのニーズを満たすNVIDIA GPUを搭載したA3仮想マシンインスタンスを来月リリースすると発表したの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。