NVIDIA GPU を入手できない大型 AI モデルには、AMD チップが登場します。

WBOY
リリース: 2023-06-15 11:49:23
転載
572 人が閲覧しました

AMDの「最終兵器」が登場!

東部時間6月13日、AMDは「AMDデータセンターおよび人工知能テクノロジープレミア」で、ChatGPTやその他の生成AIの使用を加速できる、これまでで最も先進的な人工知能GPU MI300Xチップを発売すると発表しました。処理速度が向上し、最大 192GB のメモリを使用できます。

対照的に、NVIDIA の H100 チップは 120 GB のメモリしかサポートしていません。これは、この新興市場における NVIDIA の優位性が挑戦される可能性があることを意味すると市場は一般に考えています。 MI300X は、今年後半に一部の顧客向けに出荷を開始する予定です。

投資家はAMDがAIチップの分野でNVIDIAと競合すると予想しているが、アナリストはそのトレンドに乗らず、AMDのこの強力な武器を吹き飛ばしていないが、AMDがNVIDIAチップの分野で挑戦したいと合理的に指摘している。が業界リーダーになるまでにはまだ長い道のりがあり、このチップだけでそれを達成することはできません。

Citi のチップアナリストである Chris Danely 氏は、最新のレポートで、AMD の MI300 チップは設計上の大きな勝利を収めたようだが、性能の限界と失敗の歴史を考慮すると、グラフィックス/CPU IC の持続可能性については疑問を表明していると述べました。私たちはAMDが引き続きIntelから市場シェアを獲得すると予想していますが、その新しいGenoa製品は予想よりも遅いペースで成長しているようです。」

同日、Cambrian-AI Research LLCの創設者兼主任アナリストであるカール・フロイント氏もフォーブスに次のように書いていますAMDが新たに発売したチップは市場関係者全員から大きな関心を集めているが、NvidiaのH100チップと比較すると、MI300Xは直面している主に次の 4 つの側面におけるいくつかの課題:

NVIDIA は本日、H100 の完全な出荷を開始します。同社は AI 業界でこれまでで最大のソフトウェアと研究者のエコシステムを持っています。

第二に、MI300Xチップは192GBのメモリを提供しますが、Nvidiaはこの時点ですぐに追いつき、同じ時間枠で追い越す可能性さえあるため、これは大きな利点ではありません。 MI300X は非常に高価であり、Nvidia の H100 と比較して大幅なコスト上の利点はありません。

3 番目が本当の鍵です。MI300 には、大規模言語モデル (LLM) のパフォーマンスを 2 倍にできる H100 のような Transformer Engine (NVIDIA GPU で Transformer モデルを高速化するためのライブラリ) がありません。数千の (NVIDIA) GPU を使用して新しいモデルをトレーニングするのに 1 年かかる場合、AMD ハードウェアを使用してトレーニングするにはさらに 2 ~ 3 年かかるか、問題を解決するために 3 倍の GPU を投資する必要がある可能性があります。

最後に、AMD はまだベンチマークを公開していません。ただし、LLM のトレーニングおよび実行時のパフォーマンスはシステム設計と GPU に依存するため、今年後半に業界の競合他社との比較が行われることを楽しみにしています。

ただし、フロイント氏は、MI300XがNvidiaのGH200 Grace Hopperスーパーチップの代替品になる可能性があるとも付け加えました。 OpenAIやMicrosoftのような企業はそのような代替手段を必要としており、AMDがこれらの企業に拒否できないオファーを与えるかどうかは疑問だが、AMDがNvidiaから多くの市場シェアを奪うことはないだろう。

AMDの株価は今年初めから94%上昇し、昨日の米国株式市場は3.61%下落して取引を終え、同業のNVIDIAは3.90%上昇して取引を終え、市場価値は初めて1兆ドルを超えた。時間。

NVIDIA GPU を入手できない大型 AI モデルには、AMD チップが登場します。

実際、Nvidia はチップだけでなく、10 年以上にわたって AI 研究者に提供してきたソフトウェア ツールによっても優位に立っています。 Moor Insights & Strategy アナリストの Anshel Sag 氏は、「たとえ AMD がハードウェア パフォーマンスの点で競争力があるとしても、人々はそのソフトウェア ソリューションが Nvidia と競合できるとはまだ確信していません。」と述べています。

テクノロジー企業間の健全な競争を促進することが期待されます

アメリカのテクノロジー評論家ビリー・デュバースタイン氏は12日、ChatGPTの人気でAIが新たな分野を切り開いたようで、多くの業界の大手企業の間で市場シェアを獲得するための競争が始まっていると指摘した。

NVIDIA と AMD のどちらがこの競争に勝っても、すべてのテクノロジー企業が恩恵を受けることになります。

Duberstein 氏は、潜在的な顧客は MI300 に非常に興味を持っていると述べました。同氏が引用した Digital Times の 6 月 8 日の記事によると、データセンターの顧客は Nvidia 製品の代替品を必死に探しています。 Nvidia は現在、高収益かつ高成長の人工知能 GPU 市場で圧倒的な地位を占めており、AI サーバー分野の市場シェアの 60 ~ 70% を占めています。

Duberstein 氏は続けて、Nvidia H100 サーバーの現在の高価格を考慮すると、データセンター運営者は Nvidia が AI チップの価格を下げるのに役立つサードパーティの競合他社を持つことを望んでいると指摘しました。つまり、

これは AMD にとっては大きな利点であり、Nvidia にとっては課題です。これにより、すべての市場参加者にとって良好な収益が得られます。

先月、モルガン・スタンレーのアナリストであるジョセフ・ムーア氏は、AMDの人工知能売上高が当初の予想より「数倍」高くなる可能性があると述べ、自身の予測を修正した。

GPU AI 産業チェーンを争う中国企業は今後もその恩恵を受けることが期待されます

現在、世界中の大手テクノロジー企業がAIの入場券を巡って争奪戦を繰り広げています。海外の大手企業と比較して、中国の大手テクノロジー企業はGPUの購入をより緊急に求めている。

「LatePost」によると、今年の春節以降、クラウドコンピューティング事業を展開する中国の大手インターネット企業がNVIDIAに大量発注を行ったという。 Byteは今年、Nvidiaに10億ドル以上のGPUを発注しており、別の大手企業からの発注も少なくとも10億元を超えている。 そして、Byte の今年だけの注文は、昨年 NVIDIA が中国で販売した商用 GPU の総数に近い可能性があります。

Sinolink SecuritiesはAMDの新たな動きについて引き続き楽観的であり、AI産業チェーンについても引き続き楽観的です。同庁は、生成AIの継続的な人気がAIチップに対する強い需要を引き起こしており、NVIDIAの第2四半期のデータセンター事業見通しは予想を上回っており、TSMCの4nm、5nm、7nmの容量使用率が大幅に増加していることが何よりの証拠であると考えている。

シノリンク証券は、業界チェーン調査によると、大手光モジュールDSPチップメーカーはAI関連ビジネスが将来急速に成長すると述べ、CPU/GPUヒートシンク大手企業はAI GPUが大幅に成長すると述べたと指摘した。第2四半期と第3四半期。主要企業は、次の四半期にはサーバー用 PCIe Retimer チップの需要が加速し、徐々に増加すると述べています。 2024年から2025年にかけて、AI業界の新製品がAI産業チェーンの発展を促進し、持続的な経済利益をもたらすと予想されています。

以上がNVIDIA GPU を入手できない大型 AI モデルには、AMD チップが登場します。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ソース:sohu.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート