このサイトは6月2日、現在開催中のHuang Jen-Hun 2024 Taipei Computer Showの基調講演で、Huang Jen-Hun氏が生成人工知能がソフトウェアフルスタックの再構築を促進すると紹介し、そのNIM(Nvidia Inference Microservices)をデモンストレーションしたと報じた。クラウドネイティブのマイクロサービス。
NVIDIA は、「AI ファクトリー」が新たな産業革命を引き起こすと信じています: Microsoft が創設したソフトウェア業界を例に挙げ、Huang Renxun 氏は、生成型人工知能がそのフルスタックの再構築を促進すると信じています。 。
あらゆる規模の企業による AI サービスの導入を促進するために、NVIDIA は今年 3 月に NIM (Nvidia Inference Microservices) クラウドネイティブ マイクロサービスを開始しました。
NIM+ は、市場投入までの時間を短縮し、クラウド、データセンター、GPU アクセラレーションされたワークステーションのどこにでも生成 AI モデルの展開を簡素化するように設計された、最適化されたクラウドネイティブのマイクロサービスのセットです。業界標準の API を使用して AI モデルの開発と運用パッケージの複雑さを抽象化し、それによって開発者プールを拡大します。
このサイトは、公式が llama3 ラージ モデル用の NIM コンテナを作成したことに気付きました。これは現在 NVIDIA 公式 Web サイトでオンラインになっており、すべてのユーザーがダウンロードしてデプロイできるように公開されています。意思。
2024 Computex Taipei 特別トピック
以上が「AI Factory」はソフトウェア スタック全体の再構築を促進し、NVIDIA はユーザーが展開できる Llama3 NIM コンテナを提供しますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。