NVIDIA が TensorRT-LLM の新バージョンを発表: 推論機能が 5 倍に向上し、8GB 以上のグラフィックス カードでのローカル操作に適し、OpenAI の Chat API をサポート

王林
リリース: 2023-11-17 15:06:45
転載
1162 人が閲覧しました

11 月 16 日のニュースによると、Microsoft Ignite 2023 カンファレンスが本日開幕し、Nvidia の幹部がカンファレンスに出席し、TensorRT-LLM のアップデートと OpenAI Chat API のサポートの追加を発表しました。

NVIDIA は、データ センターと Windows PC のサポートを目的として、今年 10 月に Tensor RT-LLM オープン ソース ライブラリをリリースしました。このオープンソース ライブラリの最大の特徴は、Windows PC に NVIDIA の GeForce RTX GPU が搭載されている場合、TensorRT-LLM により Windows PC 上での LLM の実行速度を 4 倍高速化できることです。 # #NVIDIA は、本日の Ignite 2023 カンファレンスで、TensorRT-LLM をアップデートし、OpenAI の Chat API サポートを追加し、DirectML 機能を強化して、Llama 2 や Stable Diffusion などの AI モデルのパフォーマンスを向上させることを発表しました。

英伟达揭示新版 TensorRT-LLM:推理能力增长 5 倍,适用于 8GB 以上显卡本地运行,并支持 OpenAI 的 Chat API

TensorRT-LLM は、NVIDIA の AI ワークベンチを使用してローカルで実行できます。開発者は、この統合された使いやすいツールキットを利用して、事前トレーニングされた生成 AI モデルと LLM を PC またはワークステーション上で迅速に作成、テスト、カスタマイズできます。 NVIDIA は、この

の早期アクセス登録ページも開始しました。NVIDIA は今月後半に TensorRT-LLM 0.6.0 バージョン アップデートをリリースする予定です。これにより、推論パフォーマンスが 5 倍向上し、Mistral 7B および Nemotron-3 がサポートされます。 8B およびその他の主流 LLM。

英伟达揭示新版 TensorRT-LLM:推理能力增长 5 倍,适用于 8GB 以上显卡本地运行,并支持 OpenAI 的 Chat API ユーザーは、8 GB 以上のビデオ メモリを備えた GeForce RTX 30 シリーズおよび 40 シリーズ GPU で実行でき、一部のポータブル Windows デバイスでは高速で正確なネイティブ LLM 機能も使用できます

以上がNVIDIA が TensorRT-LLM の新バージョンを発表: 推論機能が 5 倍に向上し、8GB 以上のグラフィックス カードでのローカル操作に適し、OpenAI の Chat API をサポートの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート