ホームページ テクノロジー周辺機器 AI Jia Yangqing が「いいね!」しました: 3,000 個のスターを備えた SGLang がリリースされ、Llama 405B 推論が高速化され、vLLM と TensorRT-LLM が数秒で終了します

Jia Yangqing が「いいね!」しました: 3,000 個のスターを備えた SGLang がリリースされ、Llama 405B 推論が高速化され、vLLM と TensorRT-LLM が数秒で終了します

Jul 28, 2024 am 08:07 AM
業界

Llama 3 405B を実行する利点は明らかです。


最近、Meta は最新の 405B モデル (Llama 3.1 405B) をオープンソース化し、オープンソース モデルのパフォーマンスを新たなレベルに引き上げました。モデルパラメータが多数あるため、多くの開発者は次の 1 つの質問について懸念しています。モデルの推論速度を向上させるにはどうすればよいでしょうか?

わずか 2 日後、LMSYS Org チームは行動を起こし、新しい SGLang Runtime v0.2 をリリースしました。これは、LLM および VLM の一般的なサービス エンジンです。 Llama 3.1 405B を実行すると、スループットとレイテンシの両方で vLLM および TensorRT-LLM よりも優れたパフォーマンスを発揮します。

場合によっては (Llama シリーズ モデルを実行している場合)、そのスループットは TensorRT-LLM の 2.1 倍、vLLm の 3.8 倍に達することもあります。
贾扬清点赞:3K star量的SGLang上新,加速Llama 405B推理秒杀vLLM、TensorRT-LLM
LMSYS Org チームは、カリフォルニア大学バークレー校、カリフォルニア大学サンディエゴ校、カーネギー メロン大学の学生と教員によって形成されたオープンな研究グループです。彼らが開発した大規模モデル評価プラットフォームである Chatbot Arena は、大規模モデルの機能をテストするための重要なプラットフォームとなっており、比較的公平な評価方法とも考えられています。

SGLang は、チームによって開発された大規模な言語モデルとビジュアル言語モデルのための高速サービス フレームワークで、今年 1 月に正式にリリースされ、GitHub で 3,000 個以上のスターを獲得しました。

贾扬清点赞:3K star量的SGLang上新,加速Llama 405B推理秒杀vLLM、TensorRT-LLM

このアップデートの効果は驚くべきものです。著名な AI 研究者である Lepton AI の共同創設者兼 CEO の Jia Yangqing は次のようにコメントしています。「私の博士課程の母校であるカリフォルニア大学バークレー校には常に驚かされています。最先端の人工知能とシステムの共同設計です。昨年 SGLang が使用されているのを確認しましたが、今では新しい SGLang を実稼働環境に導入して試すのが待ちきれません。」 SGLang で開発と反復を行っていますか?彼らはブログで次のように述べています。「私たちは 1 年以上にわたって Chatbot Arena プラットフォームを運営し、何百万人ものユーザーにサービスを提供してきました。私たちは人工知能製品と研究のための効率的なサービスの重要性をよく認識しています。運用経験と-深度調査により、高度なマルチモデル サービス フレームワーク FastChat から効率的なサービス エンジン SGLang ランタイム (SRT) まで、基盤となるサービス システムの強化を継続します。この記事の焦点は、SGLang ランタイムです。 LLM および VLM 用のユニバーサル サービス エンジンです。TensorRT-LLM、vLLM、MLC-LLM、Hugging Face TGI などの既存のオプションには利点がありますが、使いにくい、カスタマイズが難しい、またはパフォーマンスが低い場合があります。 SGLang v0.2 の開発は、ユーザーフレンドリーで変更が簡単であるだけでなく、TensorRT-LLM や vLLM と比較して最高のパフォーマンスを備えたサービス エンジンを作成することを目的としており、SGLang ランタイムは Llama のモデルを処理します。 -8B から Llama-405B、および A100 で H100 GPU で FP8 および FP16 を使用すると、オンラインとオフラインの両方のシナリオで優れたパフォーマンスまたは競争力のあるパフォーマンスを一貫して提供できます。 SGLang は常に vLLM を上回り、Llama-70B で最大 3.8 倍のスループットを達成します。また、定期的に TensorRT-LLM と同等かそれを上回り、Llama-405B で最大 2.1 倍のスループットを達成します。さらに、SGLang は完全にオープン ソースであり、純粋な Python で書かれており、コア スケジューラは 4K 行未満のコードで実装されています。
贾扬清点赞:3K star量的SGLang上新,加速Llama 405B推理秒杀vLLM、TensorRT-LLM
SGLang は、Apache 2.0 ライセンスに基づいてライセンスされたオープンソース プロジェクトです。これは、LMSYS Chatbot Arena によって一部のモデル、Databricks、いくつかのスタートアップや研究機関をサポートするために使用されており、何兆ものトークンを生成し、より高速なイテレーションを可能にしています。

以下は、いくつかのフレームワークの比較実験設定と結果です。

ベンチマークのセットアップ

研究者は、オフラインとオンラインのユースケースのベンチマークを実施しました:
オフライン: 一度に2,000から3,000のリクエストを送信し、出力スループット(トークン/秒)を測定しました。つまり、出力トークンの数を合計期間で割った値です。彼らがテストした合成データセットは ShareGPT データセットからのものでした。たとえば、I-512-O-1024 は、平均入力が 512 トークン、平均出力が 1024 トークンのデータ セットを表します。 5 つのテスト データ セットは次のとおりです:
データ セット 1: I-243-O-770;
データ セット 2: I-295-O-770; I-243-O-386;

データセット 4: I-295-O-386;

データセット 5: I-221-O-201。
  • オンライン: 1 秒あたり 1 ~ 16 リクエスト (RPS) の速度でリクエストを送信し、エンドツーエンド遅延の中央値を測定します。合成データセット I-292-O-579 を使用します。
  • 彼らは、vLLM 0.5.2 (デフォルトパラメーター付き) と TensorRT-LLM (推奨パラメーターと調整されたバッチサイズ付き) を使用しました。プレフィックス キャッシュはすべてのエンジンでオフになります。目的は、投機的なデコードやキャッシュなどの追加機能を使用せずに、基本的なパフォーマンスをベンチマークすることです。彼らは、OpenAI 互換 API を使用して SGLang と vLLM をベンチマークし、Triton インターフェイスを使用して TensorRT-LLM をベンチマークしました。
  • A100 (bf16) で動作する Llama-8B

研究者らは小型モデル Llama-8B でテストを開始しました。以下のグラフは、5 つの異なるデータセットのオフライン設定で各エンジンが達成できる最大出力スループットを示しています。 TensorRT-LLM と SGLang はどちらも 1 秒あたり約 4000 トークンのスループットを達成できますが、vLLM はわずかに遅れています。

以下のオンラインベンチマークグラフは、オフラインの場合と同様の傾向を示しています。 TensorRT-LLM と SGLang は同等のパフォーマンスを示し、RPS > 10 を維持しますが、vLLM のレイテンシはリクエスト レートが高くなると大幅に増加します。
贾扬清点赞:3K star量的SGLang上新,加速Llama 405B推理秒杀vLLM、TensorRT-LLM
8 A100 (bf16) で実行される Llama-70B

8 GPU でテンソル並列処理を実行するより大きな Llama-70B モデルに関しては、傾向は 8B と同様です。以下のオフライン ベンチマークでは、TensorRT-LLM と SGLang の両方が高いスループットを達成しています。
贾扬清点赞:3K star量的SGLang上新,加速Llama 405B推理秒杀vLLM、TensorRT-LLM
以下のオンライン結果では、TensorRT-LLM は効率的なカーネル実装とランタイムのおかげでレイテンシが低いことがわかります。
贾扬清点赞:3K star量的SGLang上新,加速Llama 405B推理秒杀vLLM、TensorRT-LLM
Llama-70B を 8 台の H100 (fp8) で実行します

次に、FP8 のパフォーマンスをテストします。 vLLM と SGLang はどちらも CUTLASS の FP8 カーネルを使用します。オフライン設定では、SGLang のバッチ スケジューラは非常に効率的であり、バッチ サイズが増加するにつれてスループットを拡張し続けることができ、この場合は最高のスループットを実現します。他のシステムでは、OOM、広範な手動チューニングの欠如、またはその他のオーバーヘッドが原因で、スループットやバッチ サイズを拡張できません。これはオンラインでも当てはまり、SGLang と TensorRT のレイテンシの中央値は同様です。
贾扬清点赞:3K star量的SGLang上新,加速Llama 405B推理秒杀vLLM、TensorRT-LLM
贾扬清点赞:3K star量的SGLang上新,加速Llama 405B推理秒杀vLLM、TensorRT-LLM
8 台の H100 (fp8) で実行される Llama-405B

最後に、最大の 405B モデルでさまざまな方法のパフォーマンスをベンチマークしました。モデルが大きいため、ほとんどの時間が GPU カーネルに費やされます。異なるフレームワーク間のギャップが減少します。 TensorRT-LLM のパフォーマンスが低い理由は、405B モデルが発売されたばかりであり、図で使用されているバージョンには最新の最適化の一部がまだ統合されていないことが考えられます。 SGLang はオンラインとオフラインの両方で最高のパフォーマンスを発揮します。
贾扬清点赞:3K star量的SGLang上新,加速Llama 405B推理秒杀vLLM、TensorRT-LLM
贾扬清点赞:3K star量的SGLang上新,加速Llama 405B推理秒杀vLLM、TensorRT-LLM
SGLangの概要

SGLangは、大規模な言語モデルと視覚言語モデルのためのサービスフレームワークです。これは、LightLLM、vLLM、Guidance などの複数のオープンソース LLM サービス エンジンの優れた設計の多くに基づいており、それを強化しています。 FlashInfer の高性能の注目 CUDA カーネルを活用し、gpt-fast からインスピレーションを得た torch.compile を統合します。

さらに、研究者らは、KV キャッシュを自動再利用するための RadixAttendant や、制約を高速にデコードするための圧縮ステート マシンなど、いくつかの革新的なテクノロジーも導入しました。 SGLang は、完全に Python で実装された効率的なバッチ スケジューラとして知られています。公平な比較のために、このブログでは、プレフィックス キャッシュや投機的デコードをオフにするなどの特定のシナリオまたはワークロードの最適化を使用して、これらのサービス エンジンの基本パフォーマンスをテストしました。 SGLang の高速化は、適切なエンジニアリングによって実現されます。 SGLang の効率的な Python ベースのバッチ スケジューラは拡張性に優れており、多くの場合、C++ で構築されたクローズド ソース実装と同等か、それよりも優れています。

表 1 は、SGLang、TensorRT-LLM、および vLLM のさまざまな側面を比較しています。パフォーマンスの点では、SGLang と TensorRT-LLM はどちらも優れています。使いやすさとカスタマイズ性の点では、SGLang の軽量でモジュール型のコアによりカスタマイズが容易になりますが、TensorRT-LLM の複雑な C++ テクノロジ スタックとセットアップ手順により、使用と変更がより困難になります。 SGLang のソース コードは完全にオープン ソースですが、TensorRT-LLM は部分的にのみオープン ソースです。比較すると、vLLM は CPU スケジューリングのオーバーヘッドが高くなります。
贾扬清点赞:3K star量的SGLang上新,加速Llama 405B推理秒杀vLLM、TensorRT-LLM
研究者らは、将来的にはロングコンテキストやMoE最適化などの新機能も開発する予定であるとも述べた。

使用方法

你可以按照以下步驟輕鬆服務Llama 模型:  

-project/sglang/tree/main?tab=readme-ov-file#install

2、啟動伺服器:
# Llama 8Bpython -m sglang.launch_server --model-path meta-llama/Meta-Llama-3.1-8B-Instruct# Llama 405Bpython -m sglang.launch_server --model-path meta-llama/Meta-Llama-3.1-405B-Instruct-FP8 --tp 8
ログイン後にコピー

3、使用Openm8
4、運行基準:  
curl http://localhost:30000/v1/completions \-H "Content-Type: application/json" \-d '{"model": "default","prompt": "Say this is a test","max_tokens": 7,"temperature": 0  }'
ログイン後にコピー

附錄:詳細的基準設定

_c
對於所有基準測試,研究者都設定了 ignore_eos 或 min_length/end_id 以確保每個引擎輸出相同數量的 token。他們曾嘗試使用 vLLM 0.5.3.post1,但它在高負載情況下經常崩潰,與部分基準測試中的 vLLM 0.5.2 相比,vLLM 0.5.3.post1 效能似乎差不多甚至更差。因此,他們報告的是 vLLM 0.5.2 的結果。雖然他們知道不同的伺服器配置會對服務效能產生重大影響,但他們主要使用每個引擎的預設參數來模擬普通用戶的情況。
對於8B 和70B 模型,他們使用meta-llama/Meta-Llama-3-8B-Instruct 和meta-llama/Meta-Llama-3-70B-Instruct bf16 檢查點,以及neuralmagic/Metaetao -3-70B-Instruct-FP8 fp8 檢查點。對於 405B 模型,他們在所有基準測試中都使用了虛擬權重。由於TensorRT-LLM 最新圖像r24.06 不支援官方meta-llama/Meta-Llama-3.1-405B-FP8 檢查點中的fbgemm_fp8 量化,他們在所有框架中都使用了每層fp8 量化,並對除lm_head 以外的所有層都進行了量化。他們相信這樣可以對所有引擎進行公平的比較。 A100 和 H100 GPU 為 80GB SXM 版本。

參考連結:https://lmsys.org/blog/2024-07-25-sglang-llama3/

以上がJia Yangqing が「いいね!」しました: 3,000 個のスターを備えた SGLang がリリースされ、Llama 405B 推論が高速化され、vLLM と TensorRT-LLM が数秒で終了しますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

DeepMind ロボットが卓球をすると、フォアハンドとバックハンドが空中に滑り出し、人間の初心者を完全に打ち負かしました DeepMind ロボットが卓球をすると、フォアハンドとバックハンドが空中に滑り出し、人間の初心者を完全に打ち負かしました Aug 09, 2024 pm 04:01 PM

でももしかしたら公園の老人には勝てないかもしれない?パリオリンピックの真っ最中で、卓球が注目を集めています。同時に、ロボットは卓球のプレーにも新たな進歩をもたらしました。先ほど、DeepMind は、卓球競技において人間のアマチュア選手のレベルに到達できる初の学習ロボット エージェントを提案しました。論文のアドレス: https://arxiv.org/pdf/2408.03906 DeepMind ロボットは卓球でどれくらい優れていますか?おそらく人間のアマチュアプレーヤーと同等です: フォアハンドとバックハンドの両方: 相手はさまざまなプレースタイルを使用しますが、ロボットもそれに耐えることができます: さまざまなスピンでサーブを受ける: ただし、ゲームの激しさはそれほど激しくないようです公園の老人。ロボット、卓球用

初のメカニカルクロー!元羅宝は2024年の世界ロボット会議に登場し、家庭に入ることができる初のチェスロボットを発表した 初のメカニカルクロー!元羅宝は2024年の世界ロボット会議に登場し、家庭に入ることができる初のチェスロボットを発表した Aug 21, 2024 pm 07:33 PM

8月21日、2024年世界ロボット会議が北京で盛大に開催された。 SenseTimeのホームロボットブランド「Yuanluobot SenseRobot」は、全製品ファミリーを発表し、最近、世界初の家庭用チェスロボットとなるYuanluobot AIチェスプレイロボット - Chess Professional Edition(以下、「Yuanluobot SenseRobot」という)をリリースした。家。 Yuanluobo の 3 番目のチェス対局ロボット製品である新しい Guxiang ロボットは、AI およびエンジニアリング機械において多くの特別な技術アップグレードと革新を経て、初めて 3 次元のチェスの駒を拾う機能を実現しました。家庭用ロボットの機械的な爪を通して、チェスの対局、全員でのチェスの対局、記譜のレビューなどの人間と機械の機能を実行します。

クロードも怠け者になってしまった!ネチズン: 自分に休日を与える方法を学びましょう クロードも怠け者になってしまった!ネチズン: 自分に休日を与える方法を学びましょう Sep 02, 2024 pm 01:56 PM

もうすぐ学校が始まり、新学期を迎える生徒だけでなく、大型AIモデルも気を付けなければなりません。少し前、レディットはクロードが怠け者になったと不満を漏らすネチズンでいっぱいだった。 「レベルが大幅に低下し、頻繁に停止し、出力も非常に短くなりました。リリースの最初の週は、4 ページの文書全体を一度に翻訳できましたが、今では 0.5 ページの出力さえできません」 !」 https://www.reddit.com/r/ClaudeAI/comments/1by8rw8/something_just_feels_wrong_with_claude_in_the/ というタイトルの投稿で、「クロードには完全に失望しました」という内容でいっぱいだった。

世界ロボット会議で「未来の高齢者介護の希望」を担う家庭用ロボットを囲みました 世界ロボット会議で「未来の高齢者介護の希望」を担う家庭用ロボットを囲みました Aug 22, 2024 pm 10:35 PM

北京で開催中の世界ロボット会議では、人型ロボットの展示が絶対的な注目となっているスターダストインテリジェントのブースでは、AIロボットアシスタントS1がダルシマー、武道、書道の3大パフォーマンスを披露した。文武両道を備えた 1 つの展示エリアには、多くの専門的な聴衆とメディアが集まりました。弾性ストリングのエレガントな演奏により、S1 は、スピード、強さ、正確さを備えた繊細な操作と絶対的なコントロールを発揮します。 CCTVニュースは、「書道」の背後にある模倣学習とインテリジェント制御に関する特別レポートを実施し、同社の創設者ライ・ジエ氏は、滑らかな動きの背後にあるハードウェア側が最高の力制御と最も人間らしい身体指標(速度、負荷)を追求していると説明した。など)、AI側では人の実際の動きのデータが収集され、強い状況に遭遇したときにロボットがより強くなり、急速に進化することを学習することができます。そしてアジャイル

ACL 2024 賞の発表: HuaTech による Oracle 解読に関する最優秀論文の 1 つ、GloVe Time Test Award ACL 2024 賞の発表: HuaTech による Oracle 解読に関する最優秀論文の 1 つ、GloVe Time Test Award Aug 15, 2024 pm 04:37 PM

貢献者はこの ACL カンファレンスから多くのことを学びました。 6日間のACL2024がタイのバンコクで開催されています。 ACL は、計算言語学と自然言語処理の分野におけるトップの国際会議で、国際計算言語学協会が主催し、毎年開催されます。 ACL は NLP 分野における学術的影響力において常に第一位にランクされており、CCF-A 推奨会議でもあります。今年の ACL カンファレンスは 62 回目であり、NLP 分野における 400 以上の最先端の作品が寄せられました。昨日の午後、カンファレンスは最優秀論文およびその他の賞を発表しました。今回の優秀論文賞は7件(未発表2件)、最優秀テーマ論文賞1件、優秀論文賞35件です。このカンファレンスでは、3 つの Resource Paper Award (ResourceAward) と Social Impact Award (

Li Feifei 氏のチームは、ロボットに空間知能を与え、GPT-4o を統合する ReKep を提案しました Li Feifei 氏のチームは、ロボットに空間知能を与え、GPT-4o を統合する ReKep を提案しました Sep 03, 2024 pm 05:18 PM

ビジョンとロボット学習の緊密な統合。最近話題の1X人型ロボットNEOと合わせて、2つのロボットハンドがスムーズに連携して服をたたむ、お茶を入れる、靴を詰めるといった動作をしていると、いよいよロボットの時代が到来するのではないかと感じられるかもしれません。実際、これらの滑らかな動きは、高度なロボット技術 + 精緻なフレーム設計 + マルチモーダル大型モデルの成果です。有用なロボットは多くの場合、環境との複雑かつ絶妙な相互作用を必要とし、環境は空間領域および時間領域の制約として表現できることがわかっています。たとえば、ロボットにお茶を注いでもらいたい場合、ロボットはまずティーポットのハンドルを掴んで、お茶をこぼさないように垂直に保ち、次にポットの口がカップの口と揃うまでスムーズに動かす必要があります。 、そしてティーポットを一定の角度に傾けます。これ

宏蒙スマートトラベルS9とフルシナリオ新製品発売カンファレンス、多数の大ヒット新製品が一緒にリリースされました 宏蒙スマートトラベルS9とフルシナリオ新製品発売カンファレンス、多数の大ヒット新製品が一緒にリリースされました Aug 08, 2024 am 07:02 AM

今日の午後、Hongmeng Zhixingは新しいブランドと新車を正式に歓迎しました。 8月6日、ファーウェイはHongmeng Smart Xingxing S9およびファーウェイのフルシナリオ新製品発表カンファレンスを開催し、パノラマスマートフラッグシップセダンXiangjie S9、新しいM7ProおよびHuawei novaFlip、MatePad Pro 12.2インチ、新しいMatePad Air、Huawei Bisheng Withを発表しました。レーザー プリンタ X1 シリーズ、FreeBuds6i、WATCHFIT3、スマート スクリーン S5Pro など、スマート トラベル、スマート オフィスからスマート ウェアに至るまで、多くの新しいオールシナリオ スマート製品を開発し、ファーウェイは消費者にスマートな体験を提供するフル シナリオのスマート エコシステムを構築し続けています。すべてのインターネット。宏孟志興氏:スマートカー業界のアップグレードを促進するための徹底的な権限付与 ファーウェイは中国の自動車業界パートナーと提携して、

分散型人工知能カンファレンス DAI 2024 論文募集: エージェント デイ、強化学習の父であるリチャード サットン氏が出席します。 Yan Shuicheng、Sergey Levine、DeepMind の科学者が基調講演を行います 分散型人工知能カンファレンス DAI 2024 論文募集: エージェント デイ、強化学習の父であるリチャード サットン氏が出席します。 Yan Shuicheng、Sergey Levine、DeepMind の科学者が基調講演を行います Aug 22, 2024 pm 08:02 PM

会議の紹介 科学技術の急速な発展に伴い、人工知能は社会の進歩を促進する重要な力となっています。この時代に、分散型人工知能 (DAI) の革新と応用を目撃し、参加できることは幸運です。分散型人工知能は人工知能分野の重要な分野であり、近年ますます注目を集めています。大規模言語モデル (LLM) に基づくエージェントは、大規模モデルの強力な言語理解機能と生成機能を組み合わせることで、自然言語対話、知識推論、タスク計画などにおいて大きな可能性を示しました。 AIAgent は大きな言語モデルを引き継ぎ、現在の AI 界隈で話題になっています。アウ

See all articles