ホームページ テクノロジー周辺機器 AI モデル推論の高速化: CPU パフォーマンスが 5 倍に向上 Apple は大規模な推論の高速化にフラッシュ メモリを使用 Siri 2.0 は間もなくデビューしますか?

モデル推論の高速化: CPU パフォーマンスが 5 倍に向上 Apple は大規模な推論の高速化にフラッシュ メモリを使用 Siri 2.0 は間もなくデビューしますか?

Jan 14, 2024 pm 10:48 PM
プロジェクト

Apple のこの新しい取り組みは、将来の iPhone に大型モデルを追加する能力に無限の想像力をもたらすでしょう。

近年、GPT-3、OPT、PaLM などの大規模言語モデル (LLM) は、幅広い自然言語処理 (NLP) タスクで優れたパフォーマンスを実証しています。ただし、これらの大規模な言語モデルには数千億、さらには数兆のパラメーターが含まれる可能性があり、リソースに制約のあるデバイス上で効率的にロードして実行することが困難になるため、これらのパフォーマンスを達成するには大規模な計算およびメモリ推論が必要になります。

現在の標準ソリューション推論のためにモデル全体を DRAM にロードすることですが、このアプローチでは実行できる最大モデル サイズが大幅に制限されます。たとえば、70 億のパラメータ モデルでは、パラメータを半精度浮動小数点形式でロードするために 14 GB 以上のメモリが必要ですが、これはほとんどのエッジ デバイスの能力を超えています。

この制限を解決するために、Apple の研究者は、DRAM より少なくとも 1 桁大きいフラッシュ メモリにモデル パラメータを保存することを提案しました。その後、推論中に必要なパラメータを直接かつ巧みにフラッシュロードすることで、モデル全体を DRAM に収める必要がなくなりました。

このアプローチは、LLM がフィードフォワード ネットワーク (FFN) 層で高度なスパース性を示し、OPT や Falcon などのモデルが 90% を超えるスパース性を達成していることを示す最近の研究に基づいています。したがって、このスパース性を利用して、ゼロ以外の入力を持つパラメータ、またはゼロ以外の出力を持つと予測されるパラメータのみをフラッシュ メモリから選択的にロードします。

CPU推理提升4到5倍,苹果用闪存加速大模型推理,Siri 2.0要来了?

論文アドレス: https://arxiv.org/pdf/2312.11514.pdf

具体的には、研究者らは、次のようなハードウェアに着想を得たコスト モデルについて議論しました。フラッシュ メモリ、DRAM、およびコンピューティング コア (CPU または GPU)。次に、データ転送を最小限に抑え、フラッシュ スループットを最大化するための 2 つの補完的な手法が導入されています。

  • ウィンドウ: 最初のいくつかのタグのパラメータのみをロードし、最後に計算されたタグのアクティブ化を再利用します。このスライディング ウィンドウ アプローチにより、重みをロードするための IO リクエストの数が削減されます。

  • 行と行のバンドル: 上向き投影レイヤーと下向き投影レイヤーの連結された行と列を保存し、より大きな連続部分を読み取ります。フラッシュメモリの部分。これにより、より大きなブロックを読み取ることでスループットが向上します。

フラッシュから DRAM に転送される重みの数をさらに減らすために、研究者らは FFN のスパース性を予測し、ゼロ化パラメータのロードを回避しようとしました。ウィンドウ処理とスパース予測を組み合わせて使用​​することにより、推論クエリごとにフラッシュ FFN レイヤーの 2% のみがロードされます。また、DRAM 内転送を最小限に抑え、推論レイテンシを削減するために、静的メモリの事前割り当ても提案しています。

この論文のフラッシュ ロード コスト モデルは、より優れたデータのロードとより大きなブロックの読み取りとの間でバランスを取ります。このコスト モデルを最適化し、オンデマンドでパラメーターを選択的にロードするフラッシュ戦略は、CPU と GPU での単純な実装と比較して、2 倍の DRAM 容量でモデルを実行し、推論速度をそれぞれ 4 ~ 5 倍および 20 ~ 25 倍向上させることができます。

CPU推理提升4到5倍,苹果用闪存加速大模型推理,Siri 2.0要来了?

この取り組みにより、iOS 開発がより面白くなるとコメントする人もいます。

フラッシュ メモリと LLM の推論

帯域幅とエネルギーの制限

最新の NAND フラッシュ メモリは高帯域幅と低遅延を提供しますが、 , しかし、特にメモリに制約のあるシステムでは、DRAM のパフォーマンス レベルにはまだ達していません。以下の図 2a は、これらの違いを示しています。

NAND フラッシュに依存する単純な推論の実装では、順方向パスごとにモデル全体をリロードする必要がある場合があります。このプロセスには時間がかかり、モデルの圧縮にも数秒かかります。さらに、DRAM から CPU または GPU メモリへのデータ転送には、より多くのエネルギーが必要です。

CPU推理提升4到5倍,苹果用闪存加速大模型推理,Siri 2.0要来了?

DRAM で十分なシナリオでは、データの読み込みコストが削減され、モデルを DRAM に常駐させることができます。ただし、特に最初のトークンに高速な応答時間が必要な場合は、モデルの初期読み込みでもエネルギーを消費します。私たちのアプローチは、LLM の活性化スパース性を利用して、モデルの重みを選択的に読み取ることでこれらの課題に対処し、それによって時間とエネルギーのコストを削減します。

次のように再表現します: データ転送速度の取得

フラッシュ システムは、大量のシーケンシャル読み取りで最高のパフォーマンスを発揮します。たとえば、Apple MacBook Pro M2 には 2TB のフラッシュ メモリが搭載されており、ベンチマーク テストでは、キャッシュされていないファイルの 1 GiB の線形読み取り速度が 6 GiB/s を超えました。ただし、小規模なランダム読み取りでは、オペレーティング システム、ドライバー、ミッドレンジ プロセッサ、フラッシュ コントローラーなどの読み取りが多段構成であるため、このような高帯域幅を実現することはできません。各段階で遅延が発生し、読み取り速度の低下により大きな影響が生じます。

これらの制限を回避するために、研究者は同時に使用できる 2 つの主要な戦略を提唱しています。

最初の戦略は、より大きなデータ ブロックを読み取ることです。スループットの増加は線形的ではありません (データ ブロックが大きいほど、より長い転送時間が必要になります) が、最初のバイトの遅延が総リクエスト時間に占める割合は小さくなり、データの読み取りがより効率的になります。図 2b はこの原理を示しています。直観に反しますが、興味深い観察は、場合によっては、必要以上のデータを (ただし大きなチャンクで) 読み取って破棄する方が、必要なデータだけを小さなチャンクで読み取るよりも高速であるということです。

2 番目の戦略は、ストレージ スタックとフラッシュ コントローラーの固有の並列性を利用して、並列読み取りを実現することです。結果は、標準ハードウェアで 32KiB 以上のマルチスレッド ランダム読み取りを使用して、スパース LLM 推論に適したスループットを達成できることを示しています。

平均ブロック長を長くするレイアウトでは帯域幅が大幅に増加する可能性があるため、スループットを最大化する鍵は重みの格納方法にあります。場合によっては、データをより小さく効率の悪いチャンクに分割するよりも、余分なデータを読み取ってその後破棄する方が有益な場合があります。

フラッシュ ローディング

研究者らは、上記の課題に着想を得て、データ転送量を最適化し、データ転送速度を向上させる方法を提案しました。これは次のように表現できます。推論速度を向上させるため。このセクションでは、利用可能な計算メモリがモデル サイズよりはるかに小さいデバイスで推論を実行する際の課題について説明します。

この課題を分析するには、完全なモデルの重みをフラッシュ メモリに保存する必要があります。研究者がさまざまなフラッシュ ロード戦略を評価するために使用する主な指標はレイテンシです。レイテンシは、フラッシュ ロードを実行する I/O コスト、新しくロードされたデータを管理するメモリ オーバーヘッド、および推論操作。

Apple は、メモリ制約下でレイテンシーを削減するためのソリューションを 3 つの戦略的領域に分割し、それぞれがレイテンシーの特定の側面を対象としています:

1. データ負荷の削減: データのロードを減らして、メモリに関連するレイテンシーを削減することを目指しています。フラッシュ I/O 操作。

CPU推理提升4到5倍,苹果用闪存加速大模型推理,Siri 2.0要来了?

CPU推理提升4到5倍,苹果用闪存加速大模型推理,Siri 2.0要来了?

2. データ ブロック サイズの最適化: ロードされるデータ ブロックのサイズを増やすことでフラッシュのスループットを向上させ、レイテンシを短縮します。

次は、フラッシュ読み取り効率を向上させるためにデータ ブロック サイズを増やすために研究者が使用する戦略です:

  • 列と行をバンドルする

  • #同時アクティベーションベースのバンドリング

CPU推理提升4到5倍,苹果用闪存加速大模型推理,Siri 2.0要来了?

3. ロードされたデータの効果的な管理: データがメモリにロードされた後の管理を簡素化します。経費を大幅に削減します。

DRAM 内のデータ転送はフラッシュ メモリにアクセスするより効率的ですが、無視できないコストが発生します。新しいニューロンのデータを導入する場合、行列の再割り当てや新しい行列の追加では、DRAM 内の既存のニューロン データを書き換える必要があるため、大幅なオーバーヘッドが発生する可能性があります。これは、DRAM 内のフィードフォワード ネットワーク (FFN) の大部分 (~25%) を書き換える必要がある場合に特にコストがかかります。

この問題を解決するために、研究者たちは別のメモリ管理戦略を採用しました。この戦略には、必要なすべてのメモリを事前に割り当て、効率的に管理するために対応するデータ構造を確立することが含まれます。図 6 に示すように、データ構造にはポインター、行列、オフセット、使用される数値、last_k_active

CPU推理提升4到5倍,苹果用闪存加速大模型推理,Siri 2.0要来了?

#図 6: メモリ管理などの要素が含まれます。 、最初に最後の要素を削除ニューロンにコピーしてメモリ ブロックの連続性を維持し、次に必要な要素を最後までスタックします。これにより、データ全体を複数回コピーすることが回避されます。 計算プロセスには焦点が当てられていないことに注意してください。これは、この記事の中心的な作業とは何の関係もありません。このパーティショニングにより、研究者はフラッシュ インタラクションとメモリ管理の最適化に集中して、メモリが制限されたデバイスで効率的な推論を実現できます

#実験結果の書き換えが必要

##OPT 6.7 B モデルの結果

予測子。図 3a に示すように、私たちの予測器はほとんどの活性化ニューロンを正確に識別できますが、ゼロに近い値を持つ非活性化ニューロンを誤って識別することがあります。ゼロに近い値を持つこれらの偽陰性ニューロンが除去された後は、最終的な出力結果は大幅に変更されないことは注目に値します。さらに、表 1 に示すように、このレベルの予測精度は、ゼロショット タスクにおけるモデルのパフォーマンスに悪影響を及ぼしません。

遅延解析。ウィンドウ サイズが 5 の場合、各トークンはフィードフォワード ネットワーク (FFN) ニューロンの 2.4% にアクセスする必要があります。 32 ビット モデルの場合、行と列の連結が含まれるため、読み取りあたりのデータ ブロック サイズは 2dmodel × 4 バイト = 32 KiB になります。 M1 Max では、トークンあたりのフラッシュ ロードのレイテンシは 125 ミリ秒、メモリ管理 (ニューロンの削除と追加を含む) のレイテンシは 65 ミリ秒です。したがって、メモリ関連の合計遅延はトークンあたり 190 ミリ秒未満になります (図 1 を参照)。これに対し、ベースライン アプローチでは 6.1 GB/秒で 13.4 GB のデータをロードする必要があり、トークンごとに約 2,330 ミリ秒の遅延が発生します。したがって、私たちの方法はベースライン方法と比較して大幅に改善されています。

GPU マシンの 16 ビット モデルの場合、フラッシュのロード時間は 40.5 ミリ秒に短縮され、メモリ管理時間は 40 ミリ秒になります。ただし、CPU からのデータ転送の追加オーバーヘッドにより時間はわずかに増加します。 GPUに。それにもかかわらず、ベースライン方法の I/O 時間は依然として 2000 ミリ秒を超えています。

表 2 は、各方法のパフォーマンスへの影響を詳細に比較したものです。

CPU推理提升4到5倍,苹果用闪存加速大模型推理,Siri 2.0要来了?

Falcon 7B モデルの結果

遅延解析。モデルでウィンドウ サイズ 4 を使用すると、各トークンはフィードフォワード ネットワーク (FFN) ニューロンの 3.1% にアクセスする必要があります。 32 ビット モデルでは、これは読み取りあたり 35.5 KiB のブロック サイズに相当します (2dmodel × 4 バイトとして計算)。 M1 Max デバイスでは、このデータのフラッシュ ロードに約 161 ミリ秒かかり、メモリ管理プロセスによりさらに 90 ミリ秒が追加されるため、トークンごとの合計レイテンシは 250 ミリ秒になります。比較すると、ベースライン遅延が約 2330 ミリ秒であるため、私たちの方法は約 9 ~ 10 倍高速です。

以上がモデル推論の高速化: CPU パフォーマンスが 5 倍に向上 Apple は大規模な推論の高速化にフラッシュ メモリを使用 Siri 2.0 は間もなくデビューしますか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

ControlNet の作者がまたヒット作を出しました!写真から絵画を生成し、2 日間で 1.4,000 個のスターを獲得する全プロセス ControlNet の作者がまたヒット作を出しました!写真から絵画を生成し、2 日間で 1.4,000 個のスターを獲得する全プロセス Jul 17, 2024 am 01:56 AM

これも Tusheng のビデオですが、PaintsUndo は別の道を歩んでいます。 ControlNet 作者 LvminZhang が再び生き始めました!今回は絵画の分野を目指します。新しいプロジェクト PaintsUndo は、開始されて間もなく 1.4kstar を獲得しました (まだ異常なほど上昇しています)。プロジェクトアドレス: https://github.com/lllyasviel/Paints-UNDO このプロジェクトを通じて、ユーザーが静止画像を入力すると、PaintsUndo が線画から完成品までのペイントプロセス全体のビデオを自動的に生成するのに役立ちます。 。描画プロセス中の線の変化は驚くべきもので、最終的なビデオ結果は元の画像と非常によく似ています。完成した描画を見てみましょう。

オープンソース AI ソフトウェア エンジニアのリストのトップに立つ UIUC のエージェントレス ソリューションは、SWE ベンチの実際のプログラミングの問題を簡単に解決します オープンソース AI ソフトウェア エンジニアのリストのトップに立つ UIUC のエージェントレス ソリューションは、SWE ベンチの実際のプログラミングの問題を簡単に解決します Jul 17, 2024 pm 10:02 PM

AIxivコラムは、当サイトが学術的・技術的な内容を掲載するコラムです。過去数年間で、このサイトの AIxiv コラムには 2,000 件を超えるレポートが寄せられ、世界中の主要な大学や企業のトップ研究室がカバーされ、学術交流と普及を効果的に促進しています。共有したい優れた作品がある場合は、お気軽に寄稿するか、報告のために当社までご連絡ください。提出電子メール: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com この論文の著者は全員、イリノイ大学アーバナ シャンペーン校 (UIUC) の Zhang Lingming 教師のチームのメンバーです。博士課程4年、研究者

OpenAI Super Alignment チームの遺作: 2 つの大きなモデルがゲームをプレイし、出力がより理解しやすくなる OpenAI Super Alignment チームの遺作: 2 つの大きなモデルがゲームをプレイし、出力がより理解しやすくなる Jul 19, 2024 am 01:29 AM

AIモデルによって与えられた答えがまったく理解できない場合、あなたはそれをあえて使用しますか?機械学習システムがより重要な分野で使用されるにつれて、なぜその出力を信頼できるのか、またどのような場合に信頼してはいけないのかを実証することがますます重要になっています。複雑なシステムの出力に対する信頼を得る方法の 1 つは、人間または他の信頼できるシステムが読み取れる、つまり、考えられるエラーが発生する可能性がある点まで完全に理解できる、その出力の解釈を生成することをシステムに要求することです。見つかった。たとえば、司法制度に対する信頼を築くために、裁判所に対し、決定を説明し裏付ける明確で読みやすい書面による意見を提供することを求めています。大規模な言語モデルの場合も、同様のアプローチを採用できます。ただし、このアプローチを採用する場合は、言語モデルが

RLHF から DPO、TDPO に至るまで、大規模なモデル アライメント アルゴリズムはすでに「トークンレベル」になっています RLHF から DPO、TDPO に至るまで、大規模なモデル アライメント アルゴリズムはすでに「トークンレベル」になっています Jun 24, 2024 pm 03:04 PM

AIxivコラムは、当サイトが学術的・技術的な内容を掲載するコラムです。過去数年間で、このサイトの AIxiv コラムには 2,000 件を超えるレポートが寄せられ、世界中の主要な大学や企業のトップ研究室がカバーされ、学術交流と普及を効果的に促進しています。共有したい優れた作品がある場合は、お気軽に寄稿するか、報告のために当社までご連絡ください。提出メール: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 人工知能の開発プロセスにおいて、大規模言語モデル (LLM) の制御とガイダンスは常に中心的な課題の 1 つであり、これらのモデルが両方とも確実に機能することを目指しています。強力かつ安全に人類社会に貢献します。初期の取り組みは人間のフィードバックによる強化学習手法に焦点を当てていました (RL

arXiv 論文は「弾幕」として投稿可能、スタンフォード alphaXiv ディスカッション プラットフォームはオンライン、LeCun は気に入っています arXiv 論文は「弾幕」として投稿可能、スタンフォード alphaXiv ディスカッション プラットフォームはオンライン、LeCun は気に入っています Aug 01, 2024 pm 05:18 PM

乾杯!紙面でのディスカッションが言葉だけになると、どんな感じになるでしょうか?最近、スタンフォード大学の学生が、arXiv 論文のオープン ディスカッション フォーラムである alphaXiv を作成しました。このフォーラムでは、arXiv 論文に直接質問やコメントを投稿できます。 Web サイトのリンク: https://alphaxiv.org/ 実際、URL の arXiv を alphaXiv に変更するだけで、alphaXiv フォーラムの対応する論文を直接開くことができます。この Web サイトにアクセスする必要はありません。その中の段落を正確に見つけることができます。論文、文: 右側のディスカッション エリアでは、ユーザーは論文のアイデアや詳細について著者に尋ねる質問を投稿できます。たとえば、次のような論文の内容についてコメントすることもできます。

リーマン予想の大きな進歩!陶哲軒氏はMITとオックスフォードの新しい論文を強く推薦し、37歳のフィールズ賞受賞者も参加した リーマン予想の大きな進歩!陶哲軒氏はMITとオックスフォードの新しい論文を強く推薦し、37歳のフィールズ賞受賞者も参加した Aug 05, 2024 pm 03:32 PM

最近、2000年代の7大問題の一つとして知られるリーマン予想が新たなブレークスルーを達成した。リーマン予想は、数学における非常に重要な未解決の問題であり、素数の分布の正確な性質に関連しています (素数とは、1 とそれ自身でのみ割り切れる数であり、整数論において基本的な役割を果たします)。今日の数学文献には、リーマン予想 (またはその一般化された形式) の確立に基づいた 1,000 を超える数学的命題があります。言い換えれば、リーマン予想とその一般化された形式が証明されれば、これらの 1,000 を超える命題が定理として確立され、数学の分野に重大な影響を与えることになります。これらの命題の一部も有効性を失います。 MIT数学教授ラリー・ガスとオックスフォード大学から新たな進歩がもたらされる

公理的トレーニングにより、LLM は因果推論を学習できます。6,700 万個のパラメータ モデルは、1 兆個のパラメータ レベル GPT-4 に匹敵します。 公理的トレーニングにより、LLM は因果推論を学習できます。6,700 万個のパラメータ モデルは、1 兆個のパラメータ レベル GPT-4 に匹敵します。 Jul 17, 2024 am 10:14 AM

LLM に因果連鎖を示すと、LLM は公理を学習します。 AI はすでに数学者や科学者の研究を支援しています。たとえば、有名な数学者のテレンス タオは、GPT などの AI ツールを活用した研究や探索の経験を繰り返し共有しています。 AI がこれらの分野で競争するには、強力で信頼性の高い因果推論能力が不可欠です。この記事で紹介する研究では、小さなグラフでの因果的推移性公理の実証でトレーニングされた Transformer モデルが、大きなグラフでの推移性公理に一般化できることがわかりました。言い換えれば、Transformer が単純な因果推論の実行を学習すると、より複雑な因果推論に使用できる可能性があります。チームが提案した公理的トレーニング フレームワークは、デモンストレーションのみで受動的データに基づいて因果推論を学習するための新しいパラダイムです。

最初の Mamba ベースの MLLM が登場しました!モデルの重み、トレーニング コードなどはすべてオープンソースです 最初の Mamba ベースの MLLM が登場しました!モデルの重み、トレーニング コードなどはすべてオープンソースです Jul 17, 2024 am 02:46 AM

AIxivコラムは、当サイトが学術的・技術的な内容を掲載するコラムです。過去数年間で、このサイトの AIxiv コラムには 2,000 件を超えるレポートが寄せられ、世界中の主要な大学や企業のトップ研究室がカバーされ、学術交流と普及を効果的に促進しています。共有したい優れた作品がある場合は、お気軽に寄稿するか、報告のために当社までご連絡ください。提出電子メール: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com。はじめに 近年、さまざまな分野でマルチモーダル大規模言語モデル (MLLM) の適用が目覚ましい成功を収めています。ただし、多くの下流タスクの基本モデルとして、現在の MLLM はよく知られた Transformer ネットワークで構成されています。

See all articles