目次
上記の結果を要約するために、著者は Temp-Lora の実際の適用について 3 つの提案も示します:
著者は、このようなシンプルで革新的な方法を発明するための情報源をほとんど残していないことは言及する価値があります:
ホームページ テクノロジー周辺機器 AI 匿名新聞が驚くべきアイデアを思いつく!これは実際に、大規模モデルの長いテキスト機能を強化するために実行できます。

匿名新聞が驚くべきアイデアを思いつく!これは実際に、大規模モデルの長いテキスト機能を強化するために実行できます。

Feb 02, 2024 pm 06:21 PM
モデル 電車

大規模モデルの長いテキスト機能を改善するということになると、長さの外挿やコンテキスト ウィンドウの拡張を思い浮かべますか?

いいえ、これらはハードウェア リソースを大量に消費します。

素晴らしい新しいソリューションを見てみましょう:

KV キャッシュの使用の本質は、長さの外挿などの方法とは異なります。モデル

大量のコンテキスト情報を保存するため。 具体的な方法は、

一時的な Lora モジュール

を構築して、 長いテキストの生成プロセス中に のみ「ストリーム更新」できるようにすることです。 、つまり、以前に生成されたコンテンツがトレーニング データとして機能する入力として継続的に使用され、知識がモデル パラメーターに確実に保存されます。 その後、

推論が完了したら、モデル パラメーターに長期的な影響を与えないように、推論を破棄します。

このメソッドを使用すると、コンテキスト ウィンドウを展開せずに、コンテキスト情報を自由に保存できます。必要なだけ保存できます

実験により、この方法が証明されました: モデルの長文タスクの品質が大幅に向上し、混乱が 29.6% 減少し、長文翻訳の品質が向上しました。

(青色のスコア)

    は 53.2% 増加しました。
  • は、ほとんどの既存の長文テキスト生成方法とも互換性があり、機能を強化します。 最も重要なことは、コンピューティング コストを大幅に削減できることです。
  • 生成品質のわずかな向上を保証しながら
  • (複雑さは 3.8% 減少)
  • 、推論に必要な FLOP は 70.5% 減少し、遅延は 51.5% 減少しました。
具体的な状況については、紙を開いて見てみましょう。

一時的な Lora モジュールを作成し、使用後は破棄します。

メソッドは

Temp-Lora

と呼ばれ、アーキテクチャ図は次のとおりです。 :

中心となるのは、以前に生成されたテキストに基づいて一時的な Lora モジュールを自己回帰的に徐々にトレーニングすることです。

このモジュールは適応性が高く、継続的に調整できるため、さまざまな距離のコンテキストを深く理解できます。 匿名新聞が驚くべきアイデアを思いつく!これは実際に、大規模モデルの長いテキスト機能を強化するために実行できます。

具体的なアルゴリズムは次のとおりです。

生成プロセス中、トークンはブロックごとに生成されます。ブロックが生成されるたびに、最新の L

x

トークンが入力 X として使用され、後続のトークンが生成されます。

生成されたトークンの数が事前定義されたブロック サイズ Δ に達したら、最新のブロックを使用して Temp-Lora モジュールのトレーニングを開始し、次のブロック生成を開始します。

実験では、モデルのコンテキスト ウィンドウ サイズを最大限に活用するために、著者は Δ L

xx

を W に設定します。 匿名新聞が驚くべきアイデアを思いつく!これは実際に、大規模モデルの長いテキスト機能を強化するために実行できます。

Temp-Lora モジュールのトレーニングの場合、条件なしで新しいブロックを生成する方法を学習することは、効果的なトレーニング目標を構成せず、深刻な過剰適合につながる可能性があります。

この問題を解決するために、作成者は各ブロックの前に LT

タグをトレーニング プロセスに組み込み、それらを入力として使用し、ブロックを出力として使用します。

最後に、著者は、より効率的な推論を実現するための

Cache Reuse (キャッシュ再利用)

と呼ばれる戦略も提案しました。

一般的に、標準フレームワークで Temp-Loramo モジュールを更新した後、更新されたパラメーターを使用して KV ステータスを再計算する必要があります。 あるいは、キャッシュされた既存の KV 状態を再利用し、その後のテキスト生成には更新されたモデルを使用します。

具体的には、モデルが最大長

(コンテキスト ウィンドウ サイズ W)

を生成する場合にのみ、最新の Temp-Lora モジュールを使用して KV 状態を再計算します。

このようなキャッシュの再利用方法により、生成の品質に大きな影響を与えることなく、生成を高速化できます。

Temp-Lora メソッドの紹介はこれですべてです。以下のテストに焦点を当てましょう。

テキストが長いほど、効果は高くなります。

著者は Temp をテストしました。Lora フレームワークは評価され、生成と翻訳という両方のタイプの長いテキスト タスクをカバーします。

テスト データ セットは、ロング テキスト言語モデリング ベンチマーク PG19 のサブセットであり、そこから 40 冊がランダムに選択されます。

もう 1 つは、WMT 2023 の国峰データセットのランダムにサンプリングされたサブセットで、専門家によって英語に翻訳された 20 の中国のオンライン小説が含まれています。

まずはPG19の結果を見てみましょう。

以下の表は、Temp-Lora モジュールの性別を使用した場合と使用しない場合の PG19 のさまざまなモデルの PPL (特定の入力に対するモデルの不確実性を反映する複雑性) を示しています。低いほど良い)比較してください。各ドキュメントを 0 ~ 100K から 500K トークンの範囲のセグメントに分割します。

Temp-Lora 後、すべてのモデルの PPL が大幅に低下していることがわかります。フラグメントが長くなるほど、Temp-Lora の影響がより明白になります

(1 ~ 100K のみ減少しました) 3.6% 減少、500K は 13.2% 減少)

匿名新聞が驚くべきアイデアを思いつく!これは実際に、大規模モデルの長いテキスト機能を強化するために実行できます。

したがって、単純に次のように結論付けることができます。 テキストが多いほど、Temp-Lora を使用する必要性が高くなります

さらに、ブロック サイズを 1024 から 2048 および 4096 に調整すると、PPL がわずかに増加することもわかります。

Temp-Lora モジュールは前のブロックのデータに基づいてトレーニングされているため、これは驚くべきことではありません。

このデータは主に、 ブロック サイズ の選択が生成品質と計算効率の間の重要なトレードオフであることを示しています (さらなる分析は論文にあります) ## #。 最後に、キャッシュの再利用によってパフォーマンスが低下しないこともわかります。

著者は次のように述べています: これは非常に心強いニュースです。

以下は、Guofeng データセットの結果です。 Temp-Lora は、長文文学翻訳タスクにも大きな影響を与えていることがわかります。

基本モデルと比較してすべての指標が大幅に向上: PPL が -29.6% 減少、BLEU スコア

(機械翻訳されたテキストと高品質の参考翻訳の類似性)

が 53.2% 向上、 COMET スコア (品質指標でもあります) は 8.4% 増加しました。

匿名新聞が驚くべきアイデアを思いつく!これは実際に、大規模モデルの長いテキスト機能を強化するために実行できます。最後に、計算効率と品質の探求​​です。

著者は実験を通じて、

最も「経済的」な Temp-Lora 構成 (Δ=2K、W=4K) を使用すると、次のことができることを発見しました。 PPL を 3.8% 削減しながら、FLOP を 70.5%、レイテンシを 51.5% 節約します。 逆に、計算コストを完全に無視して、

最も「贅沢な」 構成 (Δ=1K および W=24K) 、PPL を 5.0% 削減し、さらに 17% の FLOP と 19.6% のレイテンシーを達成することも可能です。 使用上の提案

上記の結果を要約するために、著者は Temp-Lora の実際の適用について 3 つの提案も示します:

1. 最高レベルを必要とするアプリケーションの場合パラメータを変更せずに、Temp-Lora を既存のモデルに統合することで、比較的適度なコストでパフォーマンスを大幅に向上させることができます。

2. 遅延やメモリ使用量を最小限に抑えることを重視するアプリケーションの場合、入力長と Temp-Lora に保存されるコンテキスト情報を減らすことで、計算コストを大幅に削減できます。

この設定では、固定の短いウィンドウ サイズ

(2K や 4K など)

を使用して、ほぼ無限に長いテキスト (著者の実験では 500K) を処理できます。 。 3. 最後に、Temp-Lora は、事前トレーニングのコンテキストがモデルのウィンドウ サイズより小さい場合など、大量のテキストが含まれないシナリオでは役に立たないことに注意してください。

著者は機密組織の出身です

著者は、このようなシンプルで革新的な方法を発明するための情報源をほとんど残していないことは言及する価値があります:

組織は直接「Secret Agency」と署名されており、著者 3 人の名前もフルネームのみです。

匿名新聞が驚くべきアイデアを思いつく!これは実際に、大規模モデルの長いテキスト機能を強化するために実行できます。#ただし、メール情報から判断すると、香港城市大学や香港中国語学校などの学校からのものである可能性があります。

最後に、この方法についてどう思いますか?

論文:

https://www.php.cn/link/f74e95cf0ef6ccd85c791b5d351aa327

以上が匿名新聞が驚くべきアイデアを思いつく!これは実際に、大規模モデルの長いテキスト機能を強化するために実行できます。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

オープンソース!ゾーイデプスを超えて! DepthFM: 高速かつ正確な単眼深度推定! オープンソース!ゾーイデプスを超えて! DepthFM: 高速かつ正確な単眼深度推定! Apr 03, 2024 pm 12:04 PM

0.この記事は何をするのですか?私たちは、多用途かつ高速な最先端の生成単眼深度推定モデルである DepthFM を提案します。従来の深度推定タスクに加えて、DepthFM は深度修復などの下流タスクでも最先端の機能を実証します。 DepthFM は効率的で、いくつかの推論ステップ内で深度マップを合成できます。この作品について一緒に読みましょう〜 1. 論文情報タイトル: DepthFM: FastMonocularDepthEstimationwithFlowMatching 著者: MingGui、JohannesS.Fischer、UlrichPrestel、PingchuanMa、Dmytr

世界で最も強力なオープンソース MoE モデルが登場。GPT-4 に匹敵する中国語機能を備え、価格は GPT-4-Turbo のわずか 1% 近くです 世界で最も強力なオープンソース MoE モデルが登場。GPT-4 に匹敵する中国語機能を備え、価格は GPT-4-Turbo のわずか 1% 近くです May 07, 2024 pm 04:13 PM

従来のコンピューティングを超える能力を備えているだけでなく、より低コストでより効率的なパフォーマンスを実現する人工知能モデルを想像してみてください。これは SF ではありません。世界で最も強力なオープンソース MoE モデルである DeepSeek-V2[1] が登場しました。 DeepSeek-V2 は、経済的なトレーニングと効率的な推論の特徴を備えた強力な専門家混合 (MoE) 言語モデルです。これは 236B のパラメータで構成されており、そのうち 21B は各マーカーをアクティブにするために使用されます。 DeepSeek67B と比較して、DeepSeek-V2 はパフォーマンスが優れていると同時に、トレーニング コストを 42.5% 節約し、KV キャッシュを 93.3% 削減し、最大生成スループットを 5.76 倍に高めます。 DeepSeek は一般的な人工知能を研究する会社です

AI が数学研究を破壊する!フィールズ賞受賞者で中国系アメリカ人の数学者が上位 11 件の論文を主導 | テレンス・タオが「いいね!」しました AI が数学研究を破壊する!フィールズ賞受賞者で中国系アメリカ人の数学者が上位 11 件の論文を主導 | テレンス・タオが「いいね!」しました Apr 09, 2024 am 11:52 AM

AI は確かに数学を変えつつあります。最近、この問題に細心の注意を払っている陶哲軒氏が『米国数学協会会報』(米国数学協会会報)の最新号を送ってくれた。 「機械は数学を変えるのか?」というテーマを中心に、多くの数学者が意見を述べ、そのプロセス全体は火花に満ち、ハードコアで刺激的でした。著者には、フィールズ賞受賞者のアクシャイ・ベンカテシュ氏、中国の数学者鄭楽軍氏、ニューヨーク大学のコンピューター科学者アーネスト・デイビス氏、その他業界で著名な学者を含む強力な顔ぶれが揃っている。 AI の世界は劇的に変化しています。これらの記事の多くは 1 年前に投稿されたものです。

こんにちは、電気アトラスです!ボストン・ダイナミクスのロボットが復活、180度の奇妙な動きにマスク氏も恐怖 こんにちは、電気アトラスです!ボストン・ダイナミクスのロボットが復活、180度の奇妙な動きにマスク氏も恐怖 Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas は正式に電動ロボットの時代に突入します!昨日、油圧式アトラスが歴史の舞台から「涙ながらに」撤退したばかりですが、今日、ボストン・ダイナミクスは電動式アトラスが稼働することを発表しました。ボストン・ダイナミクス社は商用人型ロボットの分野でテスラ社と競争する決意を持っているようだ。新しいビデオが公開されてから、わずか 10 時間ですでに 100 万人以上が視聴しました。古い人が去り、新しい役割が現れるのは歴史的な必然です。今年が人型ロボットの爆発的な年であることは間違いありません。ネットユーザーは「ロボットの進歩により、今年の開会式は人間のように見え、人間よりもはるかに自由度が高い。しかし、これは本当にホラー映画ではないのか?」とコメントした。ビデオの冒頭では、アトラスは仰向けに見えるように地面に静かに横たわっています。次に続くのは驚くべきことです

MLP に代わる KAN は、オープンソース プロジェクトによって畳み込みまで拡張されました MLP に代わる KAN は、オープンソース プロジェクトによって畳み込みまで拡張されました Jun 01, 2024 pm 10:03 PM

今月初め、MIT やその他の機関の研究者らは、MLP に代わる非常に有望な代替案である KAN を提案しました。 KAN は、精度と解釈可能性の点で MLP よりも優れています。また、非常に少数のパラメーターを使用して、多数のパラメーターを使用して実行する MLP よりも優れたパフォーマンスを発揮できます。たとえば、著者らは、KAN を使用して、より小規模なネットワークと高度な自動化で DeepMind の結果を再現したと述べています。具体的には、DeepMind の MLP には約 300,000 個のパラメーターがありますが、KAN には約 200 個のパラメーターしかありません。 KAN は、MLP が普遍近似定理に基づいているのに対し、KAN はコルモゴロフ-アーノルド表現定理に基づいているのと同様に、強力な数学的基礎を持っています。以下の図に示すように、KAN は

超知性の生命力が覚醒する!しかし、自己更新 AI の登場により、母親はデータのボトルネックを心配する必要がなくなりました。 超知性の生命力が覚醒する!しかし、自己更新 AI の登場により、母親はデータのボトルネックを心配する必要がなくなりました。 Apr 29, 2024 pm 06:55 PM

世界は狂ったように大きなモデルを構築していますが、インターネット上のデータだけではまったく不十分です。このトレーニング モデルは「ハンガー ゲーム」のようであり、世界中の AI 研究者は、データを貪欲に食べる人たちにどのように餌を与えるかを心配しています。この問題は、マルチモーダル タスクで特に顕著です。何もできなかった当時、中国人民大学学部のスタートアップチームは、独自の新しいモデルを使用して、中国で初めて「モデル生成データフィード自体」を実現しました。さらに、これは理解側と生成側の 2 つの側面からのアプローチであり、両方の側で高品質のマルチモーダルな新しいデータを生成し、モデル自体にデータのフィードバックを提供できます。モデルとは何ですか? Awaker 1.0 は、中関村フォーラムに登場したばかりの大型マルチモーダル モデルです。チームは誰ですか?ソフォンエンジン。人民大学ヒルハウス人工知能大学院の博士課程学生、ガオ・イージャオ氏によって設立されました。

Kuaishou バージョンの Sora「Ke Ling」がテスト用に公開されています。120 秒以上のビデオを生成し、物理学をより深く理解し、複雑な動きを正確にモデル化できます。 Kuaishou バージョンの Sora「Ke Ling」がテスト用に公開されています。120 秒以上のビデオを生成し、物理学をより深く理解し、複雑な動きを正確にモデル化できます。 Jun 11, 2024 am 09:51 AM

何?ズートピアは国産AIによって実現するのか?ビデオとともに公開されたのは、「Keling」と呼ばれる新しい大規模な国産ビデオ生成モデルです。 Sora も同様の技術的ルートを使用し、自社開発の技術革新を多数組み合わせて、大きく合理的な動きをするだけでなく、物理世界の特性をシミュレートし、強力な概念的結合能力と想像力を備えたビデオを制作します。データによると、Keling は、最大 1080p の解像度で 30fps で最大 2 分の超長時間ビデオの生成をサポートし、複数のアスペクト比をサポートします。もう 1 つの重要な点は、Keling は研究所が公開したデモやビデオ結果のデモンストレーションではなく、ショートビデオ分野のリーダーである Kuaishou が立ち上げた製品レベルのアプリケーションであるということです。さらに、主な焦点は実用的であり、白紙小切手を書かず、リリースされたらすぐにオンラインに移行することです。Ke Ling の大型モデルは Kuaiying でリリースされました。

テスラのロボットは工場で働く、マスク氏:手の自由度は今年22に達する! テスラのロボットは工場で働く、マスク氏:手の自由度は今年22に達する! May 06, 2024 pm 04:13 PM

テスラのロボット「オプティマス」の最新映像が公開され、すでに工場内で稼働可能となっている。通常の速度では、バッテリー(テスラの4680バッテリー)を次のように分類します:公式は、20倍の速度でどのように見えるかも公開しました - 小さな「ワークステーション」上で、ピッキング、ピッキング、ピッキング:今回は、それがリリースされたハイライトの1つビデオの内容は、オプティマスが工場内でこの作業を完全に自律的に行​​い、プロセス全体を通じて人間の介入なしに完了するというものです。そして、オプティマスの観点から見ると、自動エラー修正に重点を置いて、曲がったバッテリーを拾い上げたり配置したりすることもできます。オプティマスのハンドについては、NVIDIA の科学者ジム ファン氏が高く評価しました。オプティマスのハンドは、世界の 5 本指ロボットの 1 つです。最も器用。その手は触覚だけではありません

See all articles