自然言語処理における NLP のアテンション メカニズムの応用
アテンションの概念
アテンションの概念は、ニューラル機械翻訳の seq2seq モデルでよく知られています。エンコーダーからデコーダーに渡される情報量は限られており、モデルのパフォーマンスが制限されます。ただし、アテンションを導入すると、このボトルネックが克服され、モデルが長い文や複雑なセマンティクスをより適切に処理できるようになります。
簡単に言えば、モデルはデコード段階でエンコーダのすべての隠れ状態を利用し、最終的な隠れ状態を初期隠れ状態としてデコーダに供給します。この利点は、モデルがデコード中により多くの情報を利用でき、入力シーケンスの最も関連性の高い部分に「注意を払う」ことができ、出力シーケンスのさまざまな部分を生成するときにより正確な予測を行うことができることです。
アテンションの一般的なフレームワークのアイデア
アテンションのメカニズムはアーキテクチャや実装の詳細によって異なりますが、共通点もあります。たとえば、特定のアーキテクチャのニューラル ネットワークを使用して予測を行うシナリオを考えてみましょう。この場合、エンコードされた情報を含むベクトルを取得します。このベクトルは、完全接続層に入力し、ソフトマックス層を通じて処理するなど、予測に使用できます。特定の処理手順は異なる場合がありますが、基本的な考え方はアーキテクチャが異なっても同様です。
しかし、その予測結果は満足できるものではありませんでした。多くの理由が考えられますが、次のような考えが考えられます:
1. 使用されるベクトルには、適切な予測を達成するために役立つすべての情報が含まれているわけではありません。
多くの場合、適切な予測を行うために必要な情報は、マーカーによってエンコードされた一連のベクトルが存在する NLP タスクの場合など、多くのベクトルに分散されます。分散された情報はすべて考慮されていますが、一部の情報はニューラル ネットワーク内を深く流れるにつれて必然的に失われます。
2. 有用なのは、これらのベクトルに含まれる個々の情報だけでなく、現在のベクトルとの関係も重要です。
現在のベクトルは、他のベクトルと相互作用して通信し、どの情報を渡すかを決定するのに役立つ必要がある場合があります。したがって、潜在的に有用なベクトルをすべて組み合わせて、より良い予測を行うために何に注意を払うべきかをモデルが学習できるようにする、より賢い方法が必要です。
これら 2 つの点を考慮した後、そのようなベクトルと他の修飾ベクトルが存在すると仮定します。これらのベクトルは予測を行うために重要であり、この情報を処理する方法は一般的なフレームワークです。注意を払うために。
このフレームワークでは、クエリを受け入れ、キーと 1 つずつ対話させます:
1. クエリ間の特定の関係それぞれの主要な相互作用は、内積、接続の追加または組み合わせ、小さなニューラル ネットワークへのフィードなどになります。クエリの異なるキーはそれぞれ、バックプロパゲーションでトレーニングされた同じパラメーターを使用した同じ操作を使用して処理されます。さらに、これらの操作後の最終出力は単一の値である必要があります。これらの出力値をエネルギーと呼びます。クエリとすべてのキー ベクトルに対してこのプロセスを繰り返すと、一連のエネルギーが取得されます。
2. ソフトマックス層を使用して、すべてのエネルギーを正規化します。
3. 値ベクトルの重み付き合計を実行すると、重みが正規化されたエネルギーになります。これにより、インテリジェントな方法で結合されたすべての要素に関する情報を含む値ベクトルと同じ次元のコンテキスト ベクトルが生成されます。
4. コンテキスト ベクトルとクエリ ベクトルを一緒に使用して予測を行うことができます (たとえば、それらを連結し、必要に応じてニューラル ネットワークに供給し、続いてソフトマックス層に供給します)。
上記は注意の一般的なフレームワークのプロセスですが、このフレームワークがさまざまなタスクにどのように適用されるかを見てみましょう。
感情分析タスク
感情分析タイプのタスクは分類タスクであり、入力はテキストであり、出力はそれに対応します。考えられる感情のラベルの 1 つに。テキストがニューラル ネットワークに入力される前に、テキストをクリーニング、フォーマット、トークン化して、一連の語彙ベースのインデックスに変換する必要があります。これは seq2seq ではなく seq2one ですが、アテンション メカニズムは引き続き適用され、パフォーマンスの向上に役立ちます。
通常の一方向または双方向の LSTM ベースのネットワークを使用して、このタスクを実行できます。この場合、最後の層の最終隠れ状態 (単方向) または 2 つの最終隠れ状態 (双方向、前方から 1 つと後方から 1 つ) のみが、分類ヘッド (全結合層やソフトマックスなど) に渡されて予測に使用されます。 。最終的な隠れ状態によってのみ保持される情報が限られているため、モデルのパフォーマンスにボトルネックが生じます。
日付変換タスク
日付変換は、文字レベルの seq2seq タスクの例です。このタスクの目標は、人間が読める日付 (「2022 年 12 月 27 日」など) を入力として受け取り、入力と同じ日付を表す機械が読める日付 (「2022-12-27」など) を出力することです。
アテンションベースのモデルには、デコーダの LSTM ユニットの前にアテンション ブロックがあります。各ループ ステップで、注目ブロックの出力コンテキスト ベクトルと最後のステップの出力が連結され、LSTM ユニットに供給されます。アテンションの別の実装は、アテンション ブロックを、LSTM ユニットの後の現在のステップの出力ベクトルと出力コンテキスト ベクトルと連結することです。これは、次のトークンを予測するために完全に接続された層に供給されます。ここでのアテンション ブロックは一般的なフレームワークに従い、キー ベクトルと値ベクトルは同じベクトルのセット、つまりエンコーダーの最後の層の隠れ状態であり、クエリと各キーの間の相互作用は小さなニューラル ネットワークです。
デコード段階中、一方向 LSTM は一度に 1 つのトークンを予測するため、各ステップへの入力には 2 つの選択肢があります: 前のステップから現在のステップによって予測されたトークン出力またはグランドトゥルース。ここでは、ハイパーパラメーターを定義して、トレーニング中に使用される入力トークンの何パーセントがグラウンド トゥルースであるかを制御し、モデルのパフォーマンスを最適化するために実験することができます。
以上が自然言語処理における NLP のアテンション メカニズムの応用の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック











このサイトは6月27日、JianyingはByteDanceの子会社であるFaceMeng Technologyによって開発されたビデオ編集ソフトウェアであり、Douyinプラットフォームに依存しており、基本的にプラットフォームのユーザー向けに短いビデオコンテンツを作成すると報告しました。 Windows、MacOS、その他のオペレーティング システム。 Jianyingは会員システムのアップグレードを正式に発表し、インテリジェント翻訳、インテリジェントハイライト、インテリジェントパッケージング、デジタルヒューマン合成などのさまざまなAIブラックテクノロジーを含む新しいSVIPを開始しました。価格的には、クリッピングSVIPの月額料金は79元、年会費は599元(当サイト注:月額49.9元に相当)、継続月額サブスクリプションは月額59元、継続年間サブスクリプションは、年間499元(月額41.6元に相当)です。さらに、カット担当者は、ユーザーエクスペリエンスを向上させるために、オリジナルのVIPに登録している人は、

検索強化生成およびセマンティック メモリを AI コーディング アシスタントに組み込むことで、開発者の生産性、効率、精度を向上させます。 JanakiramMSV 著者の EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG から翻訳。基本的な AI プログラミング アシスタントは当然役に立ちますが、ソフトウェア言語とソフトウェア作成の最も一般的なパターンに関する一般的な理解に依存しているため、最も適切で正しいコードの提案を提供できないことがよくあります。これらのコーディング アシスタントによって生成されたコードは、彼らが解決する責任を負っている問題の解決には適していますが、多くの場合、個々のチームのコーディング標準、規約、スタイルには準拠していません。これにより、コードがアプリケーションに受け入れられるように修正または調整する必要がある提案が得られることがよくあります。

AIGC について詳しくは、51CTOAI.x コミュニティ https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou を参照してください。これらの質問は、インターネット上のどこでも見られる従来の質問バンクとは異なります。既成概念にとらわれずに考える必要があります。大規模言語モデル (LLM) は、データ サイエンス、生成人工知能 (GenAI)、および人工知能の分野でますます重要になっています。これらの複雑なアルゴリズムは人間のスキルを向上させ、多くの業界で効率とイノベーションを推進し、企業が競争力を維持するための鍵となります。 LLM は、自然言語処理、テキスト生成、音声認識、推奨システムなどの分野で幅広い用途に使用できます。 LLM は大量のデータから学習することでテキストを生成できます。

大規模言語モデル (LLM) は巨大なテキスト データベースでトレーニングされ、そこで大量の現実世界の知識を取得します。この知識はパラメータに組み込まれており、必要なときに使用できます。これらのモデルの知識は、トレーニングの終了時に「具体化」されます。事前トレーニングの終了時に、モデルは実際に学習を停止します。モデルを調整または微調整して、この知識を活用し、ユーザーの質問により自然に応答する方法を学びます。ただし、モデルの知識だけでは不十分な場合があり、モデルは RAG を通じて外部コンテンツにアクセスできますが、微調整を通じてモデルを新しいドメインに適応させることが有益であると考えられます。この微調整は、ヒューマン アノテーターまたは他の LLM 作成物からの入力を使用して実行され、モデルは追加の実世界の知識に遭遇し、それを統合します。

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

編集者 | KX 医薬品の研究開発の分野では、タンパク質とリガンドの結合親和性を正確かつ効果的に予測することが、医薬品のスクリーニングと最適化にとって重要です。しかし、現在の研究では、タンパク質とリガンドの相互作用における分子表面情報の重要な役割が考慮されていません。これに基づいて、アモイ大学の研究者らは、初めてタンパク質の表面、3D 構造、配列に関する情報を組み合わせ、クロスアテンション メカニズムを使用して異なるモダリティの特徴を比較する、新しいマルチモーダル特徴抽出 (MFE) フレームワークを提案しました。アライメント。実験結果は、この方法がタンパク質-リガンド結合親和性の予測において最先端の性能を達成することを実証しています。さらに、アブレーション研究は、この枠組み内でのタンパク質表面情報と多峰性特徴の位置合わせの有効性と必要性を実証しています。 「S」で始まる関連研究

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

8月1日の本サイトのニュースによると、SKハイニックスは本日(8月1日)ブログ投稿を発表し、8月6日から8日まで米国カリフォルニア州サンタクララで開催されるグローバル半導体メモリサミットFMS2024に参加すると発表し、多くの新世代の製品。フューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) の紹介。以前は主に NAND サプライヤー向けのフラッシュ メモリ サミット (FlashMemorySummit) でしたが、人工知能技術への注目の高まりを背景に、今年はフューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) に名前が変更されました。 DRAM およびストレージ ベンダー、さらに多くのプレーヤーを招待します。昨年発売された新製品SKハイニックス
