Home > Technology peripherals > AI > body text

Eight questions and eight answers to understand the inner workings of Transformer

WBOY
Release: 2024-08-07 18:04:03
Original
396 people have browsed it

Seven years ago, the paper "Attention is all you need" proposed the transformer architecture, subverting the entire field of deep learning.

Nowadays, all major models are based on the transformer architecture, but the internal working principle of the transformer is still an unsolved mystery.

Last year, Llion Jones, one of the authors of the transformer paper, announced the founding of the artificial intelligence company Sakana AI. Recently, Sakana AI published a paper titled "Transformer Layers as Painters", which explored the information flow in pre-trained transformers and conducted a series of experiments on decoder-only and encoder-only frozen transformer models. Note that this study did not perform any type of fine-tuning on the pre-trained model.

Eight questions and eight answers to understand the inner workings of Transformer

Paper address: https://arxiv.org/pdf/2407.09298v1

This research believes that the internal mechanism of transformer (especially the middle layer) can be understood by analogy to a painter's painting pipeline.

A painting pipeline usually passes the canvas (input) to a series of painters. Some painters are good at painting birds, while others are good at painting wheels. Each painter receives the canvas from the painter below it, and then it decides whether to add some strokes to the painting, or just pass it to the painter above it (using residual connections).

This analogy is not a strict theory, but a tool for thinking about transformer layers. Inspired by this analogy, the study tested and verified some hypotheses:

  • Are all layers using the same representation space?

  • Are all layers necessary?

  • Do the middle layers all perform the same function?

  • Is the order of layers important?

  • Can these layers run in parallel?

  • For some tasks, is order more important than other factors?

  • Do loops help layer parallelism?

  • Which variants have the least impact on model performance?

The study conducted a series of experiments on pre-trained LLM, which included experimenting with variations on the standard transformer execution strategy and measuring these changes on various benchmarks for decoder-only (Llama) and encoder-only (BERT) models impact on model performance.

Are all layers using the same representation space?

To answer whether different layers use the same representation space, the authors tested whether Transformer is robust when skipping specific layers or switching the order of adjacent layers. For example, in Llama2-7B, layer 6 typically expects to receive the output of layer 5. If layer 6 is given the output of layer 4, will it behave "catastrophically"?

In Figure 2, we can see that, except for the first and last few layers, the layers of Llama2-7B are quite robust to layer hopping or switching.

Eight questions and eight answers to understand the inner workings of Transformer

This experiment shows that the middle layer shares a representation space and has a different representation space from the "peripheral layers" (the first and last layers). To further test this hypothesis, the authors followed previous studies and measured the average cosine similarity between hidden state activations at different layers of the models in the baseline (Llama2-7B, Llama2-13B and BERT-Large). Figure 3 shows the consistency between all intermediate layers.

Eight questions and eight answers to understand the inner workings of Transformer

This shows that the model may have three different representation spaces of "beginning", "middle" and "end" layers. Answer to question 1: Yes, the intermediate layers seem to share a common representation space.

Are all layers necessary?

To further test whether the redirection space of the intermediate layer is truly shared (in addition to having close cosine similarity), this study tried "skipping the layer", that is, sending the output of the Nth layer directly to the N+Mth layer (where M > 1), thereby "skipping" the M − 1 layer, as shown in Figure 1a. The experiment was to see if layer N + M could understand the activations of layer N even though it was only trained on input from layer N + M − 1 . Figure 4 shows that both Llama2-7B and BERT-Large experience modest performance degradation on many benchmarks. Answering question 2, are all layers necessary: ​​

No, at least some of the middle layers can be removed without catastrophic failure.

Eight questions and eight answers to understand the inner workings of Transformer

Do the middle layers all perform the same function?

If the middle layers all share a common representation space, does this mean that other middle layers are redundant? To test this, the researchers reran the "skip" experiment from the previous subsection, replacing the weights of the middle layer with the weights of the center layer, effectively looping T - 2N on each layer that was replaced. + 1 time, where T is the total number of layers (32 layers for Llama2-7B and 24 layers for BERT-Large).

Eight questions and eight answers to understand the inner workings of Transformer

図 5 に示すように、置換されるレイヤーの数が増加するにつれて、ベンチマーク テストでのモデルのスコアが急速に低下することがわかります。以下の図 11 に示すように、このレイヤーを置き換える方法は、研究者が試した他のどの方法よりも劣っています。したがって、研究者らは、中間層は異なる機能を実行し、中間層間で重みを共有することは現実的ではないと結論付けました。

Eight questions and eight answers to understand the inner workings of Transformer

レイヤーの順序は重要ですか?

以前の実験では、中間層が表現空間を共有しているが、この空間内で異なる機能を担当していることが示されました。次に取り組むべき問題は、これらの関数の順序が何を意味するかということです。この問題を解決するために、研究者らは 2 セットの実験を計画しました。まず、中間層をトレーニングしたときとは逆の順序で実行します。具体的には、T - N 番目の層の出力を取得し、それを T - N - 1 番目の層に入力し、次にこの層の出力を T - N - 2 番目の層に入力し、以下同様に N 番目の層まで繰り返します。次に、この層の出力を後続の T - N 層に送信します。 2 番目の実験セットでは、研究者らは中間層をランダムな順序で実行し、10 個のシード値にわたってそれらの平均をとりました。

図 6 と 7 は、中間層をそれぞれ逆方向とランダムな順序で実行した結果を示しており、モデルはすべての基本テスト セットにわたって徐々に下降傾向を示しています。これは、レイヤーの順序がモデルにとってある程度重要であるにもかかわらず、順序が変更されてもレイヤーが引き続き機能できることも示しています。

さらに興味深いことに、レイヤーの順序をランダムにシャッフルする方が、まったくその逆を行うよりも効果的です。これは、何らかの方法で順序をランダムにシャッフルすると、レイヤー間の元の関係の一部が維持される (つまり、レイヤー i がレイヤー j の後に来る、ただし i > j) のに対し、完全に逆にすると、これらの関係が完全に破壊されるためと考えられます。

これらのレイヤーは並行して実行できますか?

層自体の存在が実行順序よりも重要であることを検証するために、研究者らは中間層を並行して実行し、その平均結果を最後の N 層に送信する実験を設計しました。

図 8 に示すように、すべてのベンチマーク テストでモデルのパフォーマンスは緩やかな下降傾向を示していますが、この傾向は GSM8K の数学的文章問題には当てはまりません。

実験結果によると、この方法はほとんどの場合に効果的ですが、一部の複雑な数学的問題はうまく処理できません。この並列処理方法は、レイヤーをスキップするよりは劣りますが、レイヤーを逆の順序で実行するほど優れたものではありません。これに基づいて研究者らは、並列演算層は一般的なケースでは実現可能だが、逐次的な論理的理解を必要とする数学的問題にはこの方法が適さない可能性があると結論付けた。

Eight questions and eight answers to understand the inner workings of Transformer

一部のタスクでは、順序が他の要素よりも重要ですか?

ほとんどの「改造」モデルでは、抽象推論 (ARC) または数学的推論 (GSM8K) のベンチマークに直面すると、最も急激な下降傾向を示す傾向があります。この現象は、ステップバイステップの推論タスクが、主に意味の理解に依存する常識的なタスクよりもモデル レベルの順序にはるかに敏感であるという事実に起因している可能性があります。セマンティクスのみを理解することで達成できるタスクとは異なり、推論タスクではモデルが構造と意味の両方を把握する必要があります。この観察は、モデルが単一の処理セッション中にある程度の順序に依存した推論を実行する可能性があるという仮説と一致します。

研究者たちは比喩を使って説明しました。さまざまな要素で構成されるコラージュを描いている場合、絵の順序はそれほど重要ではないかもしれませんが、正確な建築シーンを描いている場合は、各ストロークの順序が重要です。順序が非常に重要になります。これに基づいて、研究者らは、数学と推論のタスクはモデル層の順序に大きく依存する一方、主に意味の理解に依存するタスクでは順序の影響は比較的小さいと結論付けました。

ループはレイヤー間の並列化に役立ちますか?

前節の絵画の比喩に続き、画家が絵を描くとき、​​最初にすべてを描くのではなく、最初に車体などの部分をペイントし、その後、その部分をベースに他のものを追加します。 、ホイールなど。 AI モデルでは、レイヤーはいわゆるペインターであり、情報の処理はペイントです。正しい情報が最初に得られ、いわゆる車体が最初に描画されると、作業をより適切に完了し、描画に貢献できます。車輪を追加します。

トランスフォーマーの場合、適切な入力が与えられた場合、レイヤーは残留接続を通じて入力を「渡す」のではなく、順方向伝播にのみ寄与します。この場合、前の実験の並列レイヤーを反復すると、並列レイヤーを 1 回実行するよりもモデルのパフォーマンスが向上するはずです。これに基づいて、研究者らは、並列層の平均出力を同じ層に一定の反復回数供給することでこれをテストしました。

図 9 は、並列層を 3 回ループした結果を示しています。ループを 3 回並列化した結果は、1 回の反復 (並列層) よりも大幅に優れています。開始レイヤー N が 15 (Llama2-7B モデルの場合) または 11 (BERT モデルの場合) に設定されている場合、これは各ケースの左端にあり、単一レイヤーのみが影響を受けます。この特定のケースでは、ループを 3 回並列化する効果は、中間層を単純に 3 回繰り返すのと同じです。同時に、この時点での並列層のパフォーマンスは完全なモデルと区別できません。

Eight questions and eight answers to understand the inner workings of Transformer

研究者らはまた、反復回数を変えて同じ実験を繰り返しました。図 10 は、並列化層の数 M と反復数の関数として Llama2-7B のパフォーマンスを示しています。各 M の最高パフォーマンスの反復番号は赤いボックスでマークされます。最適な反復数は、M=29 と M=31 (ほぼすべてのレイヤーが並列化される) を除き、並列化されたレイヤーの数にほぼ線形に比例します。したがって、研究者らは、最適な反復回数は並列化層の数に比例すると結論付けました。

Eight questions and eight answers to understand the inner workings of Transformer

モデルのパフォーマンスへの影響を最小限に抑えてレイヤーを調整するにはどうすればよいですか?

最後に、図 11 では、研究者はすべての実験における Transformer の「変換」を比較し、すべてのベンチマークの中央値または平均をグラフに示しています。

Eight questions and eight answers to understand the inner workings of Transformer

中間の複製 (中間層を中間層の同じ数のコピーで置き換える) のパフォーマンスは最悪で、すぐにランダムなベースライン パフォーマンスに低下しました。対照的に、ループの並列性とランダムなレイヤー順序の影響は最小限です。したがって、研究者らは、単一レイヤーの重複が最も深刻な影響を与えると結論付けました。レイヤーの順序のランダム化とループの並列処理による影響は最小限に抑えられます。

これらの実験では、全体的にパフォーマンスが緩やかに低下していることが示されていますが、なぜこれらの層がほとんどの摂動下でもある程度の堅牢性を維持できるのかは研究者らにもまだわかっていません。この問題は今後の研究でさらに調査する必要があります。

詳しくは原文をご覧ください。

参考リンク:https://arxiv.org/pdf/2407.09298v1

The above is the detailed content of Eight questions and eight answers to understand the inner workings of Transformer. For more information, please follow other related articles on the PHP Chinese website!

Related labels:
source:jiqizhixin.com
Statement of this Website
The content of this article is voluntarily contributed by netizens, and the copyright belongs to the original author. This site does not assume corresponding legal responsibility. If you find any content suspected of plagiarism or infringement, please contact admin@php.cn
Popular Tutorials
More>
Latest Downloads
More>
Web Effects
Website Source Code
Website Materials
Front End Template