大模型中常用的注意力機制GQA詳解以及Pytorch程式碼實現

WBOY
發布: 2024-04-03 17:40:09
轉載
909 人瀏覽過

群組查詢注意力(Grouped Query Attention)是大型語言模型中的一種多查詢注意力力方法,它的目標是在保持 MQA 速度的同時實現 MHA 的品質。 Grouped Query Attention 將查詢分組,每個群組內的查詢共享相同的注意力權重,這有助於降低計算複雜度和提高推理速度。

這篇文章中,我們將解釋GQA的想法以及如何將其轉化為程式碼。

GQA是在論文GQA: Training Generalized Multi-Query Transformer Models from Multi-Head Checkpoints paper.中提出,這是一個相當簡單和乾淨的想法,並且建立在多頭注意力之上。

大模型中常用的注意力機制GQA詳解以及Pytorch程式碼實現

GQA

#標準多頭注意層(MHA)由H個查詢頭、鍵頭和值頭組成。每個頭都有D個維度。 Pytorch的程式碼如下:

from torch.nn.functional import scaled_dot_product_attention  # shapes: (batch_size, seq_len, num_heads, head_dim) query = torch.randn(1, 256, 8, 64) key = torch.randn(1, 256, 8, 64) value = torch.randn(1, 256, 8, 64)  output = scaled_dot_product_attention(query, key, value) print(output.shape) # torch.Size([1, 256, 8, 64])
登入後複製

對於每個查詢頭,都有一個對應的鍵。這個過程如下圖所示:

大模型中常用的注意力機制GQA詳解以及Pytorch程式碼實現

而GQA將查詢頭分成G組,每組共享一個鍵和值。可以表示為:

大模型中常用的注意力機制GQA詳解以及Pytorch程式碼實現

使用視覺化的表達就能非常清楚地了解GQA的工作原理,就像我們上面說的。 GQA是一個相當簡單和乾淨的想法。

Pytorch程式碼實作

讓我們寫程式將這個將查詢頭分割成G組,每個組共用一個鍵和值。我們可以使用einops庫有效地執行對張量的複雜操作。

首先,定義查詢、鍵和值。然後設定注意力頭的數量,數量是隨意的,但是要確保num_heads_for_query % num_heads_for_key = 0,也就是說要能夠整除。我們的定義如下:

import torch  # shapes: (batch_size, seq_len, num_heads, head_dim) query = torch.randn(1, 256, 8, 64) key = torch.randn(1, 256, 2, 64) value = torch.randn(1, 256, 2, 64)  num_head_groups = query.shape[2] // key.shape[2] print(num_head_groups) # each group is of size 4 since there are 2 kv_heads
登入後複製

為了提高效率,交換seq_len和num_heads維度,einops可以像下面這樣簡單地完成:

#
from einops import rearrange  query = rearrange(query, "b n h d -> b h n d") key = rearrange(key, "b s h d -> b h s d") value = rearrange(value, "b s h d -> b h s d")
登入後複製

然後就是需要在查詢矩陣中引入」分組「的概念。

from einops import rearrange query = rearrange(query, "b (h g) n d -> b g h n d", g=num_head_groups) print(query.shape) # torch.Size([1, 4, 2, 256, 64])
登入後複製

上面的程式碼我們將二維重塑為二維:對於我們定義的張量,原始維度8(查詢的頭數)現在被分成兩組(以匹配鍵和值中的頭數),每組大小為4。

最後最難的部分是計算注意力的分數。但其實它可以在一行中透過insum操作完成的

from einops import einsum, rearrange # g stands for the number of groups # h stands for the hidden dim # n and s are equal and stands for sequence length scores = einsum(query, key, "b g h n d, b h s d -> b h n s") print(scores.shape) # torch.Size([1, 2, 256, 256])
登入後複製

scores張量和上面的value張量的形狀是一樣的。我們來看看到底是怎麼操作的

einsum幫我們做了兩件事:

1、一個查詢和鍵的矩陣乘法。在我們的例子中,這些張量的形狀是(1,4,2,256,64)和(1,2,256,64),所以沿著最後兩個維度的矩陣乘法得到(1,4,2,256,256)。

2、對第二個維度(維度g)上的元素求和-如果在指定的輸出形狀中省略了維度,einsum將自動完成這項工作,這樣的求和是用來匹配鍵和值中的頭的數量。

最後是注意分數與值的標準乘法:

import torch.nn.functional as F  scale = query.size(-1) ** 0.5 attention = F.softmax(similarity / scale, dim=-1)  # here we do just a standard matrix multiplication out = einsum(attention, value, "b h n s, b h s d -> b h n d")  # finally, just reshape back to the (batch_size, seq_len, num_kv_heads, hidden_dim) out = rearrange(out, "b h n d -> b n h d") print(out.shape) # torch.Size([1, 256, 2, 64])
登入後複製

這樣最簡單的GQA實作就完成了,只需要不到16行python程式碼:

大模型中常用的注意力機制GQA詳解以及Pytorch程式碼實現

最後再簡單提一句MQA:多查詢注意(MQA)是另一種簡化MHA的流行方法。所有查詢將共享相同的鍵和值。原理圖如下:

大模型中常用的注意力機制GQA詳解以及Pytorch程式碼實現

可以看到,MQA和MHA都可以從GQA推導出來。具有單一鍵和值的GQA相當於MQA,而具有與頭部數量相等的組的GQA相當於MHA。

GQA的好處是什麼?

#GQA是最佳性能(MQA)和最佳模型品質(MHA)之間的一個很好的權衡。

下圖顯示,使用GQA,可以獲得與MHA幾乎相同的模型質量,同時將處理時間提高3倍,達到MQA的效能。這對於高負載系統來說可能是必不可少的。

大模型中常用的注意力機制GQA詳解以及Pytorch程式碼實現

在pytorch中沒有GQA的官方實作。所以我找到了一個比較好的非官方實現,有興趣的可以試試:

#https://www.php.cn/link/5b52e27a9d5bf294f5b593c4c071500e

#GQA論文:

#https://www.php.cn/link/e4ba31fba036a99321d5460f7f2d1d1

#

以上是大模型中常用的注意力機制GQA詳解以及Pytorch程式碼實現的詳細內容。更多資訊請關注PHP中文網其他相關文章!

來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板