首頁 科技週邊 人工智慧 位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16

位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16

May 29, 2024 am 09:29 AM
工程 位元組跳動

位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16
AIxiv專欄是本站發布學術、技術內容的欄位。過去數年,本站AIxiv專欄接收通報了2,000多篇內容,涵蓋全球各大專院校與企業的頂尖實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或聯絡報道。投稿信箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com

隨著深度學習大語言模型的越來越火爆,大語言模型越做越大,使得其推理成本也水漲船高。模型量化,成為熱門的研究主題。

最近,位元組跳動推出了一個全新的量化思路,拋棄傳統的量化範式,從數學最佳化的角度來對量化任務建模。文章放在了 arXiv,程式碼已經開源,可以一鍵複現文中的所有結果。此量化想法是基於數學最佳化,從數學最佳化的角度來對量化任務建模,透過最大化目標函數或最小化損失函數來尋找最優解。這種想法在實驗中獲得了很好的效果,並且取得了令人滿意的結果。

位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16

  • 論文連結:https://arxiv.org/abs/2404.12759

  • 計畫連結: https://github.com/bytedance/decoupleQ

  • W2 算符:https://github.com/NVIDIA/TensorRT-LLM/pull/1568

#1. 背景

大規模的快速發展,使得推理成本越來越高。模型量化,作為一個降低推理成本的技術方案,得到了越來越多的關注與研究。然而,在傳統的量化範式下,模型的精確度在極低位元下會迅速下降。基於此,作者們提出了一種新的量化思路,將模型參數解耦為整數部分和浮點部分,從數學優化的角度來對量化任務建模,使得在極低比特下,模型依然能保持較高的精度。這樣做的優勢是明顯的,我們不再需要關注量化特有的問題,例如如何處理敏感通道,如何處理outlier等,而是只需要將量化問題進行數學建模,找到一個合適的最佳化目標函數,然後去求解該函數。

2. 傳統量化

傳統上,我們對一個模型的量化想法是:

位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16

其中,位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16是量化前模型的浮點型weights;s 和z 是一個線性變換係數,表示scale 和zero point;α 和β 是整數表示範圍的上下界,例如對於int4 量化,可以取α = - 8, β = 7;位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16表示取整函數,一般是四捨五入到臨近的整數。

關於s 和z 的取值,一般來說,對於非對稱量化,我們可以取:

位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16

這樣就將一個分佈在位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16的浮點的weights,線性對應到位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16的區間範圍。

在反量化的時候,一般使用以下公式:

位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16

#在這種傳統的量化方案中,我們需要關注許多量化特有的細枝末節問題,例如針對敏感通道,我們有敏感通道的處理方式;針對outlier,我們有outlier 的處理方式。這種頭痛醫頭腳痛醫腳的處理範式,難以應付複雜多變的業務場景。字節跳動的研究者試圖把這些問題都抽像出來,從一個宏觀的角度來看量化問題。我們只需要建立一個抽象的最佳化目標函數,再去求解這個目標函數即可。

3. decoupleQ

#

觀察 (1)~(3) 式在量化中的作用,如果我們換個思路,就會發現其實我們不需要知道 (1) 式和 (2) 式。我們將一個大模型量化完畢以後,交付給下游引擎同學的時候,只需要知道 (3) 式中的位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16和 (s,z) 即可。也就是說,(3) 式中的 (s,z) 完全可以視為一個普通的仿射變換的係數,不需要保留其在 (2) 式中的意義。此仿射變換係數,可以透過數學優化的方法求出來。

進一步挖掘 (3) 式中,我們可以將一個大模型的參數,解耦 (decouple) 成整數部分位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16和浮點部分 (s,z)。這樣解耦以後,模型量化的過程,就可以視為一個求解模型整數部分位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16和浮點部分 (s,z) 的過程。我們可以交替優化求解。為此,要確定最佳化目標函數和其約束條件。

對於一個linear 層,我們可以建立如下優化目標函數:

位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16

其中,位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16是該層的輸入,位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16是一個對稱矩陣(若X 的列都不全為零,則H 是正定對稱矩陣)。

一般來說,為了提高量化精度,我們可以對模型的權重用 per-channel 量化。在 per-channel 量化中,在最佳化 (4) 式的時候,位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16的各個欄位是獨立進行最佳化的。所以我們只需要關注其中一列。

至此,優化目標可以寫如下:(為了符號簡潔,文章中重新定義符號):

位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16

其中最佳化目標函數為

位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16

其中,w 是位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16的某一列,b 是位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16中對應的列。其他符號的定義與前文相同。

事實上,最佳化目標函數 (6) 與 (4) 是完全一致的,位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16就是反量化過程。

將一個量化問題轉化為形如(5)式的數學最佳化問題,正是 decoupleQ 區別於傳統量化論文的關鍵。 這種轉化,使得我們只需要專注於求解 (5) 式即可,不再需要處理關於量化本身的細枝末節的問題,例如 outlier,等等。

式子 (5) 的解法並不容易,因為有關於位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16的限制條件的存在,特別是位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16這個非凸限制。在論文中,作者給出一種交替求解的思路,即獲得關於 (s,z) 和 w 的良好的初始化以後,交替迭代求解 (s,z) 和 w。在解 (s,z) 的時候,注意到式子 (5) 關於 (s,z) 是一個無限制的二次型,可以直接將目標函數求導,令導數為零,從而得到解析解。在求解 w 的時候,作者採取了兩個層面的近似,第一層近似收斂性更高,但是求解慢;第二層近似採樣 GPTQ【1】的思想,收斂性稍差,但是求解更快。

為了進一步提升量化模型精度,作者指出,除了在layer 層面做mse 最小化以外,還可以在block 層面做mse 最小化,即:

位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16

在這一步,作者在一個transformer block 層面,將其中的各個linear 層量化完畢以後,固定他們的整數部分位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16,而去微調浮點部分(s,z) 以及layer norm 的相關參數。實驗表面,這一步微調,能夠進一步提升模型精度。

4. W2 算子實現

要對量化後的模型進行推理,需要量化算子的支持,在業界沒有現成的w2a16 的算子可用,作者們基於Tensorrt-LLM 中的w4 算子開發了w2 的Gemm cuda kernel, 實現了w2a16 模型的高效推理。

量化模型本身是以 2bit weight 的形式載入和儲存在顯存中,因此會佔用比較小的顯存。我們的 cuda kernel 在執行時間將 2bit 的 weight 載入到暫存器中,再利用硬體指令高效轉換成 bf16 的形式與 activation 進行 gemm 運算。因為我們的場景受限於 latency, generation 階段的 batchsize 比較小,此時矩陣乘受限於 weight 的訪存,這種實作會大幅減少訪存量,提升模型的效能。在實作過程中,結合了演算法搜尋以及 SpiltK Parallel Reduce,進一步提升模型的效能,實測在 batchsize=1 的情況下,在 L 卡上 w2a16 Gemm 效能相比 w4a16 能提升 1.4x-1.7x 不等。

算術連結:https://github.com/NVIDIA/TensorRT-LLM/pull/1568

位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16

           kernel的實作原理

5. 實驗

#作者在文章中給出了位元組跳動內部的ASR 實驗結果,和開源的實驗比較結果:

其中內部實驗結果為:

位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16

在該表格中,作者以 word err rate (WER) 來衡量 ASR 的準確率。作者嘗試使用不同的方法將模型量化為 W2A16g64。量化前的浮點模型的wer 是6.68%,使用GPTQ【1】量化以後是6.83%,帶有block 最小化的decoupleQ 量化以後的wer 是6.70%,該結果與量化前的浮點模型的wer 很接近。同時也 report 了量化所需的耗時。量化高精度的代價,是量化耗時較長。在實際業務中,在使用 decoupleQ 對模型量化完畢以後,固定整數部分,使用有標籤資料集微調 scale 和 zero,模模型精度有進一步的提升。

開源比較實驗結果是:

位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16

此表格是 decoupleQ 和其他方法在 Llama-1/2 上的量化結果比較。以 perplexity (PPL) 作為評估指標。可以看出,在同樣的量化配置下,deoucpleQ 的 PPL 在絕大多數時候會低於其他方法。

6. 業務效益

decoupleQ 量化技術在位元組跳動語音部門現在被廣泛使用。已經上線於語音生成模型(Text-to-Speech),語音辨識模型(automic speech recognition)等等,落地於豆包、飛書、抖音等產品。大量上線業務表明,基於decoupleQ 的量化,W4A16 的推理精度已經完全能和fp16/bf16 推理持平;W2A16 的精度只略差於fp16/bf16 精度(對浮點部分sft 以後,精度能和fp16/bf16 持平)。儘管論文中只介紹了 weight-only 的量化,但是在實際業務中,在 weight 獲得良好的量化以後,對 activation 的量化也便能簡單許多。

在硬體加速上相比fp16、w8fp16、w4fp16 獲得了不錯的加速效果,在小batch 下w2 矩陣乘的性能相比fp16 提升5-6 倍,相比w4 提升1.5-1.7 倍。在內部業務模型上,w2fp16 相比fp16 性能有3-5 倍的提升, 相比w4fp16 性能有1.25-1.4 倍的性能提升,同時也會使得模型weight 佔用顯存大幅下降,為runtime 的顯存利用提供更多空間。

位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16

位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16

7. 總結與討論

在總結與討論部分,作者也指出了decoupleQ 目前存在的兩個風險:

1. decoupleQ 旨在使用數學最佳化的手段,將量化前後的L2 loss 最小化。然而,layer 層面或block 層面的L2 loss 最小化,未必能代表最終模型精度的最優;

2. 在(5) 式和(7) 式的最佳化過程中,在求解位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16和(s,z) 的時候,只針對一小部分校準資料來求解,這使得decoupleQ 容易對校準資料過擬合。

儘管如此,作者也指出,將模型參數解耦為整數部分和浮點部分的思路,是很有意義的。如果有標籤資料集存在,我們可以量化完畢以後,固定整數部分,使用有標籤資料集來專門訓練 (s,z),以進一步提升模型的精確度。這樣既保證了模型的泛化表現(源自於固定整數部分位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16),又能在特定子任務上發揮能力(源自於微調浮點部分)。在位元組跳動的實際業務中,在上一版的模型量化完畢上線以後,下一版更新的時候,也可以只訓練模型中的浮點部分。

參考文獻:

#【1】Elias Frantar, Saleh Ashkboos, Torsten Hoefler, and Dan Alistarh. Optq : Accurate quantization for generative pretrained transformers. In The Eleventh International Conference on Learning Representations, 2022.

#【2】Wenqi Shao, Mengzhao Chenen, Zengang, PZhangqi, Peng Xu, Lirui Zhao, Zhiqian Li, Kaipeng Zhang, Peng Gao, Yu Qiao, and Ping Luo. Omniquant: Omnidirectionally calibrated quantization for large language models.  arXiv preprint arXiv:2308.13137,##37,##37,#【3】Ji Lin, Jiaming Tang, Haotian Tang, Shang Yang, Xingyu Dang, and Song Han. Awq: Activation-aware weight quantization for llm compression and acceleration. arXiv preprint arXiv:2306.00978.

##

以上是位元組開源大模型量化新思路,2-bit量化模型精度齊平fp16的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

ControlNet作者又出爆款!一張圖生成繪畫全過程,兩天狂攬1.4k Star ControlNet作者又出爆款!一張圖生成繪畫全過程,兩天狂攬1.4k Star Jul 17, 2024 am 01:56 AM

同樣是圖生視頻,PaintsUndo走出了不一樣的路線。 ControlNet作者LvminZhang又開始整活了!這次瞄準繪畫領域。新項目PaintsUndo剛上線不久,就收穫1.4kstar(還在瘋狂漲)。項目地址:https://github.com/lllyasviel/Paints-UNDO透過這個項目,用戶輸入一張靜態圖像,PaintsUndo就能自動幫你生成整個繪畫的全過程視頻,從線稿到成品都有跡可循。繪製過程,線條變化多端甚是神奇,最終視頻結果和原始圖像非常相似:我們再來看一個完整的繪

登頂開源AI軟體工程師榜首,UIUC無Agent方案輕鬆解決SWE-bench真實程式設計問題 登頂開源AI軟體工程師榜首,UIUC無Agent方案輕鬆解決SWE-bench真實程式設計問題 Jul 17, 2024 pm 10:02 PM

AIxiv專欄是本站發布學術、技術內容的欄位。過去數年,本站AIxiv專欄接收通報了2,000多篇內容,涵蓋全球各大專院校與企業的頂尖實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或聯絡報道。投稿信箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com這篇論文的作者皆來自伊利諾大學香檳分校(UIUC)張令明老師團隊,包括:StevenXia,四年級博士生,研究方向是基於AI大模型的自動代碼修復;鄧茵琳,四年級博士生,研究方

從RLHF到DPO再到TDPO,大模型對齊演算法已經是「token-level」 從RLHF到DPO再到TDPO,大模型對齊演算法已經是「token-level」 Jun 24, 2024 pm 03:04 PM

AIxiv專欄是本站發布學術、技術內容的欄位。過去數年,本站AIxiv專欄接收通報了2,000多篇內容,涵蓋全球各大專院校與企業的頂尖實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或聯絡報道。投稿信箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com在人工智慧領域的發展過程中,對大語言模型(LLM)的控制與指導始終是核心挑戰之一,旨在確保這些模型既強大又安全地服務人類社會。早期的努力集中在透過人類回饋的強化學習方法(RL

OpenAI超級對齊團隊遺作:兩個大模型博弈一番,輸出更好懂了 OpenAI超級對齊團隊遺作:兩個大模型博弈一番,輸出更好懂了 Jul 19, 2024 am 01:29 AM

如果AI模型給的答案一點也看不懂,你敢用嗎?隨著機器學習系統在更重要的領域中得到應用,證明為什麼我們可以信任它們的輸出,並明確何時不應信任它們,變得越來越重要。獲得對複雜系統輸出結果信任的一個可行方法是,要求系統對其輸出產生一種解釋,這種解釋對人類或另一個受信任的系統來說是可讀的,即可以完全理解以至於任何可能的錯誤都可以被發現。例如,為了建立對司法系統的信任,我們要求法院提供清晰易讀的書面意見,解釋並支持其決策。對於大型語言模型來說,我們也可以採用類似的方法。不過,在採用這種方法時,確保語言模型生

黎曼猜想显著突破!陶哲轩强推MIT、牛津新论文,37岁菲尔兹奖得主参与 黎曼猜想显著突破!陶哲轩强推MIT、牛津新论文,37岁菲尔兹奖得主参与 Aug 05, 2024 pm 03:32 PM

最近,被稱為千禧年七大難題之一的黎曼猜想迎來了新突破。黎曼猜想是數學中一個非常重要的未解決問題,與素數分佈的精確性質有關(素數是那些只能被1和自身整除的數字,它們在數論中扮演著基礎性的角色)。在當今的數學文獻中,已有超過一千個數學命題以黎曼猜想(或其推廣形式)的成立為前提。也就是說,黎曼猜想及其推廣形式一旦被證明,這一千多個命題將被確立為定理,對數學領域產生深遠的影響;而如果黎曼猜想被證明是錯誤的,那麼這些命題中的一部分也將隨之失去其有效性。新的突破來自MIT數學教授LarryGuth和牛津大學

arXiv論文可以發「彈幕」了,史丹佛alphaXiv討論平台上線,LeCun按讚 arXiv論文可以發「彈幕」了,史丹佛alphaXiv討論平台上線,LeCun按讚 Aug 01, 2024 pm 05:18 PM

乾杯!當論文討論細緻到詞句,是什麼體驗?最近,史丹佛大學的學生針對arXiv論文創建了一個開放討論論壇——alphaXiv,可以直接在任何arXiv論文之上發布問題和評論。網站連結:https://alphaxiv.org/其實不需要專門訪問這個網站,只需將任何URL中的arXiv更改為alphaXiv就可以直接在alphaXiv論壇上打開相應論文:可以精準定位到論文中的段落、句子:右側討論區,使用者可以發表問題詢問作者論文想法、細節,例如:也可以針對論文內容發表評論,例如:「給出至

公理訓練讓LLM學會因果推理:6700萬參數模型比肩萬億參數級GPT-4 公理訓練讓LLM學會因果推理:6700萬參數模型比肩萬億參數級GPT-4 Jul 17, 2024 am 10:14 AM

把因果鏈展示給LLM,它就能學會公理。 AI已經在幫助數學家和科學家做研究了,例如著名數學家陶哲軒就曾多次分享自己借助GPT等AI工具研究探索的經驗。 AI要在這些領域大戰拳腳,強大可靠的因果推理能力是不可或缺的。本文要介紹的研究發現:在小圖譜的因果傳遞性公理演示上訓練的Transformer模型可以泛化用於大圖譜的傳遞性公理。也就是說,如果讓Transformer學會執行簡單的因果推理,就可能用於更複雜的因果推理。該團隊提出的公理訓練框架是一種基於被動資料來學習因果推理的新範式,只有演示

首個基於Mamba的MLLM來了!模型權重、訓練程式碼等已全部開源 首個基於Mamba的MLLM來了!模型權重、訓練程式碼等已全部開源 Jul 17, 2024 am 02:46 AM

AIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com。引言近年来,多模态大型语言模型(MLLM)在各个领域的应用取得了显著的成功。然而,作为许多下游任务的基础模型,当前的MLLM由众所周知的Transformer网络构成,这种网

See all articles