目錄
資料集
指令微調語言模型
實驗
首頁 科技週邊 人工智慧 首次:微軟用GPT-4做大模型指令微調,新任務零樣本效能再提升

首次:微軟用GPT-4做大模型指令微調,新任務零樣本效能再提升

Apr 10, 2023 pm 02:21 PM
ai 模型

我們知道,從Google T5 模型到 OpenAI GPT 系列大模型,大語言模型(LLMs)已經展現了令人印象深刻的泛化能力,例如上下文學習和思維鏈推理。同時為了使得 LLMs 遵循自然語言指令和完成真實世界任務,研究人員一直在探索 LLMs 的指令微調方法。實作方式有兩種:一是使用人類標註的 prompt 和回饋在廣泛任務上微調模型,二是使用透過手動或自動產生指令增強的公共基準和資料集來監督微調。

在這些方法中,Self-Instruct 微調是一種簡單有效的方法,它從SOTA 指令微調的教師LLMs 產生的指令遵循資料中學習,使得LLMs 與人類意圖對齊。事實證明,指令微調已成為提升 LLMs 零樣本和小樣本泛化能力的有效手段。

最近,ChatGPT 和 GPT-4 的成功為使用指令微調來改進開源 LLMs 提供了巨大的機會。 Meta LLaMA 是一系列開源 LLMs,其性能與 GPT-3 等專有 LLMs 相媲美。為了教導 LLaMA 遵循指令,Self-Instruct 因其卓越性能和低成本而被快速採用。例如史丹佛的 Alpaca 模型使用 GPT-3.5 產生的 52k 指令遵循樣本,Vicuna 模型使用約 70k 來自 ShareGPT 的指令遵循樣本。

為了推進LLMs 指令微調的SOTA 水平,微軟研究院在其論文《Instruction Tuning with GPT-4》中首次使用GPT-4 作為教師模型進行self-intruct 微調。

首次:微軟用GPT-4做大模型指令微調,新任務零樣本效能再提升

  • 論文網址:https://arxiv.org/pdf/2304.03277.pdf
  • #專案位址:https://instruction-tuning-with-gpt-4.github.io/
  • GitHub 網址:https://github.com/Instruction-Tuning-with-GPT-4/GPT-4-LLM

研究者一方面發布了GPT-4 產生的數據,包括中英文的52k 指令遵循數據集、GPT-4 產生的對三種指令微調模型的輸出進行評級的回饋數據。 

另一方面基於 GPT-4 產生的資料開發了指令微調的 LLaMA 模型和獎勵模型。為了評估指令微調LLMs 的質量,研究者使用三個指標對測試樣本進行評估:對三個對齊標準的人工評估、基於GPT-4 反饋的自動評估以及非自然指令的ROUGE-L(自動文摘評測方法之一)。

實驗結果驗證了使用 GPT-4 產生的資料進行 LLMs 指令微調的有效性。 GPT-4 產生的 52k 中英指令遵循資料在新任務上實現了較以往 SOTA 模型更好的零樣本效能。目前,研究者已經公開了使用 GPT-4 產生的數據以及相關代碼。

資料集

該研究使用 GPT-4 產生以下四個資料集:

#
  • 英文指令遵循資料集(English Instruction-Following Data):對於從 Alpaca 收集到的 52K 指令,每個指令都提供了一個英文 GPT-4 答案。此資料集主要用來探索和比較 GPT-4 答案和 GPT-3 答案的資料統計。
  • 中文指令遵循資料集(Chinese Instruction-Following Data):研究使用 ChatGPT 將 52K 指令翻譯成中文,並要求 GPT-4 用中文回答。
  • 比較數據(Comparison Data):讓 GPT-4 給自己的反應評分,分數範圍從 1 到 10。此外,研究還要求 GPT-4 對 GPT-4、GPT-3.5 和 OPT-IML 三種模型的反應進行比較和評分。這資料集主要用來訓練獎勵模型。
  • 非自然指令的回答(Answers on Unnatural Instructions):GPT-4 的答案在 68K 指令 - 輸入 - 輸出三組核心資料集上解碼。此子集用於量化 GPT-4 與指令微調模型之間的差距。

首次:微軟用GPT-4做大模型指令微調,新任務零樣本效能再提升

圖 1 比較了 GPT-4 和 GPT-3.5 的英文輸出回應集。圖1 (a) 和(b) 顯示了兩個輸出集合頻率高於10 的動- 名詞對(verb-noun pairs),圖1 (c) 比較了兩個集合中出現頻率最高的25 對單詞,圖1 (d) 比較了序列長度的頻率分佈,結果顯示,GPT-4 傾向於產生比GPT-3.5 更長的序列。

首次:微軟用GPT-4做大模型指令微調,新任務零樣本效能再提升

指令微調語言模型

#該研究基於LLaMA 7B checkpoint、並使用監督微調訓練了兩個模型:( i) LLaMA-GPT4 ,在GPT-4 產生的52K 英語指令遵循資料上訓練。 (ii) LLaMA-GPT4-CN,在來自 GPT-4 產生的 52K 中文指令遵循資料上訓練完成。

獎勵模型

#人類回饋強化學習(RLHF) 旨在使LLM 行為與人類偏好保持一致,獎勵建模是其關鍵部分之一,這個問題被往往公式化為回歸任務,以預測給定提示和反應之間的獎勵。但這種方法通常需要大規模的比較數據,現有開源模型如 Alpaca、Vicuna 和 Dolly 由於標註比較數據成本很高,因此不涉及 RLHF。同時,最近的研究表明,GPT-4 能夠識別和修復自己的錯誤,並準確判斷反應的品質。因此,為了促進 RLHF 的研究,該研究使用 GPT-4 創建了比較數據,如上所述。

為了評估資料質量,該研究還訓練了一個基於 OPT 1.3B 的獎勵模型進行該資料集的評估。比較數據的分佈如圖 2 所示。

首次:微軟用GPT-4做大模型指令微調,新任務零樣本效能再提升

實驗

該研究利用以下三種類型進行評估:人類評估、GPT-4 以及非自然指令評估。結果證實,與其他機器產生的數據相比,使用 GPT-4 產生的數據是進行 LLM 指令微調的一種高效且有效的方法。接下來我們來看看具體實驗過程。

人類評估

#圖3 (a) 為LLaMA-GPT4 vs Alpaca 比較結果,實驗顯示在Helpfulness 這項指標下,GPT-4 以54.12% 的得分勝出。圖 3 (b) 為 LLaMA-GPT4 vs GPT-4 比較結果,顯示 GPT-4 指令微調的 LLaMA 的表現與原始的 GPT-4 類似。

首次:微軟用GPT-4做大模型指令微調,新任務零樣本效能再提升

與使用自動求值的 SOTA 進行比較

研究使用 GPT-4 對不同模型在 80 個未見問題上的回答進行自動評估。首先從LLaMA-GPT-4 (7B) 和GPT-4 兩個聊天機器人中收集答案,並使用其他聊天機器人發布答案,包括LLaMA (13B),Alpaca (13B),Vicuna (13B),Bard (谷歌, 2023) 和ChatGPT。對於每次評估,研究要求 GPT-4 對兩個模型之間的反應品質進行評分,評分範圍從 1 到 10。結果如圖 4 所示。

首次:微軟用GPT-4做大模型指令微調,新任務零樣本效能再提升

圖 4 (c,d) 比較了所有聊天機器人。 LLaMA_GPT4 性能更高:7B LLaMA GPT4 的性能優於 13B Alpaca 和 LLaMA。然而,LLaMA_GPT4 與 GPT-4 等大型商業聊天機器人相比,仍有差距。

研究者在下圖 5 中進一步研究了所有聊天機器人的表現。首先使用 GPT-4 將聊天機器人的英文回應翻譯成中文,接著使用 GPT-4 將英文問題翻譯成中文以獲得答案。與 GPT-4 翻譯和產生的中文回應的比較如 5 (a) 和 5 (b) 所示,5 (c) 中顯示了所有被要求用中文回答的模型結果。

首次:微軟用GPT-4做大模型指令微調,新任務零樣本效能再提升

在下圖 6 中,研究者將 LLaMA-GPT4 與 GPT-4、Alpaca 非自然指令進行比較。結果顯示,LLaMA-GPT4 和 GPT-4 隨 ground truth 反應長度的增加表現較好。這意味著當場景更具創意時,它們可以更好地遵循指令。當序列長度較短時,LLaMA-GPT4 和 GPT-4 都能產生包含簡單 ground truth 答案的回應,並且添加額外單字可以讓回應更像聊天。

首次:微軟用GPT-4做大模型指令微調,新任務零樣本效能再提升

更多技術和實驗細節請參閱原始論文。

以上是首次:微軟用GPT-4做大模型指令微調,新任務零樣本效能再提升的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

AI Hentai Generator

AI Hentai Generator

免費產生 AI 無盡。

熱門文章

R.E.P.O.能量晶體解釋及其做什麼(黃色晶體)
1 個月前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳圖形設置
1 個月前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.如果您聽不到任何人,如何修復音頻
1 個月前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.聊天命令以及如何使用它們
1 個月前 By 尊渡假赌尊渡假赌尊渡假赌

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

Debian郵件服務器防火牆配置技巧 Debian郵件服務器防火牆配置技巧 Apr 13, 2025 am 11:42 AM

配置Debian郵件服務器的防火牆是確保服務器安全性的重要步驟。以下是幾種常用的防火牆配置方法,包括iptables和firewalld的使用。使用iptables配置防火牆安裝iptables(如果尚未安裝):sudoapt-getupdatesudoapt-getinstalliptables查看當前iptables規則:sudoiptables-L配置

debian readdir如何與其他工具集成 debian readdir如何與其他工具集成 Apr 13, 2025 am 09:42 AM

Debian系統中的readdir函數是用於讀取目錄內容的系統調用,常用於C語言編程。本文將介紹如何將readdir與其他工具集成,以增強其功能。方法一:C語言程序與管道結合首先,編寫一個C程序調用readdir函數並輸出結果:#include#include#includeintmain(intargc,char*argv[]){DIR*dir;structdirent*entry;if(argc!=2){

debian readdir如何實現文件排序 debian readdir如何實現文件排序 Apr 13, 2025 am 09:06 AM

在Debian系統中,readdir函數用於讀取目錄內容,但其返回的順序並非預先定義的。要對目錄中的文件進行排序,需要先讀取所有文件,再利用qsort函數進行排序。以下代碼演示瞭如何在Debian系統中使用readdir和qsort對目錄文件進行排序:#include#include#include#include//自定義比較函數,用於qsortintcompare(constvoid*a,constvoid*b){returnstrcmp(*(

Debian OpenSSL如何進行數字簽名驗證 Debian OpenSSL如何進行數字簽名驗證 Apr 13, 2025 am 11:09 AM

在Debian系統上使用OpenSSL進行數字簽名驗證,可以按照以下步驟操作:準備工作安裝OpenSSL:確保你的Debian系統已經安裝了OpenSSL。如果沒有安裝,可以使用以下命令進行安裝:sudoaptupdatesudoaptinstallopenssl獲取公鑰:數字簽名驗證需要使用簽名者的公鑰。通常,公鑰會以文件的形式提供,例如public_key.pe

Debian郵件服務器SSL證書安裝方法 Debian郵件服務器SSL證書安裝方法 Apr 13, 2025 am 11:39 AM

在Debian郵件服務器上安裝SSL證書的步驟如下:1.安裝OpenSSL工具包首先,確保你的系統上已經安裝了OpenSSL工具包。如果沒有安裝,可以使用以下命令進行安裝:sudoapt-getupdatesudoapt-getinstallopenssl2.生成私鑰和證書請求接下來,使用OpenSSL生成一個2048位的RSA私鑰和一個證書請求(CSR):openss

centos關機命令行 centos關機命令行 Apr 14, 2025 pm 09:12 PM

CentOS 關機命令為 shutdown,語法為 shutdown [選項] 時間 [信息]。選項包括:-h 立即停止系統;-P 關機後關電源;-r 重新啟動;-t 等待時間。時間可指定為立即 (now)、分鐘數 ( minutes) 或特定時間 (hh:mm)。可添加信息在系統消息中顯示。

Debian OpenSSL如何防止中間人攻擊 Debian OpenSSL如何防止中間人攻擊 Apr 13, 2025 am 10:30 AM

在Debian系統中,OpenSSL是一個重要的庫,用於加密、解密和證書管理。為了防止中間人攻擊(MITM),可以採取以下措施:使用HTTPS:確保所有網絡請求使用HTTPS協議,而不是HTTP。 HTTPS使用TLS(傳輸層安全協議)加密通信數據,確保數據在傳輸過程中不會被竊取或篡改。驗證服務器證書:在客戶端手動驗證服務器證書,確保其可信。可以通過URLSession的委託方法來手動驗證服務器

Debian Hadoop日誌管理怎麼做 Debian Hadoop日誌管理怎麼做 Apr 13, 2025 am 10:45 AM

在Debian上管理Hadoop日誌,可以遵循以下步驟和最佳實踐:日誌聚合啟用日誌聚合:在yarn-site.xml文件中設置yarn.log-aggregation-enable為true,以啟用日誌聚合功能。配置日誌保留策略:設置yarn.log-aggregation.retain-seconds來定義日誌的保留時間,例如保留172800秒(2天)。指定日誌存儲路徑:通過yarn.n

See all articles