目錄
LLaMA的「史詩級」洩漏
Koala
ChatLLaMA
FreedomGPT
ColossalChat
中英双语训练数据集" >中英双语训练数据集
首頁 科技週邊 人工智慧 開發者笑瘋了! LLaMa驚天洩漏引爆ChatGPT平替狂潮,開源LLM領域變天

開發者笑瘋了! LLaMa驚天洩漏引爆ChatGPT平替狂潮,開源LLM領域變天

Apr 12, 2023 pm 11:40 PM
模型 開源

誰能想到,一次意外的LLaMA洩漏,竟點燃了開源LLM領域最大的創新火花。

一系列表現出色的ChatGPT開源替代品——「羊駝家族」,隨後眼花撩亂地登場。

開源和基於 API 的分發之間的摩擦,是生成式AI生態系統中最迫在眉睫的矛盾之一。

在文字到圖像領域,Stable Diffusion的發布清楚地表明,對於基礎模型來說,開源是一種可行的分發機制。

然而,在大語言模型領域卻並非如此,這個領域最大的突破,例如GPT-4、Claude和Cohere等模型,都只能透過API。

這些模型的開源替代品並沒有表現出相同程度的效能,特別是在遵循人類指令能力上。然而,一場意想不到的洩露,讓這種狀況徹底改變了。

LLaMA的「史詩級」洩漏

幾週前,Meta AI推出了大語言模型LLaMA 。

LLaMA 有不同的版本,包括7B、13B、33B和65B的參數,雖然它比GPT-3小,但在許多任務上,它都能和GPT-3的性能相媲美。

LLaMA 起初並未開源,但在發布一周後,這個模型忽然在4chan上洩露了,引發了數千次下載。

這個事件,可以被稱為「史詩級洩漏」了,因為它成為了大語言模型領域層出不窮的創新來源。

短短幾週內,基於它所建構的LLM代理商的創新,已經呈現爆炸性成長。

Alpaca、Vicuna、Koala、ChatLLaMA 、FreedomGPT、ColossalChat…… 讓我們來回顧一下,這場「羊駝家族」的大爆炸,是如何誕生的。

Alpaca在三月中旬,史丹佛發布的大模型Alpaca火了。 

Alpaca是Meta的LLaMA 7B微調而來的全新模型,僅用了52k數據,效能約等於GPT-3.5。

關鍵是訓練成本奇低,不到600美元。

史丹佛研究者對GPT-3.5(text-davinci-003)和Alpaca 7B進行了比較,發現這兩個模型的表現非常相似。 Alpaca在與GPT-3.5的比較中,獲勝次數為90對89。

對史丹佛的團隊來說,想要在預算內訓練一個高品質的指令遵循模型,就必須面對2個重要的挑戰:要有一個強大的預訓練語言模型,以及一個高品質的指令遵循數據。

恰恰,提供給學術研究人員使用的LLaMA模型搞定了第一個問題。

對於第二個挑戰,「Self-Instruct: Aligning Language Model with Self Generated Instructions」論文給了很好的啟發,即使用現有的強語言模型來自動生成指令數據。

LLaMA模型最大的弱點,就是缺乏指令微調。 OpenAI最大的創新之一就是將指令調優用在了GPT-3。

對此,史丹佛使用了現有的大語言模型,來自動產生遵循指令演示。

現在,Alpaca直接被網友們奉為「文本大模型的Stable Diffusion」。

Vicuna3月底,來自UC柏克萊、卡內基美隆大學、史丹佛大學和加州大學聖地牙哥分校的研究人員開源了Vicuna,這是一個與GPT-4性能相匹配的LLaMA微調版本。

130億參數的Vicuna,透過在ShareGPT收集的用戶共享對話上對LLaMA進行微調訓練而來,訓練成本近300美元。

結果顯示Vicuna-13B在超過90%的情況下,實現了與ChatGPT和Bard相匹敵的能力。

開發者笑瘋了! LLaMa驚天洩漏引爆ChatGPT平替狂潮,開源LLM領域變天

對於Vicuna-13B訓練流程,具體如下:

首先,研究者從ChatGPT對話在分享網站ShareGPT上,收集了大約70K對話。

接下來,研究人員優化了Alpaca提供的訓練腳本,使模型能夠更好地處理多輪對話和長序列。之後利用PyTorch FSDP在8個A100 GPU上進行了一天的訓練。

在模型的品質評估方面,研究人員創建了80個不同的問題,並用GPT-4對模型輸出進行了評估。

為了比較不同的模型,研究人員將每個模型的輸出組合成一個單獨的提示,然後讓GPT-4評估哪個模型給出的答案會更好。

開發者笑瘋了! LLaMa驚天洩漏引爆ChatGPT平替狂潮,開源LLM領域變天

LLaMA、Alpaca、Vicuna和ChatGPT的對比

Koala

最近,UC伯克利AI Research Institute(BAIR)又發布了一個新模型“考拉”(Koala),相比之前使用OpenAI的GPT數據進行指令微調,Koala的不同之處在於使用網絡獲取的高品質資料進行訓練。

研究結果表明,Koala可以有效地回答各種用戶的查詢,產生的答案往往比Alpaca更受歡迎,至少在一半的情況下與ChatGPT的效果不相上下。

研究人員希望這次實驗的結果可以進一步推動圍繞大型閉源模型相對於小型公共模型的相對性能的討論,特別是結果表明,對於那些能在本地運行的小模型,如果認真地收集訓練數據,也可以取得大模型的表現。

開發者笑瘋了! LLaMa驚天洩漏引爆ChatGPT平替狂潮,開源LLM領域變天

事實上,在此之前史丹佛大學發布的Alpaca模型,根據OpenAI的GPT模型對LLaMA的數據進行微調的實驗結果已經表明,正確的數據可以顯著改善規模較小的開源模型。

這也是柏克萊的研究人員開發和發布Koala模型的初衷,希望為這個討論結果再提供了一個實驗證明。

Koala對從網路上取得的免費互動資料進行了微調,並且特別關注包含與ChatGPT 等高效能閉源模型互動的資料。

研究人員並沒有追求盡可能多的抓取網路資料來最大化資料量,而是專注於收集一個小型的高品質資料集,包括ChatGPT蒸餾資料、開源數據等。

ChatLLaMA

Nebuly開源了ChatLLaMA ,這是一個使用讓我們使用自己的資料建立對話助理的框架。

ChatLLaMA讓我們使用自己的資料和盡可能少的運算量,來創造超個人化的類似ChatGPT的助手。

假設在未來,我們不再依賴一個「統治所有人」的大型助手,每個人都可以創造自己的個人化版本類ChatGPT助手,它們可以支持人類的各種需求。

不過,創建這種個人化助手需要在許多方面做出努力:資料集創建,使用RLHF進行高效訓練,以及推理優化。

這個函式庫的目的是,透過抽象運算來最佳化和收集大量資料所需的工作,讓開發人員高枕無憂。

ChatLLaMA旨在幫助開發人員處理各種用例,所有用例都與RLHF訓練和最佳化推理有關。以下是一些用例參考:

  • 為垂直特定任務(法律、醫療、遊戲、學術研究等)創建類似ChatGPT的個人化助手;
  • 想在本地硬體基礎設施上使用有限的數據,訓練一個高效的類似ChatGPT的助手;
  • 想創建自己的個人化版本類ChatGPT助手,同時避免成本失控;
  • 想了解哪種模型架構(LLaMA、OPT、GPTJ等)最符合我在硬體、運算預算和效能方面的要求;
  • 想讓助理與我的個人/公司價值觀、文化、品牌和宣言保持一致。

FreedomGPT

FreedomGPT使用Electron 和 React構建,它是一個桌面應用程序,允許用戶在他們的本地機器上運行LLaMA。

FreedomGPT的特色,從它的名字就可見一斑——它回答的問題不受任何審查或安全過濾。

這個程式由AI創投公司Age of AI開發。

FreedomGPT 建立在 Alpaca 之上。FreedomGPT使用Alpaca的显著特征,因为与其他模型相比,Alpaca相对更易于访问和定制。

ChatGPT遵循OpenAI的使用政策,限制仇恨、自残、威胁、暴力、性方面的内容。

与ChatGPT不同,FreedomGPT回答问题时没有偏见或偏袒,并且会毫不犹豫地回答有争议或争论性的话题。

​FreedomGPT甚至还回答了「如何在家制造炸弹」,而OpenAI专门从GPT-4中删除了这一点。

FreedomGPT很独特,因为它克服了审查限制,在没有任何保障的情况下迎合有争议的话题。它的标志是自由女神像,因为这个独特而大胆的大语言模型象征了自由。

FreedomGPT甚至可以在不需要联网的情况下,就能在计算机上本地运行。

此外,开源版本将很快发布,使用户和组织可以完全定制。

ColossalChat

UC伯克利提出的ColossalChat只需要不到100亿个参数就可以达到中英文双语能力,效果与ChatGPT和GPT-3.5相当。

此外,基于LLaMA模型的ColossalChat,还复刻了完整的RLHF过程,是目前最接近ChatGPT原始技术路线的开源项目。

中英双语训练数据集

ColossalChat发布了一个双语数据集,其中包含大约100,000个中英文问答对。

该数据集是从社交媒体平台上的真实问题场景中收集和清理的,作为种子数据集,使用self-instruct进行扩展,标注成本约为900美元。

与其他self-instruct方法生成的数据集相比,该数据集包含更真实和多样化的种子数据,涵盖更广泛的主题。

该数据集适用于微调和RLHF训练。在提供优质数据的情况下,ColossalChat可以实现更好的对话交互,同时也支持中文。

 完整的RLHF管线

RLHF的算法复刻共有三个阶段:

在RLHF-Stage1中,使用上述双语数据集进行监督指令微调以微调模型。

在RLHF-Stage2中,通过对同一提示的不同输出手动排序来训练奖励模型分配相应的分数,然后监督奖励模型的训练。

在RLHF-Stage3中,使用了强化学习算法,这是训练过程中最复杂的部分。

相信很快,就会有更多项目发布。

谁也没想到,这场LLaMA的意外泄露,竟点燃了开源LLM领域最大的创新火花。

以上是開發者笑瘋了! LLaMa驚天洩漏引爆ChatGPT平替狂潮,開源LLM領域變天的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

熱門話題

Java教學
1653
14
CakePHP 教程
1413
52
Laravel 教程
1306
25
PHP教程
1251
29
C# 教程
1224
24
全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 May 07, 2024 pm 04:13 PM

想像一下,一個人工智慧模型,不僅擁有超越傳統運算的能力,還能以更低的成本實現更有效率的效能。這不是科幻,DeepSeek-V2[1],全球最強開源MoE模型來了。 DeepSeek-V2是一個強大的專家混合(MoE)語言模型,具有訓練經濟、推理高效的特點。它由236B個參數組成,其中21B個參數用於啟動每個標記。與DeepSeek67B相比,DeepSeek-V2效能更強,同時節省了42.5%的訓練成本,減少了93.3%的KV緩存,最大生成吞吐量提高到5.76倍。 DeepSeek是一家探索通用人工智

AI顛覆數學研究!菲爾茲獎得主、華裔數學家領銜11篇頂刊論文|陶哲軒轉贊 AI顛覆數學研究!菲爾茲獎得主、華裔數學家領銜11篇頂刊論文|陶哲軒轉贊 Apr 09, 2024 am 11:52 AM

AI,的確正在改變數學。最近,一直十分關注這個議題的陶哲軒,轉發了最近一期的《美國數學學會通報》(BulletinoftheAmericanMathematicalSociety)。圍繞著「機器會改變數學嗎?」這個話題,許多數學家發表了自己的觀點,全程火花四射,內容硬核,精彩紛呈。作者陣容強大,包括菲爾茲獎得主AkshayVenkatesh、華裔數學家鄭樂雋、紐大電腦科學家ErnestDavis等多位業界知名學者。 AI的世界已經發生了天翻地覆的變化,要知道,其中許多文章是在一年前提交的,而在這一

Google狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理訓練最快選擇 Google狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理訓練最快選擇 Apr 01, 2024 pm 07:46 PM

谷歌力推的JAX在最近的基準測試中表現已經超過Pytorch和TensorFlow,7項指標排名第一。而且測試並不是JAX性能表現最好的TPU上完成的。雖然現在在開發者中,Pytorch依然比Tensorflow更受歡迎。但未來,也許有更多的大型模型會基於JAX平台進行訓練和運行。模型最近,Keras團隊為三個後端(TensorFlow、JAX、PyTorch)與原生PyTorch實作以及搭配TensorFlow的Keras2進行了基準測試。首先,他們為生成式和非生成式人工智慧任務選擇了一組主流

你好,電動Atlas!波士頓動力機器人復活,180度詭異動作嚇到馬斯克 你好,電動Atlas!波士頓動力機器人復活,180度詭異動作嚇到馬斯克 Apr 18, 2024 pm 07:58 PM

波士頓動力Atlas,正式進入電動機器人時代!昨天,液壓Atlas剛「含淚」退出歷史舞台,今天波士頓動力就宣布:電動Atlas上崗。看來,在商用人形機器人領域,波士頓動力是下定決心要跟特斯拉硬剛一把了。新影片放出後,短短十幾小時內,就已經有一百多萬觀看。舊人離去,新角色登場,這是歷史的必然。毫無疑問,今年是人形機器人的爆發年。網友銳評:機器人的進步,讓今年看起來像人類的開幕式動作、自由度遠超人類,但這真不是恐怖片?影片一開始,Atlas平靜地躺在地上,看起來應該是仰面朝天。接下來,讓人驚掉下巴

替代MLP的KAN,被開源專案擴展到卷積了 替代MLP的KAN,被開源專案擴展到卷積了 Jun 01, 2024 pm 10:03 PM

本月初,來自MIT等機構的研究者提出了一種非常有潛力的MLP替代方法—KAN。 KAN在準確性和可解釋性方面表現優於MLP。而且它能以非常少的參數量勝過以更大參數量運行的MLP。例如,作者表示,他們用KAN以更小的網路和更高的自動化程度重現了DeepMind的結果。具體來說,DeepMind的MLP有大約300,000個參數,而KAN只有約200個參數。 KAN與MLP一樣具有強大的數學基礎,MLP基於通用逼近定理,而KAN基於Kolmogorov-Arnold表示定理。如下圖所示,KAN在邊上具

建議:優秀JS開源人臉偵測辨識項目 建議:優秀JS開源人臉偵測辨識項目 Apr 03, 2024 am 11:55 AM

人臉偵測辨識技術已經是一個比較成熟且應用廣泛的技術。而目前最廣泛的網路應用語言非JS莫屬,在Web前端實現人臉偵測辨識相比後端的人臉辨識有優勢也有弱勢。優點包括減少網路互動、即時識別,大大縮短了使用者等待時間,提高了使用者體驗;弱勢是:受到模型大小限制,其中準確率也有限。如何在web端使用js實現人臉偵測呢?為了實現Web端人臉識別,需要熟悉相關的程式語言和技術,如JavaScript、HTML、CSS、WebRTC等。同時也需要掌握相關的電腦視覺和人工智慧技術。值得注意的是,由於Web端的計

特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! 特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! May 06, 2024 pm 04:13 PM

特斯拉機器人Optimus最新影片出爐,已經可以在工廠裡打工了。正常速度下,它分揀電池(特斯拉的4680電池)是這樣的:官方還放出了20倍速下的樣子——在小小的「工位」上,揀啊揀啊揀:這次放出的影片亮點之一在於Optimus在廠子裡完成這項工作,是完全自主的,全程沒有人為的干預。而且在Optimus的視角之下,它還可以把放歪了的電池重新撿起來放置,主打一個自動糾錯:對於Optimus的手,英偉達科學家JimFan給出了高度的評價:Optimus的手是全球五指機器人裡最靈巧的之一。它的手不僅有觸覺

阿里7B多模態文件理解大模型拿下新SOTA 阿里7B多模態文件理解大模型拿下新SOTA Apr 02, 2024 am 11:31 AM

多模態文件理解能力新SOTA!阿里mPLUG團隊發布最新開源工作mPLUG-DocOwl1.5,針對高解析度圖片文字辨識、通用文件結構理解、指令遵循、外部知識引入四大挑戰,提出了一系列解決方案。話不多說,先來看效果。複雜結構的圖表一鍵識別轉換為Markdown格式:不同樣式的圖表都可以:更細節的文字識別和定位也能輕鬆搞定:還能對文檔理解給出詳細解釋:要知道,“文檔理解”目前是大語言模型實現落地的一個重要場景,市面上有許多輔助文檔閱讀的產品,有的主要透過OCR系統進行文字識別,配合LLM進行文字理

See all articles