LLM將成歷史?開源bGPT或顛覆深度學習範式:直接模擬二進制,開啟類比數位世界新紀元!
微軟亞洲研究院推出的最新成果bGPT,這種基於位元組的Transformer模型,為我們探索數位世界開闢了新的大門。
與傳統基於詞表的語言模型不同,bGPT具有獨特之處,即其能夠直接處理原始二進位數據,不受特定格式或任務的限制。其旨在全面模擬數位世界,為模型的發展開啟了新的可能性。
論文:#https://www.php.cn/link/ee88b3cea2051be97bcddf2e0d9a28f6
#程式碼:https://www.php.cn/link/359499f804ea7988921bf86c9377fb95
#模型:https://www.php.cn/link/4b459ea1a5917be436df5f0bd5b3c4ad
在提供了程式和初始CPU狀態的情況下,bGPT能夠準確地預測CPU執行的完整過程,直到程式終止。在這個範例中,bGPT精確地處理了所有CPU指令。為了便於理解,這裡將實際的位元組序列轉換成了更易讀的格式。
從位元組到萬物:突破邊界,朝向統一的數據建模進發
bGPT不僅能處理原生二進位數據,還能將多種數據類型融合進一個統一的模型架構中,視一切資料為位元組序列。
這種方法不僅簡化了資料建模流程,也使得從任何資料來源的整合變得輕而易舉,且無需為特定資料類型自訂模型。
研究團隊在論文中舉例了傳統文字、圖像及音訊文件,展現了bGPT在統一資料建模方面的能力。他們訓練的bGPT模型擁有約1億參數。
實驗結果表明,在與GPT-2(文字模型)、ViT(視覺模型)和AST(音訊模型)等同規模模型的比較中,bGPT在不同資料類型上均展現出了可媲美的性能。
bGPT在文字生成方面的表現非常出色。由於其位元組層級的文本編碼,該模型無需依賴詞彙表,從而支援所有語言。
它的分層Transformer架構,儘管計算開銷與GPT-2相近,卻能產生長達8KB的文本,大大超出了GPT-2的長度限制。在經過Wikipedia資料進行預訓練後,bGPT生成的文字在風格和主題上都與GPT-2不相上下,證明了其在文字生成方面的強大能力。
bGPT在Wikipedia資料集上進行預訓練,產生的文字範例品質和主題一致性與GPT-2相當。
bGPT可以透過預測影像位元組序列中的下一個位元組來產生影像。該模型在ImageNet資料集上進行了預訓練,生成的影像解析度為32x32像素。
雖然在當前規模下,透過位元組序列準確地捕捉影像的二維空間關係有所困難,導致生成的影像存在偽影和雜訊,但紋理和光影效果通常還是比較準確的。
此外,這些產生的影像均能被正常解碼為BMP檔。研究團隊指出,透過擴大bGPT的規模,類似OpenAI開發的iGPT在像素序列建模方面的方法,或許可以實現更高品質、更逼真的影像生成。
這些是由在ImageNet資料集上進行預訓練的bGPT所產生的一組影像。雖然影像的紋理和光影效果通常比較準確,但在這些生成的影像中辨識主要物體卻有一定難度。
bGPT將音訊資料視為位元組序列,能產生1秒長、取樣率為8000 Hz的音訊取樣。
該模型在LibriSpeech資料集上完成了預訓練,並進一步在Speech Commands v2資料集上進行微調和演示。 bGPT產生的音訊樣本保持了較高的準確度,其中一些樣本幾乎與真實音訊無法區分。以下是展示bGPT在音訊生成領域能力的範例集。
透過bGPT探索位元組構成的數字世界
#傳統語言模型,不管它們有多強大,主要專注於處理自然語言文本。 bGPT模型透過基於位元組的處理機制,打破了這種僅限於文字處理的局限性,開啟了一個全新的資料處理範疇。
這一進步讓bGPT有能力無縫地處理包括文字、圖像、音訊在內的各種數據類型,甚至能處理來自演算法和硬體的原生二進位數據,為全面模擬和理解數位世界鋪平了道路。
雖然bGPT展現出了引人注目的能力,但其在計算開銷方面的局限性,如當前在常規顯卡上僅能處理最大8KB的字節序列,對於那些需要產生或處理大量資料的應用來說,構成了明顯的限制。未來的工作計畫將集中在開發更有效率的演算法和利用硬體的進步上,旨在提高處理更大規模資料序列的能力。
全球的科技愛好者已經開始展望bGPT未來的潛力,從網路修剪和自我學習的優化到超大規模網路的自我重構能力,這些討論指向了一個共同的願景:bGPT最終可能實現一個統一的模型,能夠處理和輸出所有類型的位元組數據,真正成為數位世界的全面模擬器。
研究團隊已將bGPT的程式碼和模型開源。這意味著你可以在自己的資料集上直接訓練bGPT,無需做出任何模型架構上的調整,便可探索字節模型在數位領域的廣闊前景。
以上是LLM將成歷史?開源bGPT或顛覆深度學習範式:直接模擬二進制,開啟類比數位世界新紀元!的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

想像一下,一個人工智慧模型,不僅擁有超越傳統運算的能力,還能以更低的成本實現更有效率的效能。這不是科幻,DeepSeek-V2[1],全球最強開源MoE模型來了。 DeepSeek-V2是一個強大的專家混合(MoE)語言模型,具有訓練經濟、推理高效的特點。它由236B個參數組成,其中21B個參數用於啟動每個標記。與DeepSeek67B相比,DeepSeek-V2效能更強,同時節省了42.5%的訓練成本,減少了93.3%的KV緩存,最大生成吞吐量提高到5.76倍。 DeepSeek是一家探索通用人工智

本月初,來自MIT等機構的研究者提出了一種非常有潛力的MLP替代方法—KAN。 KAN在準確性和可解釋性方面表現優於MLP。而且它能以非常少的參數量勝過以更大參數量運行的MLP。例如,作者表示,他們用KAN以更小的網路和更高的自動化程度重現了DeepMind的結果。具體來說,DeepMind的MLP有大約300,000個參數,而KAN只有約200個參數。 KAN與MLP一樣具有強大的數學基礎,MLP基於通用逼近定理,而KAN基於Kolmogorov-Arnold表示定理。如下圖所示,KAN在邊上具

jojplay模擬器其實可以自訂遊戲字體的,而且可以解決文字出現缺字、方框字的問題,想必不少玩家還不知道怎麼操作,下面小編就為大家帶來了joiplay模擬器字體設定方法介紹。 joiplay模擬器字體怎麼設定1、先開啟joiplay模擬器,點選右上角的設定(三個點),找到。 2.在RPGMSettings一欄,第三行CustomFont自訂字體,點選選擇。 3.選擇字體文件,點擊ok就行了,注意不要按右下角「儲存」圖標,不然會原預設設定。 4.推薦方正準圓簡體(已在復興、重生遊戲資料夾內)。 joi

特斯拉機器人Optimus最新影片出爐,已經可以在工廠裡打工了。正常速度下,它分揀電池(特斯拉的4680電池)是這樣的:官方還放出了20倍速下的樣子——在小小的「工位」上,揀啊揀啊揀:這次放出的影片亮點之一在於Optimus在廠子裡完成這項工作,是完全自主的,全程沒有人為的干預。而且在Optimus的視角之下,它還可以把放歪了的電池重新撿起來放置,主打一個自動糾錯:對於Optimus的手,英偉達科學家JimFan給出了高度的評價:Optimus的手是全球五指機器人裡最靈巧的之一。它的手不僅有觸覺

雷電模擬器版本官方版是相當專業的安卓模擬器工具。那麼雷電模擬器要怎麼刪除應用?雷電模擬器刪除應用的方法?下面就讓小編給大家解答吧!雷電模擬器怎麼刪除應用? 1、點擊並長按你想要刪除的應用程式圖示。 2、等待一段時間,直到出現卸載或刪除應用程式的選項。 3、將應用程式拖曳到卸載選項處。 4.在彈出的確認視窗中,點選確定就可以完成應用的刪除。

什麼?瘋狂動物城被國產AI搬進現實了?與影片一同曝光的,是一款名為「可靈」全新國產影片生成大模型。 Sora利用了相似的技術路線,結合多項自研技術創新,生產的影片不僅運動幅度大且合理,還能模擬物理世界特性,具備強大的概念組合能力與想像。數據上看,可靈支持生成長達2分鐘的30fps的超長視頻,分辨率高達1080p,且支援多種寬高比。另外再劃個重點,可靈不是實驗室放出的Demo或影片結果演示,而是短影片領域頭部玩家快手推出的產品級應用。而且主打一個務實,不開空頭支票、發布即上線,可靈大模型已在快影

人生重開模擬器是一款非常有趣的模擬小遊戲,這款遊戲最近非常的火,遊戲中有很多的玩法,下面小編就大家帶來了人生重開模擬器攻略大全,快來看看都有哪些攻略吧。人生重開模擬器攻略大全人生重開模擬器特色這是一款非常有創意的遊戲,遊戲裡玩家可以依照自己的想法進行遊戲。每天都會有許多的任務可以完成,在這個虛擬的世界裡享受全新的人生。遊戲裡擁有許多的歌曲,各種不同的人生等著你來感受。人生重開模擬器遊戲內容天賦抽卡:天賦:必選神秘的小盒子,才能修仙子。各種各樣的小膠囊可選,避免中途死掉。克蘇魯選了可能會

為了將大型語言模型(LLM)與人類的價值和意圖對齊,學習人類回饋至關重要,這能確保它們是有用的、誠實的和無害的。在對齊LLM方面,一種有效的方法是根據人類回饋的強化學習(RLHF)。儘管RLHF方法的結果很出色,但其中涉及了一些優化難題。其中涉及訓練一個獎勵模型,然後優化一個策略模型來最大化該獎勵。近段時間已有一些研究者探索了更簡單的離線演算法,其中之一就是直接偏好優化(DPO)。 DPO是透過參數化RLHF中的獎勵函數來直接根據偏好資料學習策略模型,這樣就無需顯示式的獎勵模型了。此方法簡單穩定
