雲端部署大模型的三個秘密
編譯 | 星璇
出品| 51CTO技術堆疊(微訊號:blog51cto)
#在過去的兩年裡,我更多地參與了使用大型語言模型(LLMs)的生成AI項目,而非傳統的系統。我開始懷念無伺服器雲端運算。它們的應用範圍廣泛,從增強對話AI到為各行各業提供複雜的分析解決方案,以及其他許多功能。許多企業將這些模型部署在雲端平台上,因為公有雲供應商已經提供了現成的生態系統,而且這是阻力最小的路徑。然而,這並不便宜。
雲端也提供了其他好處,如可擴展性、效率和進階運算能力(按需提供GPU)。在公有雲平台上部署LLM的過程有一些鮮為人知的秘密,它們可能會對成功或失敗產生重大影響。也許是因為處理LLMs的AI專家不多,也因為我們在這方面還沒太多經驗,我們的知識體系中存在著許多空白。
讓我們探討三個在雲端部署LLM時鮮為人知的“技巧”,也許你的AI工程師們也不知道。考慮到這些工程師的年薪往往超過30萬美元,也許現在是時候考慮他們做這些事情的細節了。我看到每個人都像頭髮發著火一樣奔向生成為AI,但犯的錯誤比以往任何時候都多。
1.管理成本效益和可擴充性
雲端平台部署LLMs的主要吸引力之一是能夠夠按需擴展資源。我們不需要成為優秀的容量規劃師,因為雲端平台有我們只需要點擊滑鼠或自動分配的資源。
然而,等待,我們即將犯下當初使用雲端運算時犯下的同樣錯誤。在擴展的同時管理成本是一項技能,許多人需要在這方面獲得幫助以進行有效導航。請注意,雲端服務通常會根據消耗的運算資源收費;他們就像公共事業一樣運作。處理越多,付費就越多。考慮到GPU的成本更高(且耗電量更大),這是使用公有雲供應商提供的LLMs時的核心關注點。
請確保您使用成本管理工具,包括雲端平台提供的工具和可靠的第三方成本治理和監控服務提供者(finops)提供的工具。例如,實施自動擴展和調度、選擇合適的執行個體類型或使用搶佔式執行個體來最佳化成本。此外,請記得持續監控部署情況,並根據使用情況而不是僅根據預測負載調整資源。這意味著不惜一切代價避免過度配置(明白我這裡的雙關了嗎?)。
2.多租戶環境中的資料隱私
部署LLMs通常涉及處理大量資料和訓練經過的知識模型,這些可能包含敏感或專有資料。使用公有雲的風險在於,你的「鄰居」是以處理實例的形式存在,它們在同一實體硬體上運行。因此,公有雲確實儲存在這樣的風險:在資料儲存和處理過程中,資料可能會被公有雲資料中心中同一實體硬體上執行的其他虛擬機器存取。 為了解決這個問題,許多公有雲供應商提供了企業導向的雲端安全選項。這些選項提供了在實體硬體上運行的其他虛擬機器存取你的資料的隔離和保護。 另一個安全問題是資料在儲存和處理過程中的傳輸。資料可能會透過公有雲網路傳輸,這意味著在傳輸過程中可能會被截取或竊聽。為了解決這個問題,公有雲通常提供了加密和安全傳輸協定來保護資料在傳輸過程中的安全性。 總的來說,部署LLMs
如果你詢問公有雲供應商有關此問題,他們會急忙拿出最新的PowerPoint簡報,展示這是不可能的。雖然這主要是真的,但並不完全準確。所有多租戶系統都存在這種風險;你需要加以緩解。我發現,雲端供應商的規模越小,例如那些僅在單一國家營運的雲端供應商,這種問題出現的可能性就越大。這適用於資料儲存和LLMs。
秘訣在於選擇符合嚴格安全標準並能提供證明的雲端供應商:靜止和傳輸中的資料加密、身分和存取管理(IAM)以及隔離策略。當然,更好的做法是你實施自己的安全策略和安全技術棧,以確保在雲端上使用多租戶LLMs的風險較低。
3.處理有狀態模型部署
大型語言模型(LLMs)大多數都是有狀態的,這意味著它們會在一次交互到下一次交互之間保留資訊。這個舊方法提供了新的好處:即在持續學習場景中提高效率的能力。然而,在雲端環境中管理這些模型的狀態性是有挑戰性的,因為雲端環境中的實例可能是按設計短暫或無狀態的。
支援有狀態部署的編排工具(如 Kubernetes)是有幫助的。它們可以為大型語言模型利用持久性儲存選項,並配置為跨會話維護和操作其狀態。為了支援大型語言模型的連續性和效能,您需要這樣做。
隨著生成式人工智慧的爆炸性成長,在雲端平台上部署大型語言模式已成定局。對大多數企業來說,不使用雲端實在太不方便了。我對接下來這股狂熱的擔憂是,我們會錯過一些容易解決的問題,並會犯下巨大而昂貴的錯誤,而這些錯誤在最終大多是可以避免的。
想了解更多AIGC的內容,請造訪:
51CTO AI.x社群
https://www.51cto.com/aigc/
以上是雲端部署大模型的三個秘密的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

熱門話題

語言模型是對文字進行推理的,文字通常是字串形式,但模型的輸入只能是數字,因此需要將文字轉換成數字形式。 Tokenization是自然語言處理的基本任務,根據特定需求能夠把一段連續的文字序列(如句子、段落等)切分為一個字元序列(如單字、片語、字元、標點等多個單元),其中的單元稱為token或詞語。根據下圖所示的具體流程,首先將文字句子切分成一個個單元,然後將單元素數值化(映射為向量),再將這些向量輸入到模型進行編碼,最後輸出到下游任務進一步得到最終的結果。文本切分依照文本切分的粒度可以將Toke

如何使用Vue進行資料加密與安全傳輸引言:隨著網際網路的發展,資料的安全性越來越受到重視。在網路應用程式開發中,資料加密和安全傳輸是保護使用者隱私和敏感資訊的重要手段。 Vue作為一種流行的JavaScript框架,提供了豐富的工具和插件,可以幫助我們實現資料加密和安全傳輸。本文將介紹如何使用Vue進行資料加密和安全傳輸,並提供程式碼範例供參考。一、資料加密資料加

編輯|ScienceAI問答(QA)資料集在推動自然語言處理(NLP)研究中發揮著至關重要的作用。高品質QA資料集不僅可以用於微調模型,也可以有效評估大語言模型(LLM)的能力,尤其是針對科學知識的理解和推理能力。儘管目前已有許多科學QA數據集,涵蓋了醫學、化學、生物等領域,但這些數據集仍有一些不足之處。其一,資料形式較為單一,大多數為多項選擇題(multiple-choicequestions),它們易於進行評估,但限制了模型的答案選擇範圍,無法充分測試模型的科學問題解答能力。相比之下,開放式問答

2018年Google發布了BERT,一經面世便一舉擊敗11個NLP任務的State-of-the-art(Sota)結果,成為了NLP界新的里程碑;BERT的結構如下圖所示,左邊是BERT模型預訓練過程,右邊是對於具體任務的微調過程。其中,微調階段是後續用於一些下游任務的時候進行微調,例如:文本分類,詞性標註,問答系統等,BERT無需調整結構就可以在不同的任務上進行微調。透過」預訓練語言模型+下游任務微調」的任務設計,帶來了強大的模型效果。從此,「預訓練語言模型+下游任務微調」便成為了NLP領域主流訓

編譯|星璇出品|51CTO技術堆疊(微訊號:blog51cto)在過去的兩年裡,我更參與了使用大型語言模型(LLMs)的生成AI項目,而非傳統的系統。我開始懷念無伺服器雲端運算。它們的應用範圍廣泛,從增強對話AI到為各行各業提供複雜的分析解決方案,以及其他許多功能。許多企業將這些模型部署在雲端平台上,因為公有雲供應商已經提供了現成的生態系統,而且這是阻力最小的路徑。然而,這並不便宜。雲端還提供了其他好處,如可擴展性、效率和高階運算能力(按需提供GPU)。在公有雲平台上部署LLM的過程有一些鮮為人知的

隨著語言模型擴展到前所未有的規模,對下游任務進行全面微調變得十分昂貴。為了解決這個問題,研究人員開始注意並採用PEFT方法。 PEFT方法的主要想法是將微調的範圍限制在一小部分參數上,以降低計算成本,同時仍能實現自然語言理解任務的最先進性能。透過這種方式,研究人員能夠在保持高效能的同時,節省運算資源,為自然語言處理領域帶來新的研究熱點。 RoSA是一種新的PEFT技術,透過在一組基準測試的實驗中,發現在使用相同參數預算的情況下,RoSA表現出優於先前的低秩自適應(LoRA)和純稀疏微調方法。本文將深

大家好,我是Luga。今天我們將繼續探討人工智慧生態領域的技術,特別是LLMFine-Tuning。本文將持續深入剖析LLMFine-Tuning技術,幫助大家更能理解其實現機制,以便更好地應用於市場開發和其他領域。 LLMs(LargeLanguageModels)正在引領人工智慧技術的新浪潮。這種先進的AI透過利用統計模型分析大量數據,學習單字和詞組之間的複雜模式,從而模擬人類認知和語言能力。 LLMs的強大功能已引起了眾多頭部企業以及科技愛好者的濃厚興趣,他們紛紛競相採用這些由人工智慧驅動

近幾年自然語言處理的進展很大程度都來自於大規模語言模型,每次發布的新模型都將參數量、訓練資料量推向新高,同時也會對現有基準排行進行一次屠榜!例如今年4月,Google發布5400億參數的語言模型PaLM(Pathways Language Model)在語言和推理類的一系列測評中成功超越人類,尤其是在few-shot小樣本學習場景下的優異性能,也讓PaLM被認為是下一代語言模式的發展方向。同理,視覺語言模型其實也是大力出奇蹟,可以透過提升模型的規模來提升表現。當然了,如果只是多工的視覺語言模
