首頁 > 科技週邊 > 人工智慧 > 大語言模型課程

大語言模型課程

WBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWB
發布: 2025-02-25 19:45:15
原創
672 人瀏覽過

這個全面的課程探討了大型語言模型(LLM),提供了兩種不同的學習路徑:LLM科學家構建最佳LLM的軌道,以及用於開發和部署基於LLM的應用程序的LLM工程師軌道。 可以通過HuggingChat(推薦)或Chatgpt獲得交互式版本。

>

LLM科學家曲目:此路徑著重於使用尖端技術來掌握LLM構造。

The Large Language Model Course

1。 LLM體系結構:雖然深度變壓器體系結構知識並不是強制性的,但了解核心過程至關重要:文本到數字轉換(令牌化),通過注意機制進行令牌處理以及通過各種抽樣策略的文本生成。 關鍵領域包括了解建築演化,象徵化策略,注意機制(自我注意力和變體)以及文本生成抽樣技術。

2。培訓預訓練模型:儘管計算密集型,抓住預訓練至關重要。這涉及數據準備(策展,清潔,重複數據刪除),分佈式培訓(數據,管道和張量並行性),培訓優化(自適應學習率,梯度剪接)以及對關鍵指標的細緻監控。

3。培訓後數據集:培訓後數據集,該數據集由指令和答案(有監督的微調)或偏好對(偏好對齊)結構至關重要。 本節涵蓋了存儲格式,合成數據生成,數據增強技術和良好的質量過濾方法。

4。監督的微調(SFT): SFT將基本模型轉變為有用的助手。 這涉及了解培訓技術(完整的微調與參數效率的方法(如Lora和Qlora),關鍵培訓參數,分佈式培訓策略以及有效的監控技術。

5。偏好比對:

此階段將模型輸出與人類偏好相結合,減輕毒性和幻覺。 它著重於拒絕採樣,直接偏好優化(DPO),近端策略優化(PPO)和績效監控。 > 6。評估:可靠的LLM評估至關重要。本節探討了自動基準,人類評估,基於模型的評估以及分析反饋信號以提高模型性能的重要性。

7。量化:通過參數和激活量化降低LLMS的計算和記憶成本的技術,涵蓋了各種精確級別,例如Llama.cpp和GGUF,以及高級技術,例如GPTQ,AWQ,AWQ,Smoothquant和Zeroquant和ZeroQuant 。

8。新興趨勢:本節探討了高級主題,例如模型合併,多模式模型,可解釋性技術(包括消融)和測試時間計算縮放。

>

LLM工程師軌道:此路徑著重於構建適合生產的LLM應用程序,強調模型增強和部署。

The Large Language Model Course

1。運行LLMS:

本節涵蓋通過API(私有和開放源代碼)運行LLMS,利用來自擁抱面樞紐的開源LLMS,掌握及時的工程技術,以及針對特定應用程序的結構輸出。 2。構建向量存儲:

本節詳細介紹了創建用於檢索增強生成(RAG)管道的矢量存儲,包括文檔攝入,分割,嵌入模型和矢量數據庫。

3。檢索增強發電(RAG):本節說明瞭如何構建抹布管道,重點關注編排者,檢索器,內存管理和評估指標。

4。高級抹布:本節涵蓋了高級抹布技術,例如用於結構化數據庫,基於代理的系統,後處理方法和使用諸如DSPY等框架的程序化LLM優化的查詢構造。 >

5。推理優化:

本節探討了用於優化LLM推理的技術,包括閃光注意力,鍵值緩存和投機解碼。 6。部署LLMS:本節涵蓋了本地部署選項,使用Gradio和簡化,服務器端部署策略等框架創建演示,以及用於約束環境的邊緣部署。

7。確保LLMS:

本節解決了LLM所帶來的獨特安全挑戰,包括及時黑客入侵,後門和防禦措施。 > 結論:

該課程鼓勵動手學習和探索,建議使用各種工具和技術進行實驗,以在廣闊的LLM景觀中開發專業知識。

以上是大語言模型課程的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板