譚中意:從Model-Centric到Data-Centric MLOps幫助AI多快好省的落地
嘉賓:譚中意
整理:千山
吳恩達曾在多個場合表達過AI已經從以模型為中心的研究範式向以數據為中心的研究範式轉變,數據是AI落地最大的挑戰。如何確保資料的高品質供給是關鍵問題,而要解決好這個問題,需要利用MLOps的實踐、工具等,幫助AI多快好省的落地。
日前,在51CTO主辦的 AISummit 全球人工智慧技術大會上,開放原子基金會TOC副主席譚中意帶來了主題演講《從Model-Centric到Data-Centric-MLOps幫助AI多快好省的落地》,和與會者重點分享了MLOps的定義、MLOps能解決什麼問題、常見的MLOps項目,以及如何評估一個AI團隊MLOps的能力和水平。
現在將演講內容整理如下,希望對諸君有所啟發。
從Model-Centric到Data-Centric
目前,AI界有個趨勢是-「從Model-Centric到Data-Centric」。具體是什麼意義?首先來看一些來自科學界和工業界的分析。
- AI科學家吳恩達(Andrew NG)分析,目前AI落地的關鍵在於如何提升資料品質。
- 業內工程師和分析師有報告表明,AI專案經常失敗。而導致失敗的原因值得進一步探討。
吳恩達曾分享演講《MLOps:From Model-centric to Data-centric》,在矽谷引起了極大反響。在演講中,他認為「AI= Code Data」(此處Code包含模型和演算法),透過提升Data而非Code來提升AI system。
具體來說,採用Model-Centric的方法,即保持資料不變,不斷的調整模型演算法,例如使用更多網路層,更多超參數調整等;而採用Data-Centric的方法,即維持模型不變,提升資料質量,例如改進資料標籤,提高資料標註品質等。
對於同一個AI問題,改進程式碼還是改進數據,效果完全不同。
實證顯示,透過Data-centricapproach能夠有效提升準確率,而透過改善模型、更換模型能提升準確率的程度極為有限。例如,在下列鋼板缺陷偵測任務當中,baseline準確率為76.2%,各種換模型調參數的操作之後,對準確率幾乎沒有提升。但對資料集的優化卻將準確率提升了16.9%。其它專案的經驗也證明了這一點。
之所以會這樣,是因為資料比想像中更重要。大家都知道「Data is Food for AI」。在一個真實的AI應用中,大概有80%的時間是處理跟數據相關的內容,其餘20%則用來調整演算法。這個過程就像烹飪,八成時間用來準備食材,對各種食材進行處理和調整,而真正的烹調可能只有大廚下鍋的幾分鐘。可以說,決定一道菜是否美味的關鍵,在於食材和食材的處理。
在吳恩達看來,MLOps(即「Machine learning Engineering for Production」)最重要的任務就是在機器學習生命週期的各個階段,包括資料準備、模型訓練、模型上線,以及模型的監控和重新訓練等等各個階段,始終保持高品質的資料供給。
以上是AI科學家對MLOps的認知。接著來看AI工程師和業內分析師的一些觀點。
先從業內分析師看來,目前AI專案的失敗率是驚人的高。 2019年5月Dimensional Research研究發現,78%的AI專案最終沒有上線;2019年6月,VentureBeat的報告發現,87%的AI專案沒有部署到生成環境。換句話說,雖然AI科學家、AI工程師做了很多工作,但最終沒有產生業務的價值。
為什麼會產生這個結果? 2015年在NIPS上發布的論文《Hidden Technical Debt in Machine Learning Systems》中提到,在一個真實上線的AI系統裡面,包含了資料收集、驗證、資源管理、特徵抽取、流程管理、監控等諸多內容。但真正跟機器學習相關的程式碼,只佔整個AI系統的5%,95%都是跟工程相關的內容,跟數據相關的內容。因此,數據是最重要的,也是最容易出錯的。
數據對一個真實的AI系統的挑戰主要在於以下幾點:
- Scale: 大量的資料讀取是一個挑戰;
- Low Latency:在serving的時候如何滿足高QPS低延遲的需求;
- Data change cause model decay :現實世界是不斷變化的,如何應對模型效果的衰減;
- Time Travel:時序特徵資料處理容易出問題;
- Training/Serving skew:訓練和預測使用的資料不一致。
以上列舉的都是機器學習裡面資料相關的一些挑戰。此外,在現實生活中,即時數據會帶來更大的挑戰。
那麼,對於一個企業來說,AI落地如何才能做到規模化?以大企業為例,它可能會有超過1000多個應用場景,同時有1500多個模型在線上跑,這麼多模型如何支撐?在技術上怎麼能做到AI「多、快、好、省」的落地?
多:需要圍繞關鍵業務的流程落地多個場景,對大企業來說可能是1000甚至上萬的量級。
快:每個場景落地時間要短,迭代速度要快。例如推薦場景中,常常需要做到每天1次全量訓練,每15分鐘甚至每5分鐘做到1次增量訓練。
好:每個場景的落地效果都要達到預期,至少比沒有落地前強。
省:每個場景的落地成本比較節省,符合預期。
要真正做到“多、快、好、省”,我們需要MLOps。
在傳統的軟體開發領域,遇到上線慢、品質不穩定等類似問題,我們用DevOps來解決。 DevOps大幅提升了軟體開發和上線的效率,促進了現代軟體的快速迭代和發展。而在面臨AI系統的問題時,我們可以從DevOps領域的成熟經驗中學習去發展MLOps。所以如圖所示,「Machine learning development Modern software development」就變成了MLOps。
MLOps到底是什麼
對於MLOps是什麼,目前業界並沒有標準定義。
- 來自wikipedia的定義:MLOps is a set of practices that aims to deploy and
maintain machine learning models in production reliable and efficiently。 - 來自Google cloud的定義:MLOps 是一種機器學習工程文化和做法,旨在統一機器學習系統開發和運作。
- 來自Microsoft Azure的定義:MLOps 能幫助資料科學家和應用工程師讓機器學習的模型在生產領域中發揮更大的作用。
上述說法都比較繞口,我個人對此的理解相對簡單:MLOps是「Code Model Data」的持續整合、持續部署、持續訓練和持續監控。
上圖展示的是一個典型的機器學習的生命場景。定義專案階段之後就開始定義和收集加工數據,就要觀察對解決當前問題有幫助的數據究竟是哪些?要怎麼加工,怎麼做特徵工程,怎麼轉換儲存。
收集完資料之後就開始進行模型的訓練與迭代,需要不斷調整演算法,然後不斷訓練,最後得到一個符合預期的結果。如果對這個結果不滿意,就需要返回上層,此時需要獲取更多的數據,對數據進行更多的轉換,之後再進行訓練,循環往復,直到得出比較滿意的模型算法出來,然後再開始部署到線上。
在部署和監控環節,如果模型效果不一致,這時候要觀察訓練和部署出了什麼問題。在部署了一段時間後,可能會面臨模型衰退的問題,此時就需要重新訓練。甚至有時候在部署過程中發現資料有問題,此時就需要回到資料處理這一層。更有甚者,部署效果遠未達到專案預期,也可能需要返回初始原點。
可以看到,整個過程是一個循環迭代的過程。而對於工程實務來說,我們需要不斷地持續整合、持續部署、持續訓練、持續監控。其中持續訓練和持續監控是MLOps所特有的。持續訓練的作用在於,即使程式碼模型沒有任何改變,也需要針對其資料改變進行持續訓練。而持續監控的作用在於,不斷監控資料和模型之間的匹配是否發生問題。這裡的監控指的不僅是監控線上系統,更要監控系統跟機器學習相關的一些指標,如召回率、準確率等。綜合來說,我認為MLOps其實就是程式碼、模型、資料的持續集成,持續部署,持續訓練和持續監控。
當然,MLOps不僅只是流程和Pipeline,它還包括更大更多的內容。例如:
(1) 儲存平台: 特徵和模型的儲存和讀取
(2) 運算平台:串流、批次用於特徵處理
(3) 訊息佇列:用於接收即時資料
(4) 調度工具:各種資源(運算/儲存)的調度
(5) Feature Store:註冊、發現、共享各種特徵
(6) Model Store:模型的特徵
(7) Evaluation Store:模型的監控/ AB測試
Feature Store、Model store和Evaluation store都是機器學習領域中新興的應用和平台,因為有時候線上會同時跑多個模型,要實現快速迭代,需要很好的基礎設施來保留這些信息,從而讓迭代更高效,這些新應用、新平台就應運而生。
MLOps的特有專案-Feature Store
下面簡單介紹一下Feature Store,即特徵平台。作為機器學習領域特有的平台,Feature Store具有許多特性。
第一,需要同時滿足模型訓練和預測的要求。特徵資料儲存引擎在不同的場景有著完全不同的應用需求。模型訓練時需要擴展性佳、儲存空間大;即時預測則需要滿足高效能、低延遲的要求。
第二,必須解決特徵處理在訓練時候和預測階段不一致的問題。在模型訓練時,AI科學家一般會使用Python腳本,然後用Spark或SparkSQL來完成特徵的處理。這種訓練對延遲不敏感,在應付線上業務時效率較低,因此工程師會用性能較高的語言把特徵處理的過程翻譯一下。但翻譯過程異常繁瑣,工程師要重複跟科學家去校對邏輯是否符合預期。只要稍微不符合預期,就會帶來線上和線下不一致的問題。
第三,需要解決特徵處理中的重複使用問題,避免浪費,高效共享。在一家企業的AI應用中,經常會出現這種情況:同一個特徵被不同的業務部門使用,資料來源來自同一份日誌文件,中間所做的抽取邏輯也是類似的,但因為是在不同的部門或不同的場景下使用,就不能重複使用,相當於同一份邏輯被執行了N遍,而且日誌檔案都是海量的,這對儲存資源和運算資源都是巨大的浪費。
綜上所述,Feature Store主要用於解決高效能的特徵儲存和服務、模型訓練和模型預測的特徵資料一致性、特徵重複使用等問題,資料科學家可以使用Feature Store進行部署和共享。
目前市面上主流的特徵平台產品,大致可分為三大類。
- 各AI公司自研。只要業務有即時訓練的需求,這些公司基本上就會自研一個類似的特徵平台,用來解決上面的三個問題。但這個特徵平台是為業務所深度綁定的。
- 雲端廠商提供的SAAS產品或機器學習平台的一部分。例如AWS提供的SageMaker、Google提供的Vertex、微軟提供的Azure機器學習平台。它們在機器學習平台裡會內建一個特徵平台,方便使用者進行各種複雜特徵的管理。
- 一些開源的和商業的產品。舉幾個例子,Feast,開源的Feature Store產品;Tecton提供完整的開源商業特徵平台產品;OpenMLDB,開源的Feature Store產品。
MLOps的成熟度模型
成熟度模型是用來衡量一個系統、一套規則的能力目標,在DevOps領域經常用成熟度模型來評估一個公司的DevOps能力。而在MLOps領域也有對應的成熟度模型,不過目前還沒有形成規範。這裡簡單介紹一下Azure的關於MLOps的成熟度模型。
依照機器學習全流程的自動化程度的高低,把MLOps的成熟模型分成了(0,1,2,3,4)個等級,其中0是沒有自動化的。 (1,2,3)是部分自動化,4是高度自動化.
#成熟度為0,即沒有MLOps。這一階段意味著資料準備是手動的,模型訓練也是手動的,模訓部署也都是手動的。所有的工作全都是手動完成,適合於一些把AI進行創新試點的業務部門來做。
成熟度為1,即有DevOps沒有MLOps。其資料準備工作是自動完成的,但模型訓練是手動完成的。科學家拿到數據之後再完成各種調整和訓練。模型的部署也是手動完成的。
成熟度為2,即自動化訓練。其模型訓練是自動化完成的,簡言之,當資料更新完了之後,立刻啟動類似的pipeline,進行自動化的訓練,不過對訓練結果的評估和上線還是由人工來完成。
成熟度為3,即自動化部署。模型自動化訓練完成之後,對模型的評估和上線是自動完成的,不需要人工干涉。
成熟度為4,即自動化重訓與部署。它在不斷監控線上的模型,當發現Model DK發生線上模型能力退化的時候,會自動會觸發重複訓練。整個過程就全部自動化完成了,這可以稱之為成熟度最高的系統。
更多精彩內容請見大會官網:點擊看
#以上是譚中意:從Model-Centric到Data-Centric MLOps幫助AI多快好省的落地的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

本站6月27日訊息,剪映是由位元組跳動旗下臉萌科技開發的一款影片剪輯軟體,依託於抖音平台且基本面向該平台用戶製作短影片內容,並相容於iOS、安卓、Windows 、MacOS等作業系統。剪映官方宣布會員體系升級,推出全新SVIP,包含多種AI黑科技,例如智慧翻譯、智慧劃重點、智慧包裝、數位人合成等。價格方面,剪映SVIP月費79元,年費599元(本站註:折合每月49.9元),連續包月則為59元每月,連續包年為499元每年(折合每月41.6元) 。此外,剪映官方也表示,為提升用戶體驗,向已訂閱了原版VIP

透過將檢索增強生成和語意記憶納入AI編碼助手,提升開發人員的生產力、效率和準確性。譯自EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG,作者JanakiramMSV。雖然基本AI程式設計助理自然有幫助,但由於依賴對軟體語言和編寫軟體最常見模式的整體理解,因此常常無法提供最相關和正確的程式碼建議。這些編碼助手產生的代碼適合解決他們負責解決的問題,但通常不符合各個團隊的編碼標準、慣例和風格。這通常會導致需要修改或完善其建議,以便將程式碼接受到應

想了解更多AIGC的內容,請造訪:51CTOAI.x社群https://www.51cto.com/aigc/譯者|晶顏審校|重樓不同於網路上隨處可見的傳統問題庫,這些問題需要跳脫常規思維。大語言模型(LLM)在數據科學、生成式人工智慧(GenAI)和人工智慧領域越來越重要。這些複雜的演算法提升了人類的技能,並在許多產業中推動了效率和創新性的提升,成為企業保持競爭力的關鍵。 LLM的應用範圍非常廣泛,它可以用於自然語言處理、文字生成、語音辨識和推薦系統等領域。透過學習大量的數據,LLM能夠產生文本

大型語言模型(LLM)是在龐大的文字資料庫上訓練的,在那裡它們獲得了大量的實際知識。這些知識嵌入到它們的參數中,然後可以在需要時使用。這些模型的知識在訓練結束時被「具體化」。在預訓練結束時,模型實際上停止學習。對模型進行對齊或進行指令調優,讓模型學習如何充分利用這些知識,以及如何更自然地回應使用者的問題。但是有時模型知識是不夠的,儘管模型可以透過RAG存取外部內容,但透過微調使用模型適應新的領域被認為是有益的。這種微調是使用人工標註者或其他llm創建的輸入進行的,模型會遇到額外的實際知識並將其整合

機器學習是人工智慧的重要分支,它賦予電腦從數據中學習的能力,並能夠在無需明確編程的情況下改進自身能力。機器學習在各個領域都有廣泛的應用,從影像辨識和自然語言處理到推薦系統和詐欺偵測,它正在改變我們的生活方式。機器學習領域存在著多種不同的方法和理論,其中最具影響力的五種方法被稱為「機器學習五大派」。這五大派分別為符號派、聯結派、進化派、貝葉斯派和類推學派。 1.符號學派符號學(Symbolism),又稱符號主義,強調利用符號進行邏輯推理和表達知識。該學派認為學習是一種逆向演繹的過程,透過現有的

編輯|ScienceAI問答(QA)資料集在推動自然語言處理(NLP)研究中發揮著至關重要的作用。高品質QA資料集不僅可以用於微調模型,也可以有效評估大語言模型(LLM)的能力,尤其是針對科學知識的理解和推理能力。儘管目前已有許多科學QA數據集,涵蓋了醫學、化學、生物等領域,但這些數據集仍有一些不足之處。其一,資料形式較為單一,大多數為多項選擇題(multiple-choicequestions),它們易於進行評估,但限制了模型的答案選擇範圍,無法充分測試模型的科學問題解答能力。相比之下,開放式問答

編輯|KX在藥物研發領域,準確有效地預測蛋白質與配體的結合親和力對於藥物篩選和優化至關重要。然而,目前的研究並沒有考慮到分子表面訊息在蛋白質-配體相互作用中的重要作用。基於此,來自廈門大學的研究人員提出了一種新穎的多模態特徵提取(MFE)框架,該框架首次結合了蛋白質表面、3D結構和序列的信息,並使用交叉注意機制進行不同模態之間的特徵對齊。實驗結果表明,該方法在預測蛋白質-配體結合親和力方面取得了最先進的性能。此外,消融研究證明了該框架內蛋白質表面資訊和多模態特徵對齊的有效性和必要性。相關研究以「S

本站8月1日消息,SK海力士今天(8月1日)發布博文,宣布將出席8月6日至8日,在美國加州聖克拉拉舉行的全球半導體記憶體峰會FMS2024,展示諸多新一代產品。未來記憶體和儲存高峰會(FutureMemoryandStorage)簡介前身是主要面向NAND供應商的快閃記憶體高峰會(FlashMemorySummit),在人工智慧技術日益受到關注的背景下,今年重新命名為未來記憶體和儲存高峰會(FutureMemoryandStorage),以邀請DRAM和儲存供應商等更多參與者。新產品SK海力士去年在
