ChatGPT作為近幾個月持續的熱門話題,熱度不減的背後,是人工智慧內容自動生成技術算力需求的水漲船高。一方面,ChatGPT帶動了算力需求成長,另一方面,ChatGPT又對算力支撐提出了更高的要求。
有數據顯示,ChatGPT一次模型訓練需要的總算力消耗是3640PF-days,耗資約1200萬美元,且在運作過程中也需要相當大的開銷。根據國盛證券報告,以ChatGPT在1月的獨立訪客平均數1300萬計算,其對應晶片需求為3萬多片英偉達A100 GPU,大概需要的算力成本為8億美元,每天的電費成本在5萬美元左右。 ChatGPT獲得微軟130億美元的投資,是其高算力投入背後的信心支撐。正是有了科技巨頭微軟從資金、未來市場,到算力基礎設施(Azure雲端)的全方位支持,OpenAI才能夠以獨立創業企業的身份,完成如此龐大的工程。算力要求和參數量級緊密相關,參數量級也是目前衡量大模型訓練品質的重要參考。參數量越大,模型越智能,隨之而來的開銷就越大。這一點形成了GPT類型高門檻的特徵。 GPT-3之前的版本是開源的,其他創業家比較容易以此為基礎進行新的研發工作。從GPT-4開始,OpenAI開放API以位元組流量收費。不論是應用開發,還是在此基礎上進行二次模型開發,都存在較高門檻。
比較有趣的事情是Meta公司的LLaMA原始碼洩漏。由此出現了所謂的「羊駝家族」(「Llama」可譯為「羊駝」)大模型,希望獲得開源資源的開發者可以在GPT-3之外獲得一個新的選擇。
「大模型」對算力的高度依賴至少造成兩個重大影響。
一是這已經不是「草根」創業的遊戲,也不是以往網路創業「Copy To China」的遊戲,而是「真刀真槍」的核心能力大比拼,從資金、技術到企業策略定力的全方位考核。在傳統工業時代,中國從加工業開始,逐漸向高價值的核心技術研發攀升,但實際上距離歐美最先進水準還有一段距離。特別是在材料科學等需要長時間技術累積的類目上,差距依然很大。
進入數位時代,中國產業界的共識變成直接從核心技術研發開始。
美國與中國的科技依存度減弱已成趨勢。雖然現在只是晶片產業受到掣肘, 但是如果「大模型」發展成為生產要素,我們一定會遇到同樣的問題。因此,中國必須擁有自己的「大模型」核心技術。中國科技企業看到這樣的必然性,對「大模型」進行大投入也成為趨勢。
中小科技企業在沒有能力開發原生「大模型」的情況下,可以利用GPT-3或LLaMA的開源模型進行開發或二次開發,形成自己的「大模型」。應用開發企業很少會開發原生“大模型”,除非對其應用的銷售市場有極高的信心,否則將屈服於巨大的算力成本壓力,轉而支付API使用費,利用現成模型開發相關應用。
西部地區「綠電」資源豐富,在「東數西算」整體規劃下,西部樞紐主要承擔備份儲存的工作;東部地區在智慧城市、產業互聯網和互聯網服務中的即時計算工作,則放在東部地區的樞紐解決。 「大模型」對算力要求龐大,東部IDC大規模佔用算力資源,有三大缺點:成本高(東部電費高)、排放高(東部綠電比例小)、擠佔低時延需求應用的算力資源,這為西部的算力中心創造了新的商機。
一方面,將「大模型」的訓練計算放在西部地區的IDC,對當地的通訊網路效能提升有更高要求。海量資料的吞吐是一個需要解決的問題,但解決這個問題的成本遠小於IDC使用費差異。
另一方面,科技公司巨頭都提出了自己的ESG(環境社會責任)目標,而碳排放是其中最重要的指標。 「大模型」、大算力,運作就會產生大量的碳排放,對「綠色算力」的需求就越迫切。
以上是ChatGPT對算力存在雙重影響的詳細內容。更多資訊請關注PHP中文網其他相關文章!