英偉達推出全新AI晶片H200,效能大幅提升90%!中國算力實現自主突破!
當全球還在為英偉達H100晶片痴迷並瘋狂購買以滿足持續增長的AI算力需求之時,當地時間週一,英偉達悄然推出了最新的AI芯片H200,用於AI大模型的訓練,比起其前一代產品H100,H200的效能提升了約60%到90%。
H200是英偉達H100的升級版,與H100同樣基於Hopper架構,主要升級包括141GB的HBM3e顯存,顯存頻寬從H100的3.35TB/s增加到了4.8TB/s。根據英偉達官網消息, H200也是公司第一款使用HBM3e記憶體的晶片,這種記憶體速度更快,容量更大,因此更適合大語言模型。英偉達表示:「借助HBM3e,英偉達H200以每秒4.8TB的速度提供141GB的內存,與A100相比,容量幾乎是其兩倍,頻寬增加了2.4倍。」
根據官方發布的圖片,H200在大模型Llama 2、GPT-3.5的輸出速度上分別是H100的1.9倍和1.6倍,在高效能運算HPC方面的速度更是達到了雙核心x86 CPU的110倍。
H200預計明年第二季開始交付,英偉達尚未公佈其價格。
不過,與H100等AI晶片一樣,英偉達不會向中國廠商供應H200晶片。 今年10月17日,美國商務部發布了針對晶片的出口管制新規,尤其是對高算力的AI晶片進行了更嚴格的管控。其中一個很重要的新規定是調整了先進運算晶片受限的標準,設定了新的「效能密度閾值」來作為參數。根據新規,英偉達中國「特供版」H800和A800已經被限制對華出口。
缺少最先進的AI晶片短期內對國內AI產業發展將帶來一些挑戰,但也同時蘊含著機會:
首先是國產算力晶片的替代機會,例如近期百度訂購1600片華為昇騰910B晶片;其次是供需錯配的情況下,算力租賃價格上漲,將利好算力租賃企業。 14日,匯納科技宣布內嵌英偉達A100晶片的高效算力伺服器算力服務收費同步上調100%;最後,以Chiplet為代表的先進封裝技術在一定程度上,可以解決先進製程產能不足的問題,可望迎來加速發展。
那麼除華為昇騰外,國產算力還有誰能扛起大旗?產業鏈相關公司有哪些?還有哪些方向可望間接受益? 我們國產AI算力自主可控的四大受益方向和代表公司,製作了專題《AI算力自主可控勢在必行》,有需要的小伙伴,歡迎掃描下方二維碼或添加小助手微信:hzkyxjyy,免費取得或圍觀朋友圈閱讀。新增成功後,過往所有報告以及未來每期專題報告均可免費閱讀。
以上是英偉達推出全新AI晶片H200,效能大幅提升90%!中國算力實現自主突破!的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

11月14日消息,英偉達(Nvidia)在當地時間13日上午的「Supercomputing23」會議上正式發布了全新的H200GPU,並更新了GH200產品線其中,H200依然是建立在現有的HopperH100架構之上,但增加了更多高頻寬記憶體(HBM3e),從而更好地處理開發和實施人工智慧所需的大型資料集,使得運行大模型的綜合性能相比前代H100提升了60%到90%。而更新後的GH200,也將為下一代AI超級電腦提供動力。 2024年將會有超過200exaflops的AI運算能力上線。 H200

6月19日消息,根據中國台灣媒體報道,Google(Google)為了研發最新的面向伺服器的AI晶片,已經找來聯發科合合作,併計劃交由台積電5nm製程代工,計劃明年初量產。報導稱,消息人士透露,這次谷歌與聯發科的合作,將由聯發科提供串行器及解串器(SerDes)方案,並協助整合谷歌自研的張量處理器(TPU),助力谷歌打造最新的伺服器AI晶片,效能將比CPU或GPU架構更強大。業界指出,Google目前的多項服務都與AI有關,早在多年前就投入到了深度學習技術當中,發現運用GPU來進行AI運算成本十分昂貴,因此谷歌決

在號稱世界最強AI晶片英偉達H200亮相後,業界開始期待英偉達更強大的B100晶片,與此同時,今年以來最紅的新創AI公司OpenAI已經開始研發更強大、更複雜的GPT-5模型。國泰君安在最新的研究中指出,性能無邊的B100與GPT5預計在2024年發布,重磅升級或釋放前所未有的生產力。該機構表示,看好AI進入快速發展的成長期,能見度持續至2024年。相較於前幾代產品,B100和GPT-5究竟有多強大?英偉達和OpenAI已經給出了預告:B100速度可能是H100的4倍以上,而GPT-5可能會實現超

KL730在能源效率方面的進步使得解決了人工智慧模型落地方面最大的瓶頸——能源成本,相較於行業及以往耐能的晶片,提高了3到4倍KL730晶片支援最先進的輕量級GPT大語言模型,如nanoGPT,並提供每秒0.35-4tera的有效運算能力AI公司耐能今日宣布發表KL730晶片,該晶片整合了車規級NPU和影像訊號處理(ISP),將安全且低能耗的AI能力賦能到邊緣伺服器、智慧家庭及汽車輔助駕駛系統等各類應用場景。總部位於聖迭戈的耐能以其開創性的神經處理單元(NPU)而聞名耐能最新晶片KL730旨在實

谷歌CEO將AI革命比作人類對火的使用,但現在為該行業提供燃料的數位火種——AI晶片,很難獲得。驅動AI運作的新一代先進晶片幾乎都是由英偉達製造的,隨著ChatGPT爆火出圈,市場對英偉達圖形處理晶片(GPU)的需求遠遠超過了供應。幫助企業建立聊天機器人等AI模型的新創公司Lamini的聯合創始人兼首席執行官SharonZhou表示:「因為存在短缺,所以關鍵在於你的朋友圈。」「就像疫情期間的衛生紙一樣。」這種情況限制了亞馬遜和微軟等雲端服務供應商向ChatGPT的創建者OpenAI等客戶提供的運算能

當全球仍在為英偉達H100晶片痴迷並瘋狂購買以滿足持續增長的AI算力需求之時,當地時間週一,英偉達悄然推出了最新的AI芯片H200,用於AI大模型的訓練,相比於其前一代產品H100,H200的性能提升了約60%到90%。 H200是英偉達H100的升級版,與H100同樣基於Hopper架構,主要升級包含141GB的HBM3e顯存,顯存頻寬從H100的3.35TB/s增加到了4.8TB/s。根據英偉達官網消息,H200也是公司第一款使用HBM3e內存的晶片,這種內存速度更快,容量更大,因此更適合大語言

微軟正在開發AI優化晶片,以降低訓練生成式AI模型(例如為OpenAIChatGPT聊天機器人提供動力的模型)的成本。 TheInformation近日引述兩位知情人士的話說,至少從2019年開始,微軟就一直在研發代號為「Athena」的新晶片組。微軟和OpenAI的員工已經可以使用新晶片,並正在使用這些晶片在GPT-4等大型語言模型上測試晶片的效能。訓練大型語言模型需要攝取和分析大量數據,以便為AI創建新的輸出內容來模仿人類對話,這是生成式AI模型的一大標誌,這個過程需要大量(大約數萬個)針對A

根據原話,可以將其重寫為:(全球TMT2023年8月16日訊)AI公司耐能,總部位於聖迭戈,以其開創性的神經處理單元(NPU)而聞名,宣布發布KL730晶片。該晶片整合了車規級NPU和影像訊號處理(ISP),並將安全且低能耗的AI能力賦予邊緣伺服器、智慧家庭及汽車輔助駕駛系統等各類應用場景KL730晶片在能源效率方面取得了巨大的突破,相較於以往的耐能晶片,其能源效率提升了3至4倍,比主要產業同類產品提高了150%~200%。該晶片具備每秒0.35-4tera的有效運算能力,可以支援最先進的輕量級GPT大
