目錄
由於大型語言模型本身的性質,模型的工作負載可能是高度動態的,工作負載的需求和任務使用情況也可能會隨著時間的推移而發生變化,單一模型可以同時用作聊天機器人來提問和回答,也可以用於總結大型文件和簡短文件。因此,輸出大小可能會出現完全不同的數量級。
首頁 科技週邊 人工智慧 Nvidia發表TensorRT-LLM開源軟體 提升高階GPU晶片上的AI模型效能

Nvidia發表TensorRT-LLM開源軟體 提升高階GPU晶片上的AI模型效能

Sep 14, 2023 pm 12:29 PM
ai模型 開源軟體套

Nvidia发布TensorRT-LLM开源软件 提升高端GPU芯片上的AI模型性能

Nvidia近日宣布推出一款名為TensorRT-LLM的新開源軟體套件,擴展了Nvidia GPU上大型語言模型優化的功能,並突破了部署之後人工智能推理性能的極限。

生成式AI大語言模型因其令人印象深刻的功能而變得流行。它擴大了人工智慧的可能性,並廣泛應用於各個行業。用戶可以透過與聊天機器人對話來獲取信息,總結大型文檔,編寫軟體程式碼,以及發現理解資訊的新方法

Nvidia公司超大規模和高效能運算副總裁Ian Buck表示:「大型語言模型推理變得越來越難。個GPU上運行的時候,就成了一大難題。提供建議或回答問題,是大型語言模型的主力。

隨著模型生態系的快速擴展,模型變得越來越龐大,功能也越來越豐富。這也意味著模型變得如此龐大,無法在單一GPU上同時運行,必須進行分割。開發人員和工程師必須手動分配和協調工作負載,以即時獲得回應。 TensorRT-LLM透過實現「張量並行性」來解決這個問題,允許在多個GPU上進行大規模高效的推理

除此之外,由於當今市場中有各種各樣的大型語言模型,所以Nvidia針對目前主流的大型語言模型對核心進行了最佳化。該軟體套件包括了完全優化的、可立即運行的大型語言模型版本,包括Meta Platform的Llama 2、OpenAI的GPT-2和GPT-3、Falcon、MosaicMPT和BLOOM。

應對動態工作負載的「運行中批次」機制

由於大型語言模型本身的性質,模型的工作負載可能是高度動態的,工作負載的需求和任務使用情況也可能會隨著時間的推移而發生變化,單一模型可以同時用作聊天機器人來提問和回答,也可以用於總結大型文件和簡短文件。因此,輸出大小可能會出現完全不同的數量級。

為了回應這些不同的工作負載,TensorRT-LLM引入了一種稱為「運行中批次」的機制,這是一個最佳化調度的過程,把文字產生過程分解為多個片段,以便可以將移入或移出GPU,這樣在開始新一批之前就不需要完成整批工作負載了。

以前,如果有大型請求的話,例如對非常大的文檔進行摘要提取,那麼後面所有的內容都必須等待該過程完成才能使隊列繼續前進。

Nvidia一直在與眾多廠商合作優化TensorRT-LLM,包括Meta、Cohere、Grammarly、Databricks和Tabnine。在他們的幫助下,Nvidia不斷簡化軟體套件中的功能和工具集,包括開源Python應用使用者介面,用於定義和最佳化新架構以自訂大型語言模型。

舉個例子,當MosaicML將TensorRT-LLM與其現有軟體堆疊整合時,在TensorRT-LLM的基礎上增加了額外的功能。 Databricks公司工程副總裁Naveen Rao表示,這個過程非常簡單

「TensorRT-LLM易於使用,功能豐富,包括令牌流、動態批次、分頁注意力、量化等,而且效率很高,為使用NVIDIA GPU的大型語言模型服務提供了最佳效能,並使我們能夠將節省的成本回饋給我們的客戶。批次功能)可以將使用Nvidia H100進行文章摘要提取的推理性能提高超過1倍。使用GPT-J-6B模型對CNN/每日郵報文章摘要進行A100測試時,僅使用H100的速度比A100快4倍,而啟用TensorRT-LLM優化後,速度提升了8倍

TensorRT-LLM為開發人員和工程師提供了深度學習編譯器、優化的大型語言模型核心、預處理和後處理、多GPU/多節點通訊功能、以及簡單的開源API,使他們能夠快速優化和執行大型語言模型生產的推理。隨著大型語言模型繼續重塑資料中心,企業需要更高的效能就意味著開發人員比以往任何時候都更需要能夠為他們提供具備功能和存取權限的工具,以提供更高效能的結果。

TensorRT-LLM軟體套件現已可供Nvidia開發人員計畫中的開發人員搶先體驗,並將於下個月整合到用於生產型AI端到端軟體平台Nvidia AI Enterprise的NeMo框架中。 TensorRT-LLM軟體套件已經發布,供Nvidia開發人員計劃中的開發人員提前體驗,並將在下個月整合到Nvidia AI Enterprise的NeMo框架中,用於生產型AI端到端軟體平台

以上是Nvidia發表TensorRT-LLM開源軟體 提升高階GPU晶片上的AI模型效能的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

AI Hentai Generator

AI Hentai Generator

免費產生 AI 無盡。

熱門文章

R.E.P.O.能量晶體解釋及其做什麼(黃色晶體)
1 個月前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳圖形設置
1 個月前 By 尊渡假赌尊渡假赌尊渡假赌
威爾R.E.P.O.有交叉遊戲嗎?
1 個月前 By 尊渡假赌尊渡假赌尊渡假赌

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

AI大模型浪潮下算力需求爆增,商湯「大模型+大算力」賦能多元產業發展 AI大模型浪潮下算力需求爆增,商湯「大模型+大算力」賦能多元產業發展 Jun 09, 2023 pm 07:35 PM

近日,以「AI引領時代,算力驅動未來」為主題的「臨港新片區智算大會」舉行。會上,新片區智算產業聯盟正式成立,商湯科技作為算力提供企業成為聯盟一員,同時商湯科技被授予「新片區智算產業鏈鍊主」企業。作為臨港算力生態的積極參與者,商湯目前已建造了亞洲目前最大的智慧運算平台之一——商湯AIDC,可以輸出5000Petaflops的總算力,可支援20個千億參數量的超大模型同時訓練。以AIDC為底座、前瞻打造的商湯大裝置SenseCore,致力於打造高效率、低成本、規模化的下一代AI基礎設施與服務,賦能人工

研究者:AI模型推理環節耗電較多,2027年產業用電將堪比荷蘭 研究者:AI模型推理環節耗電較多,2027年產業用電將堪比荷蘭 Oct 14, 2023 am 08:25 AM

IT之家10月13日消息,《Cell》的姊妹期刊《Joule》本週出版了一篇名為《持續成長的人工智能能源足跡(Thegrowingenergyfootprintofartificialintelligence)》論文。透過查詢,我們了解到這篇論文是由科學研究機構Digiconomist的創辦人AlexDeVries發表的。他聲稱未來人工智慧的推理性能可能會消耗大量的電力,預計到2027年,人工智慧的用電量可能會相當於荷蘭一年的電力消耗量AlexDeVries表示,外界一向認為訓練一個AI模型「AI最

中國聯通發布圖文AI大模型,可實現以文生圖、影片剪輯 中國聯通發布圖文AI大模型,可實現以文生圖、影片剪輯 Jun 29, 2023 am 09:26 AM

驅動中國2023年6月28日消息,今日在上海世界行動通訊大會期間,中國聯通發布圖文大模型「鴻湖圖文大模型1.0」。中國聯通稱,鴻湖圖文大模型是首個針對營運商增值業務的大模型。第一財經記者了解到,鴻湖圖文大模型目前擁有8億訓練參數和20億訓練參數兩個版本,可以實現以文生圖、影片剪輯、以圖生圖等功能。此外,中國聯通董事長劉烈宏在今天的主題演講中也表示,生成式AI正在迎來發展的奇點,未來2年內50%的工作將受到人工智慧深刻影響。

一言不合就跑分,國內AI大模型為何沉迷於'刷榜” 一言不合就跑分,國內AI大模型為何沉迷於'刷榜” Dec 02, 2023 am 08:53 AM

「不服跑個分」這句話,我相信關注手機圈的朋友一定不會感到陌生。例如,安兔兔、GeekBench等理論性能測試軟體因為能夠在一定程度上反映手機的性能,因此備受玩家的關注。同樣地,在PC處理器、顯示卡上也有相應的跑分軟體來衡量它們的性能既然"萬物皆可跑分",目前最火爆的AI大模型也開始參與跑分比拼,尤其是在"百模大戰"開始後,幾乎每天都有突破,各家都自稱為"跑分第一"國產AI大模型在性能評分方面幾乎從未落後,但在用戶體驗方面卻始終無法超越GP

四倍提速,位元組跳動開源高性能訓練推理引擎LightSeq技術揭秘 四倍提速,位元組跳動開源高性能訓練推理引擎LightSeq技術揭秘 May 02, 2023 pm 05:52 PM

Transformer模型出自Google團隊2017年發表的論文《Attentionisallyouneed》,該論文中首次提出了使用Attention取代Seq2Seq模型循環結構的概念,為NLP領域帶來了極大衝擊。而隨著近年來研究的不斷推進,Transformer相關技術逐漸由自然語言處理流向其他領域。截止目前,Transformer系列模型已經成為了NLP、CV、ASR等領域的主流模型。因此,如何更快地訓練和推理Transformer模型已成為業界的重要研究方向。低精度量化技術能夠

中科院物理所聯合院網路中心發布AI模型MatChat 中科院物理所聯合院網路中心發布AI模型MatChat Nov 03, 2023 pm 08:13 PM

IT之家11月3日消息,中科院物理所官網發文,近期,中國科學院物理研究所/北京凝聚態物理國家研究中心SF10組和中國科學院電腦網路資訊中心共同合作,將AI大模型應用於材料科學領域,將數萬個化學合成路徑數據投餵給大語言模型LLAMA2-7b,從而獲得了MatChat模型,可用來預測無機材料的合成路徑。 IT之家注意到,該模型可根據所詢問的結構進行邏輯推理,並輸出相應的製備工藝和配方。目前已部署上線,並向所有材料科研人員開放使用,為材料研究和創新帶來了新啟發和新思路。該工作為大語言模型在細分科學領域

Meta研究人員做出AI新嘗試:教導機器人無需地圖或訓練實現實體導航 Meta研究人員做出AI新嘗試:教導機器人無需地圖或訓練實現實體導航 Apr 09, 2023 pm 08:31 PM

Meta Platforms公司人工智能部门日前表示,他们正在教AI模型如何在少量训练数据支持下学会在物理世界中行走,目前已经取得了快速进展。这项研究能够显著缩短AI模型获得视觉导航能力的时间。以前,实现这类目标要需要利用大量数据集配合重复“强化学习”才能实现。Meta AI研究人员表示,这项关于AI视觉导航的探索将给虚拟世界带来重大影响。而项目的基本思路并不复杂:帮助AI像人类那样,单纯通过观察和探索实现在物理空间导航。Meta AI部门解释道,“比如,如果要让AR眼镜指引我们找到钥匙,就必须

Nvidia發表TensorRT-LLM開源軟體 提升高階GPU晶片上的AI模型效能 Nvidia發表TensorRT-LLM開源軟體 提升高階GPU晶片上的AI模型效能 Sep 14, 2023 pm 12:29 PM

Nvidia近日宣布推出一款名為TensorRT-LLM的新開源軟體套件,擴展了NvidiaGPU上大型語言模型優化的功能,並突破了部署之後人工智慧推理性能的極限。生成式AI大語言模式因其令人印象深刻的功能而變得流行。它擴大了人工智慧的可能性,並廣泛應用於各個行業。用戶可以透過與聊天機器人對話來獲取訊息,總結大型文檔,編寫軟體程式碼,以及發現理解資訊的新方法Nvidia公司超大規模和高效能運算副總裁IanBuck表示:「大型語言模型推理變得越來越難。

See all articles