目錄
1. 規模仍然是一個重要因素" >1. 規模仍然是一個重要因素
2. 無監督學習繼續交付" >2. 無監督學習繼續交付
3. 多模態取得長足進步" >3. 多模態取得長足進步
4. 深度學習的基本問題仍然存在" >4. 深度學習的基本問題仍然存在
首頁 科技週邊 人工智慧 2022年深度學習的發展趨勢與問題

2022年深度學習的發展趨勢與問題

Apr 12, 2023 pm 09:55 PM
人工智慧 深度學習 發展趨勢

我們將人工智慧(AI)深度學習的另一年令人興奮的發展拋在身後——這一年充滿了顯著的進步、爭議,當然還有爭議。在我們結束 2022 年並準備迎接 2023 年的到來之際,以下是今年深度學習領域最顯著的整體趨勢。

2022年深度學習的發展趨勢與問題

1. 規模仍然是一個重要因素

過去幾年深度學習中保持不變的主題是創建更大的神經網路的驅動力。電腦資源的可用性使擴展神經網路以及專門的 AI 硬體、大型資料集以及變壓器模型等規模友善架構的開發成為可能。

目前,公司正在透過將神經網路擴展到更大的規模來獲得更好的結果。過去一年,DeepMind 發布了Gopher,一個2800 億參數的大型語言模型(LLM);Google發布了擁有5400 億個參數的Pathways 語言模型( PaLM )和多達1.2 兆個參數的通用語言模型( GLaM );微軟和英偉達發布了Megatron-Turing NLG,一個5300 億參數的LLM。

規模的有趣方面之一是湧現能力,其中較大的模型成功地完成了較小的模型不可能的任務。這種現像在 LLM 中特別有趣,隨著規模的擴大,模型在更廣泛的任務和基準測試中顯示出有希望的結果。

然而,值得注意的是,即使在最大的模型中,深度學習的一些基本問題仍未解決(稍後會詳細介紹)。

2. 無監督學習繼續交付

許多成功的深度學習應用程式需要人類標記訓練範例,也稱為監督學習。但網路上可用的大多數數據都沒有帶有監督學習所需的乾淨標籤。資料註釋既昂貴又緩慢,造成瓶頸。這就是為什麼研究人員長期以來一直在尋求無監督學習的進步,在這種學習中,深度學習模型的訓練不需要人工註釋的資料。

近年來,這一領域取得了巨大的進步,尤其是在 LLM 領域,它們大多接受從互聯網上收集的大量原始資料集的訓練。雖然法學碩士在 2022 年繼續取得進展,但我們也看到無監督學習技術的其他趨勢越來越受歡迎。

例如,今年文字到圖像的模型取得了驚人的進步。 OpenAI 的DALL-E 2、Google的Imagen和 Stability AI 的Stable Diffusion等模型展示了無監督學習的力量。與需要註釋良好的圖像和描述對的舊文本到圖像模型不同,這些模型使用互聯網上已經存在的鬆散標題圖像的大型資料集。他們的訓練資料集的龐大規模(這僅是可能的,因為不需要手動標記)和字幕方案的可變性使這些模型能夠找到文字和視覺資訊之間的各種複雜模式。因此,它們在為各種描述生成圖像方面更加靈活。

3. 多模態取得長足進步

文字到影像產生器還有另一個有趣的功能:它們在單一模型中組合了多種資料類型。能夠處理多種模式使深度學習模型能夠承擔更複雜的任務。 

多模態對人類和動物的智慧非常重要。例如,當你看到一棵樹並聽到風在它的樹枝上沙沙作響時,你的大腦可以很快地將它們連結在一起。同樣,當你看到“樹”這個詞時,你可以很快地聯想到一棵樹的形象,記住下雨後松樹的味道,或者回憶起你以前有過的其他經歷。 

顯然,多模態在使深度學習系統更靈活方面發揮了重要作用。 DeepMind 的Gato可能最好地展示了這一點,這是一種針對各種資料類型(包括圖像、文字和本體感覺資料)進行訓練的深度學習模型。 Gato 在多項任務中表現出色,包括圖像字幕、互動式對話、控制機械手臂和玩遊戲。這與旨在執行單一任務的經典深度學習模型形成對比。

一些研究人員已經提出了這樣的概念,即我們只需要像 Gato 這樣的系統來實現人工智慧(AGI)。儘管許多科學家不同意這一觀點,但可以肯定的是,多模態為深度學習帶來了重要成就。

4. 深度學習的基本問題仍然存在

儘管深度學習取得了令人矚目的成就,但該領域的一些問題仍未解決。其中包括因果關係、組合性、常識、推理、計劃、直覺物理學以及抽象和類比。 

這些是不同領域的科學家仍在研究的一些智力奧秘。純粹的基於規模和數據的深度學習方法有助於在其中一些問題上取得漸進式進展,但未能提供明確的解決方案。 

例如,較大的 LLM 可以在較長的文字中保持連貫性和一致性。但他們在需要細緻的逐步推理和計劃的任務上失敗了。

同樣,文字到圖像生成器創建令人驚嘆的圖形,但在被要求繪製需要組合性或具有複雜描述的圖像時會犯基本錯誤。

不同的科學家正在討論和探索這些挑戰,包括一些深度學習的先驅。其中最著名的是獲得圖靈獎的捲積神經網路 (CNN) 發明家 Yann LeCun,他最近寫了一篇關於僅從文本中學習的 LLM的局限性的長文。 LeCun 正在研究一種深度學習架構,該架構可以學習世界模型,並可以解決該領域目前面臨的一些挑戰。

深度學習已經走過了漫長的道路。但我們取得的進步越多,就越意識到創建真正智慧系統的挑戰。明年肯定會和今年一樣令人興奮。

以上是2022年深度學習的發展趨勢與問題的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

位元組跳動剪映推出 SVIP 超級會員:連續包年 499 元,提供多種 AI 功能 位元組跳動剪映推出 SVIP 超級會員:連續包年 499 元,提供多種 AI 功能 Jun 28, 2024 am 03:51 AM

本站6月27日訊息,剪映是由位元組跳動旗下臉萌科技開發的一款影片剪輯軟體,依託於抖音平台且基本面向該平台用戶製作短影片內容,並相容於iOS、安卓、Windows 、MacOS等作業系統。剪映官方宣布會員體系升級,推出全新SVIP,包含多種AI黑科技,例如智慧翻譯、智慧劃重點、智慧包裝、數位人合成等。價格方面,剪映SVIP月費79元,年費599元(本站註:折合每月49.9元),連續包月則為59元每月,連續包年為499元每年(折合每月41.6元) 。此外,剪映官方也表示,為提升用戶體驗,向已訂閱了原版VIP

使用Rag和Sem-Rag提供上下文增強AI編碼助手 使用Rag和Sem-Rag提供上下文增強AI編碼助手 Jun 10, 2024 am 11:08 AM

透過將檢索增強生成和語意記憶納入AI編碼助手,提升開發人員的生產力、效率和準確性。譯自EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG,作者JanakiramMSV。雖然基本AI程式設計助理自然有幫助,但由於依賴對軟體語言和編寫軟體最常見模式的整體理解,因此常常無法提供最相關和正確的程式碼建議。這些編碼助手產生的代碼適合解決他們負責解決的問題,但通常不符合各個團隊的編碼標準、慣例和風格。這通常會導致需要修改或完善其建議,以便將程式碼接受到應

七個很酷的GenAI & LLM技術性面試問題 七個很酷的GenAI & LLM技術性面試問題 Jun 07, 2024 am 10:06 AM

想了解更多AIGC的內容,請造訪:51CTOAI.x社群https://www.51cto.com/aigc/譯者|晶顏審校|重樓不同於網路上隨處可見的傳統問題庫,這些問題需要跳脫常規思維。大語言模型(LLM)在數據科學、生成式人工智慧(GenAI)和人工智慧領域越來越重要。這些複雜的演算法提升了人類的技能,並在許多產業中推動了效率和創新性的提升,成為企業保持競爭力的關鍵。 LLM的應用範圍非常廣泛,它可以用於自然語言處理、文字生成、語音辨識和推薦系統等領域。透過學習大量的數據,LLM能夠產生文本

微調真的能讓LLM學到新東西嗎:引入新知識可能讓模型產生更多的幻覺 微調真的能讓LLM學到新東西嗎:引入新知識可能讓模型產生更多的幻覺 Jun 11, 2024 pm 03:57 PM

大型語言模型(LLM)是在龐大的文字資料庫上訓練的,在那裡它們獲得了大量的實際知識。這些知識嵌入到它們的參數中,然後可以在需要時使用。這些模型的知識在訓練結束時被「具體化」。在預訓練結束時,模型實際上停止學習。對模型進行對齊或進行指令調優,讓模型學習如何充分利用這些知識,以及如何更自然地回應使用者的問題。但是有時模型知識是不夠的,儘管模型可以透過RAG存取外部內容,但透過微調使用模型適應新的領域被認為是有益的。這種微調是使用人工標註者或其他llm創建的輸入進行的,模型會遇到額外的實際知識並將其整合

你所不知道的機器學習五大學派 你所不知道的機器學習五大學派 Jun 05, 2024 pm 08:51 PM

機器學習是人工智慧的重要分支,它賦予電腦從數據中學習的能力,並能夠在無需明確編程的情況下改進自身能力。機器學習在各個領域都有廣泛的應用,從影像辨識和自然語言處理到推薦系統和詐欺偵測,它正在改變我們的生活方式。機器學習領域存在著多種不同的方法和理論,其中最具影響力的五種方法被稱為「機器學習五大派」。這五大派分別為符號派、聯結派、進化派、貝葉斯派和類推學派。 1.符號學派符號學(Symbolism),又稱符號主義,強調利用符號進行邏輯推理和表達知識。該學派認為學習是一種逆向演繹的過程,透過現有的

AlphaFold 3 重磅問世,全面預測蛋白質與所有生命分子相互作用及結構,準確度遠超以往水平 AlphaFold 3 重磅問世,全面預測蛋白質與所有生命分子相互作用及結構,準確度遠超以往水平 Jul 16, 2024 am 12:08 AM

编辑|萝卜皮自2021年发布强大的AlphaFold2以来,科学家们一直在使用蛋白质结构预测模型来绘制细胞内各种蛋白质结构的图谱、发现药物,并绘制每种已知蛋白质相互作用的「宇宙图」。就在刚刚,GoogleDeepMind发布了AlphaFold3模型,该模型能够对包括蛋白质、核酸、小分子、离子和修饰残基在内的复合物进行联合结构预测。AlphaFold3的准确性对比过去许多专用工具(蛋白质-配体相互作用、蛋白质-核酸相互作用、抗体-抗原预测)有显著提高。这表明,在单个统一的深度学习框架内,可以实现

為大模型提供全新科學複雜問答基準與評估體系,UNSW、阿貢、芝加哥大學等多家機構共同推出SciQAG框架 為大模型提供全新科學複雜問答基準與評估體系,UNSW、阿貢、芝加哥大學等多家機構共同推出SciQAG框架 Jul 25, 2024 am 06:42 AM

編輯|ScienceAI問答(QA)資料集在推動自然語言處理(NLP)研究中發揮著至關重要的作用。高品質QA資料集不僅可以用於微調模型,也可以有效評估大語言模型(LLM)的能力,尤其是針對科學知識的理解和推理能力。儘管目前已有許多科學QA數據集,涵蓋了醫學、化學、生物等領域,但這些數據集仍有一些不足之處。其一,資料形式較為單一,大多數為多項選擇題(multiple-choicequestions),它們易於進行評估,但限制了模型的答案選擇範圍,無法充分測試模型的科學問題解答能力。相比之下,開放式問答

SOTA性能,廈大多模態蛋白質-配體親和力預測AI方法,首次結合分子表面訊息 SOTA性能,廈大多模態蛋白質-配體親和力預測AI方法,首次結合分子表面訊息 Jul 17, 2024 pm 06:37 PM

編輯|KX在藥物研發領域,準確有效地預測蛋白質與配體的結合親和力對於藥物篩選和優化至關重要。然而,目前的研究並沒有考慮到分子表面訊息在蛋白質-配體相互作用中的重要作用。基於此,來自廈門大學的研究人員提出了一種新穎的多模態特徵提取(MFE)框架,該框架首次結合了蛋白質表面、3D結構和序列的信息,並使用交叉注意機制進行不同模態之間的特徵對齊。實驗結果表明,該方法在預測蛋白質-配體結合親和力方面取得了最先進的性能。此外,消融研究證明了該框架內蛋白質表面資訊和多模態特徵對齊的有效性和必要性。相關研究以「S

See all articles