目錄
循環神經網路(RNN)
RNN的優點
RNN的缺點
長短期記憶(LSTM)
LSTM的優點
LSTM的缺點
門控循環單元(GRU)
GRU的優勢
GRU的缺點
首頁 科技週邊 人工智慧 探究RNN、LSTM和GRU的概念、區別和優劣

探究RNN、LSTM和GRU的概念、區別和優劣

Jan 22, 2024 pm 07:51 PM
人工智慧 機器學習 人工神經網絡

探究RNN、LSTM和GRU的概念、區別和優劣

在時間序列資料中,觀察值之間存在依賴關係,因此它們不是相互獨立的。然而,傳統的神經網路將每個觀察視為獨立的,這限制了模型對時間序列資料的建模能力。為了解決這個問題,循環神經網路(RNN)被引入,它引入了記憶的概念,透過在網路中建立資料點之間的依賴關係來捕捉時間序列資料的動態特性。透過循環連接,RNN可以將先前的資訊傳遞到當前觀察中,從而更好地預測未來的值。這使得RNN成為處理時間序列資料任務的強大工具。

但是RNN是如何實現這種記憶的呢?

RNN透過神經網路中的回饋迴路實現記憶,這是RNN與傳統神經網路的主要差異。回饋迴路允許訊息在層內傳遞,而前饋神經網路的訊息僅在層之間傳遞。因此,有了不同類型的RNN:

  • #循環神經網路(RNN)
  • 長短期記憶網路(LSTM)
  • 門控循環單元網路(GRU)

本文將介紹RNN、LSTM和GRU的概念和異同點,以及它們的一些優點和缺點。

循環神經網路(RNN)

透過回饋迴路,一個RNN單元的輸出也被同一單元用作輸入。因此,每個RNN都有兩個輸入:過去和現在。使用過去的資訊會產生短期記憶。

為了更好地理解,可以展開RNN單元的回饋循環。展開單元格的長度等於輸入序列的時間步數。

可以看到過去的觀察結果是如何作為隱藏狀態透過展開的網路傳遞的。在每個單元格中,當前時間步的輸入、前一時間步的隱藏狀態和偏移組合,然後透過啟動函數限制以確定當前時間的隱藏狀態步。

RNN可用於一對一、一對多、多對一和多對多預測。

RNN的優點

由於其短期記憶,RNN可以處理順序資料並識別歷史資料中的模式。此外,RNN能夠處理不同長度的輸入。

RNN的缺點

RNN存在梯度下降消失的問題。在這種情況下,用於在反向傳播期間更新權重的梯度變得非常小。將權重與接近零的梯度相乘會阻止網路學習新的權重。停止學習會導致RNN忘記在較長序列中看到的內容。梯度下降消失的問題隨著網路層數的增加而增加。

由於RNN只保留最近的訊息,所以模型在考慮過去的觀察時會出現問題。因此,RNN只有短期記憶而沒有長期記憶。

此外,由於RNN使用反向傳播及時更新權重,網路也會遭受梯度爆炸的影響,如果使用ReLu激活函數,則會受到死亡ReLu單元的影響。前者可能會導致收斂問題,而後者會導致停止學習。

長短期記憶(LSTM)

LSTM是一種特殊類型的RNN,它解決了RNN會梯度消失的問題。

LSTM的關鍵是單元狀態,它從單元的輸入傳遞到輸出。單元狀態允許資訊沿著整個鏈流動,僅通過三個門進行較小的線性動作。因此,單元狀態代表LSTM的長期記憶。這三個閘分別稱為遺忘閘、輸入閘和輸出閘。這些門用作過濾器並控制資訊流並確定保留或忽略哪些資訊。

遺忘門決定了應該保留多少長期記憶。為此,使用了一個sigmoid函數來說明單元狀態的重要性。輸出在0和1之間變化,0即不保留任何資訊;1則保留單元狀態的所有資訊。

輸入門決定將哪些資訊加入單元狀態,從而添加到長期記憶中。

輸出閘決定單元狀態的哪些部分建置輸出。因此,輸出門負責短期記憶。

總的來說,狀態透過遺忘閘和輸入閘更新。

LSTM的優點

LSTM的優點類似於RNN,主要優點是它們可以捕捉序列的長期和短期模式。因此,它們是最常用的RNN。

LSTM的缺點

由於結構更複雜,LSTM的計算成本更高,導致訓練時間更長。

由於LSTM也使用時間反向傳播演算法來更新權重,因此LSTM有反向傳播的缺點,如死亡ReLu單元、梯度爆炸等。

門控循環單元(GRU)

#與LSTM類似,GRU解決了簡單RNN的梯度消失問題。然而,與LSTM的不同之處在於GRU使用較少的門並且沒有單獨的內部記憶體,即單元狀態。因此,GRU完全依賴隱藏狀態作為記憶,導致更簡單的架構。

重置門負責短期記憶,因為它決定保留和忽略多少過去的資訊。

更新門負責長期記憶,可與LSTM的遺忘門相媲美。

#

目前時間步的隱藏狀態是基於兩個步驟確定的:

首先,確定候選隱藏狀態。候選狀態是當前輸入和前一時間步的隱藏狀態以及激活函數的組合。前一個隱藏狀態對候選隱藏狀態的影響由重置閘門控制。

第二步,將候選隱藏狀態與上一時間步的隱藏狀態結合,產生目前隱藏狀態。先前的隱藏狀態和候選隱藏狀態如何組合由更新閘決定。

如果更新閘門給出的值為0,則完全忽略先前的隱藏狀態,目前隱藏狀態等於候選隱藏狀態。如果更新門給出的值為1,則相反。

GRU的優勢

由於與LSTM相比有著更簡單的架構,GRU的運算效率更高,訓練速度更快,只需要更少的記憶體。

此外,GRU已被證明對於較小的序列更有效。

GRU的缺點

由於GRU沒有單獨的隱藏狀態和細胞狀態,因此它們可能無法像LSTM一樣考慮過去的觀察結果。

與RNN和LSTM類似,GRU也可能遭受反向傳播及時更新權重的缺點,即死亡ReLu單元、梯度爆炸。

以上是探究RNN、LSTM和GRU的概念、區別和優劣的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

AI Hentai Generator

AI Hentai Generator

免費產生 AI 無盡。

熱門文章

R.E.P.O.能量晶體解釋及其做什麼(黃色晶體)
4 週前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳圖形設置
4 週前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.如果您聽不到任何人,如何修復音頻
4 週前 By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25:如何解鎖Myrise中的所有內容
1 個月前 By 尊渡假赌尊渡假赌尊渡假赌

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

位元組跳動剪映推出 SVIP 超級會員:連續包年 499 元,提供多種 AI 功能 位元組跳動剪映推出 SVIP 超級會員:連續包年 499 元,提供多種 AI 功能 Jun 28, 2024 am 03:51 AM

本站6月27日訊息,剪映是由位元組跳動旗下臉萌科技開發的一款影片剪輯軟體,依託於抖音平台且基本面向該平台用戶製作短影片內容,並相容於iOS、安卓、Windows 、MacOS等作業系統。剪映官方宣布會員體系升級,推出全新SVIP,包含多種AI黑科技,例如智慧翻譯、智慧劃重點、智慧包裝、數位人合成等。價格方面,剪映SVIP月費79元,年費599元(本站註:折合每月49.9元),連續包月則為59元每月,連續包年為499元每年(折合每月41.6元) 。此外,剪映官方也表示,為提升用戶體驗,向已訂閱了原版VIP

使用Rag和Sem-Rag提供上下文增強AI編碼助手 使用Rag和Sem-Rag提供上下文增強AI編碼助手 Jun 10, 2024 am 11:08 AM

透過將檢索增強生成和語意記憶納入AI編碼助手,提升開發人員的生產力、效率和準確性。譯自EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG,作者JanakiramMSV。雖然基本AI程式設計助理自然有幫助,但由於依賴對軟體語言和編寫軟體最常見模式的整體理解,因此常常無法提供最相關和正確的程式碼建議。這些編碼助手產生的代碼適合解決他們負責解決的問題,但通常不符合各個團隊的編碼標準、慣例和風格。這通常會導致需要修改或完善其建議,以便將程式碼接受到應

微調真的能讓LLM學到新東西嗎:引入新知識可能讓模型產生更多的幻覺 微調真的能讓LLM學到新東西嗎:引入新知識可能讓模型產生更多的幻覺 Jun 11, 2024 pm 03:57 PM

大型語言模型(LLM)是在龐大的文字資料庫上訓練的,在那裡它們獲得了大量的實際知識。這些知識嵌入到它們的參數中,然後可以在需要時使用。這些模型的知識在訓練結束時被「具體化」。在預訓練結束時,模型實際上停止學習。對模型進行對齊或進行指令調優,讓模型學習如何充分利用這些知識,以及如何更自然地回應使用者的問題。但是有時模型知識是不夠的,儘管模型可以透過RAG存取外部內容,但透過微調使用模型適應新的領域被認為是有益的。這種微調是使用人工標註者或其他llm創建的輸入進行的,模型會遇到額外的實際知識並將其整合

七個很酷的GenAI & LLM技術性面試問題 七個很酷的GenAI & LLM技術性面試問題 Jun 07, 2024 am 10:06 AM

想了解更多AIGC的內容,請造訪:51CTOAI.x社群https://www.51cto.com/aigc/譯者|晶顏審校|重樓不同於網路上隨處可見的傳統問題庫,這些問題需要跳脫常規思維。大語言模型(LLM)在數據科學、生成式人工智慧(GenAI)和人工智慧領域越來越重要。這些複雜的演算法提升了人類的技能,並在許多產業中推動了效率和創新性的提升,成為企業保持競爭力的關鍵。 LLM的應用範圍非常廣泛,它可以用於自然語言處理、文字生成、語音辨識和推薦系統等領域。透過學習大量的數據,LLM能夠產生文本

為大模型提供全新科學複雜問答基準與評估體系,UNSW、阿貢、芝加哥大學等多家機構共同推出SciQAG框架 為大模型提供全新科學複雜問答基準與評估體系,UNSW、阿貢、芝加哥大學等多家機構共同推出SciQAG框架 Jul 25, 2024 am 06:42 AM

編輯|ScienceAI問答(QA)資料集在推動自然語言處理(NLP)研究中發揮著至關重要的作用。高品質QA資料集不僅可以用於微調模型,也可以有效評估大語言模型(LLM)的能力,尤其是針對科學知識的理解和推理能力。儘管目前已有許多科學QA數據集,涵蓋了醫學、化學、生物等領域,但這些數據集仍有一些不足之處。其一,資料形式較為單一,大多數為多項選擇題(multiple-choicequestions),它們易於進行評估,但限制了模型的答案選擇範圍,無法充分測試模型的科學問題解答能力。相比之下,開放式問答

你所不知道的機器學習五大學派 你所不知道的機器學習五大學派 Jun 05, 2024 pm 08:51 PM

機器學習是人工智慧的重要分支,它賦予電腦從數據中學習的能力,並能夠在無需明確編程的情況下改進自身能力。機器學習在各個領域都有廣泛的應用,從影像辨識和自然語言處理到推薦系統和詐欺偵測,它正在改變我們的生活方式。機器學習領域存在著多種不同的方法和理論,其中最具影響力的五種方法被稱為「機器學習五大派」。這五大派分別為符號派、聯結派、進化派、貝葉斯派和類推學派。 1.符號學派符號學(Symbolism),又稱符號主義,強調利用符號進行邏輯推理和表達知識。該學派認為學習是一種逆向演繹的過程,透過現有的

SOTA性能,廈大多模態蛋白質-配體親和力預測AI方法,首次結合分子表面訊息 SOTA性能,廈大多模態蛋白質-配體親和力預測AI方法,首次結合分子表面訊息 Jul 17, 2024 pm 06:37 PM

編輯|KX在藥物研發領域,準確有效地預測蛋白質與配體的結合親和力對於藥物篩選和優化至關重要。然而,目前的研究並沒有考慮到分子表面訊息在蛋白質-配體相互作用中的重要作用。基於此,來自廈門大學的研究人員提出了一種新穎的多模態特徵提取(MFE)框架,該框架首次結合了蛋白質表面、3D結構和序列的信息,並使用交叉注意機制進行不同模態之間的特徵對齊。實驗結果表明,該方法在預測蛋白質-配體結合親和力方面取得了最先進的性能。此外,消融研究證明了該框架內蛋白質表面資訊和多模態特徵對齊的有效性和必要性。相關研究以「S

佈局 AI 等市場,格芯收購泰戈爾科技氮化鎵技術和相關團隊 佈局 AI 等市場,格芯收購泰戈爾科技氮化鎵技術和相關團隊 Jul 15, 2024 pm 12:21 PM

本站7月5日消息,格芯(GlobalFoundries)於今年7月1日發布新聞稿,宣布收購泰戈爾科技(TagoreTechnology)的功率氮化鎵(GaN)技術及智慧財產權組合,希望在汽車、物聯網和人工智慧資料中心應用領域探索更高的效率和更好的效能。隨著生成式人工智慧(GenerativeAI)等技術在數位世界的不斷發展,氮化鎵(GaN)已成為永續高效電源管理(尤其是在資料中心)的關鍵解決方案。本站引述官方公告內容,在本次收購過程中,泰戈爾科技公司工程師團隊將加入格芯,進一步開發氮化鎵技術。 G

See all articles