目錄
怎麼又吵起來了? " >怎麼又吵起來了?
LSTM之父擺出「六大證據」" >LSTM之父擺出「六大證據」
上次,還是在幾個月之前" >上次,還是在幾個月之前
首頁 科技週邊 人工智慧 LSTM之父再次約戰LeCun:你那5點「創新」都是抄我的!卻慘遭「已讀不回」

LSTM之父再次約戰LeCun:你那5點「創新」都是抄我的!卻慘遭「已讀不回」

Apr 16, 2023 am 10:04 AM
數據 模型

最近,LSTM之父Jürgen Schmidhuber一言不合又跟LeCun幹上了!

其實之前稍微熟悉這位暴脾氣大爺的同學都知道,特立獨行的Jürgen Schmidhuber和機器學習社群的幾位大佬級人物之間都有過不愉快。

尤其是當「那三個人」一起拿了個圖靈獎,而Schmidhuber卻沒有之後,這位老爺子就更氣了……

說到底Schmidhuber一直認為,現在這幾個ML領軍人物,什麼Bengio、Hinton、LeCun,包括「GAN」之父Goodfellow等人,他們的許多所謂「開創性成果」都是自己先提出來的,而這些人在論文中根本沒提過他。

為此,Schmidhuber曾經專門撰文把Bengio、Hinton、LeCun於2015年發在Nature上的綜述性文章「Deep Learning」一文拿出來批判過一番。

主要是說這篇文章裡的成果,哪些東西是他先提的,哪些東西是別的前輩先提的,反正不是這仨作者先提的。

怎麼又吵起來了?

回到這次事件起因,實際上是LeCun在9月發的一條推文。

內容是對David Chalmers教授提問的回答:「在過去十年中,AI最重要的智力突破(新想法)是什麼?」

LSTM之父再次約戰LeCun:你那5點「創新」都是抄我的!卻慘遭「已讀不回」

10月4日,Schmidhuber在他的部落格上撰文怒斥:這5個「best idea」大部分都來自於我的實驗室,而且提出的時間要遠早於「10年」這個時間節點。

文中Schmidhuber詳細列舉了六大證據來支撐自己的論述。

LSTM之父再次約戰LeCun:你那5點「創新」都是抄我的!卻慘遭「已讀不回」

但估計是因為看到的人太少,Schmidhuber又在11月22日發推,重新把這個「冷飯」炒了一遍。

然而,相較於上一次還算激烈的爭辯,這回LeCun連理都沒理…

LSTM之父再次約戰LeCun:你那5點「創新」都是抄我的!卻慘遭「已讀不回」

LSTM之父擺出「六大證據」

#1. 透過神經網路(NN)自動產生標註的「自我監督學習」:至少可以追溯到我1990-91年的工作。

(I) 透過預測編碼在一個循環神經網路(RNN)中進行自監督的目標生成,來學習在多個時間尺度和抽象層次上壓縮資料序列。

在這裡,一個「自動機」RNN學會了「預測下一個輸入」的前置任務,並將傳入資料流中的意外觀察值作為目標傳送給「分塊機」RNN,後者學習更高層次的規律性,隨後透過適當的訓練目標將其所獲得的預測知識提煉回自動機中。

這大大促進了先前無法解決的序列分類的下游深度學習任務。

LSTM之父再次約戰LeCun:你那5點「創新」都是抄我的!卻慘遭「已讀不回」

(II) 透過GAN類型的內在動機進行自監督的標註生成,其中一個世界模型NN學習預測對抗性的、標註生成的、實驗發明的控制器NN的行為後果。

LSTM之父再次約戰LeCun:你那5點「創新」都是抄我的!卻慘遭「已讀不回」

此外,在我於1990年發表的論文標題中,就已經出現了「自監督」的說法。

但是吧,在更早期(1978年)的論文中,也用到了這個字…

LSTM之父再次約戰LeCun:你那5點「創新」都是抄我的!卻慘遭「已讀不回」

2. “ResNets”:其實就是我早期提出的Highway Nets。但LeCun卻認為ResNets的智力「不深」,這讓我非常難過。

在我提出Highway Nets之前,前饋網絡最多只有幾十層(20-30層),而Highway Nets是第一個真正的深度前饋神經網絡,有數百層。

LSTM之父再次約戰LeCun:你那5點「創新」都是抄我的!卻慘遭「已讀不回」

在1990年代,我的LSTM為有監督的遞歸NN帶來了基本無限的深度。在2000年代,LSTM啟發的Highway Nets為前饋NN帶來了深度。

由此帶來的是,LSTM成為20世紀被引用最多的NN,而Highway Nets(ResNet)是21世紀被引用最多的NN。

可以說,它們代表了深度學習的精髓,而深度學習就是關於NN的深度。

3. 「門控->注意力->動態連結圖」:至少可以追溯到我的Fast Weight Programmers和1991-93年的Key -Value Memory Networks(其中的「Key-Value」稱為「FROM-TO」)。

1993年,我引入了現在使用的術語「注意力」。

LSTM之父再次約戰LeCun:你那5點「創新」都是抄我的!卻慘遭「已讀不回」

不過值得注意的是,NN中的第一個乘法閘可以追溯到1965年Ivakhnenko & Lapa的深度學習機器。

4. “Differentiable memory”:同樣可以追溯到我的Fast Weight Programmers或1991年的Key-Value Memory Networks。

像傳統電腦中那樣分離儲存和控制,但以端到端差分、自適應、完全神經的方式(而不是以混合方式)。

LSTM之父再次約戰LeCun:你那5點「創新」都是抄我的!卻慘遭「已讀不回」

5. 「置換等變模組,例如多頭自註意力->Transformer」:我在1991年發表了帶有線性化自註意的Transformer。相應的「注意力」術語(internal spotlights of attention)可以追溯到1993年。

6. 「GAN是過去10年中最好的機器學習理念」

你提到的這個GAN(2014年)的原理,實際上是我在1990年以人工智慧好奇心的名義提出的。

LSTM之父再次約戰LeCun:你那5點「創新」都是抄我的!卻慘遭「已讀不回」

上次,還是在幾個月之前

其實這已經不是Schmidhuber和LeCun之間今年第一次發生爭執了。

在六七月間,兩人就關於LeCun發表的一篇「自主機器智慧未來方向」的展望報告有來有回地吵了一番。

6月27日,Yann LeCun發表了自己積蓄幾年的論文「A Path Towards Autonomous Machine Intelligence」,並稱之為「指明AI未來發展方向之作」。

LSTM之父再次約戰LeCun:你那5點「創新」都是抄我的!卻慘遭「已讀不回」

這篇論文系統講述了關於「機器如何能像動物和人類一樣學習」的問題,長達60多頁。

LeCun表示,此文不僅是自己關於未來5-10年內關於AI發展大方向的思考,也是自己未來幾年打算研究的內容,並希望能夠啟發AI界的更多人來一起研究。

LSTM之父再次約戰LeCun:你那5點「創新」都是抄我的!卻慘遭「已讀不回」

而Schmidhuber大概提前十幾天就得知這個消息,並拿到了這篇論文,當即就寫了一篇文章反駁。

依照Schmidhuber自己在部落格上文章的說法,當時事情是這樣的:

2022年6月14日,一家科學媒體發布消息,說LeCun在6月27日要發布一篇報告,給我發了一份報告的草稿(當時還在保密期),並請我發表評論。

我寫了一篇評論,告訴他們這基本上是我們以前工作的翻版,而LeCun的文章中並沒有提到。

然而,我的意見被置若罔聞。

LSTM之父再次約戰LeCun:你那5點「創新」都是抄我的!卻慘遭「已讀不回」

實際上,早在他這篇東西發表以前,我們就提出了LeCun在這篇文中所謂的「主要原創貢獻」的大部分內容,主要有:

(1)  「認知架構,其中所有模組都是可分的,而且許多模組是可訓練的」(我們在1990年提出)。

(2)  「預測世界模式的分層結構,在多個抽象層次和多個時間尺度上學習表徵」 (我們在1991年提出)。

(3)  「自我監督的學習範式,產生同時具有資訊性和可預測性的表徵」(我們的模型自1997年起就用於強化學習和世界建構模了)

(4) 「用於不確定性下的分層規劃」的預測模型,包括基於梯度的神經子目標生成器(1990)、抽象概念空間的推理(1997年)、「主要透過觀察學習行動」的神經網路(2015年),以及學習思考(2015年),都是我們先提出的。

7月14日,Yann LeCun回應,說討論要有建設性,他是這麼說的:

我不想陷入一場關於「某個概念是誰發明的」這種無謂爭論中,也不想在你的回應文章中列出的160個參考文獻中深究。我認為更有建設性的做法是,指出你認為可能包含我列出的4項貢獻中的觀點和方法的4篇出版物。

正如我在論文的開頭所說,有許多概念已經存在了很長時間,你和我都不是這些概念的發明人:例如,可微調世界模型的概念,可以追溯到早期的最佳化控制工作。

訓練世界模型利用神經網路學習世界模型的系統識別,這個想法可以追溯到80年代末,由Michael Jordan, Bernie Widrow, Robinson & Fallside, Kumpathi Narendra, Paul Werbos進行的工作,都比你的工作早。

在我看來,這個稻草人式的回答似乎是LeCun在轉移話題,對他的所謂「主要原創貢獻」中貪他人之功的問題避而不談。

我在7月14日回覆:

關於你說的「你我都沒有發明的東西」:你的論文聲稱,用神經網路進行系統辨識可以追溯到20世紀90年代初。然而,在你的先前的回應中,你似乎同意我的觀點:這方面的第一篇論文出現在1980年代。

至於你的「主要原創貢獻」,其實都用了我早年間的工作成果。

(一) 關於你提出的「認知架構,其中所有模組都是可分化的,且許多模組都是可訓練的」,「透過內在動機驅動行為」:

我在1990年就提出了用於線上學習和規劃的可分化架構,這是第一個具有「內在動機」的控制器,用以改善世界模型,它既是生成性的,也是對抗性的;你文中引用的2014年的GAN是這個模型的一個衍生版本。

(二)關於你提出的「在多個抽象層次和時間尺度上學習表徵的預測性世界模型的分層結構」:

這是我1991年的神經歷史壓縮機實現的。它使用預測編碼,以自監督的方式學習長序列資料的分層內部表徵,大大促進了下游的學習。使用我1991年的神經網路提煉程序,這些表徵可以被折疊成一個單一的循環神經網路(RNN)。

(三)關於你在控制方面的「自監督學習範式,產生同時具有資訊性和可預測性的表徵」:

#這一點我在1997年提出建構的系統中已經提出。它不是預測未來輸入的所有細節,而是可以提出任意的抽象問題,並在你所說的「表徵空間」中給出可計算的答案。在這個系統中,兩個名為「左腦」和「右腦」的學習模型,選擇獎勵最大化的對手進行零和博弈,偶爾還會在這種計算實驗的結果上打賭。

(四)關於你的可用於不確定情況下的分層規劃預測性可微分模型,你的文章裡是這麼寫的:

「一個尚未回答的問題是,配置器如何學習將一個複雜的任務分解為一連串可以由智能體單獨完成的子目標。我將把這個問題留給未來的調查。」

就別說什麼未來了,實際上我在30多年前就發表過這樣的文章:

##一個控制器神經網路負責獲得額外的命令輸入,其形式為(開始,目標)。一個評估器神經網路負責學習預測從開始到目標的預期成本。一個基於可微調循環神經網路的子目標生成器看到了這個(開始,目標)的輸入,並使用評估器神經網絡,透過梯度下降學習一系列成本最小的中間子目標。

(五)你也強調了 「主要透過觀察來​​學習行為」的神經網路。 其實我們很早就解決了這個問題,比2015年這篇文章,討論了部分可觀察環境中強化學習(RL)的一般問題。

LSTM之父再次約戰LeCun:你那5點「創新」都是抄我的!卻慘遭「已讀不回」

世界模型M可能擅長預測一些事情,但對其他事情不確定。控制器C透過學習透過自我發明的問題序列(激活模式)來查詢並解釋答案(更多的激活模式)來最大化其目標函數。

C可以從學習從M中提取任何類型的演算法資訊中獲益,例如用於分層規劃和推理,利用M中編碼的被動觀察等等。

以上是LSTM之父再次約戰LeCun:你那5點「創新」都是抄我的!卻慘遭「已讀不回」的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

熱門話題

Java教學
1658
14
CakePHP 教程
1415
52
Laravel 教程
1309
25
PHP教程
1257
29
C# 教程
1231
24
開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計! 開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計! Apr 03, 2024 pm 12:04 PM

0.這篇文章乾了啥?提出了DepthFM:一個多功能且快速的最先進的生成式單目深度估計模型。除了傳統的深度估計任務外,DepthFM還展示了在深度修復等下游任務中的最先進能力。 DepthFM效率高,可以在少數推理步驟內合成深度圖。以下一起來閱讀這項工作~1.論文資訊標題:DepthFM:FastMonocularDepthEstimationwithFlowMatching作者:MingGui,JohannesS.Fischer,UlrichPrestel,PingchuanMa,Dmytr

全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 May 07, 2024 pm 04:13 PM

想像一下,一個人工智慧模型,不僅擁有超越傳統運算的能力,還能以更低的成本實現更有效率的效能。這不是科幻,DeepSeek-V2[1],全球最強開源MoE模型來了。 DeepSeek-V2是一個強大的專家混合(MoE)語言模型,具有訓練經濟、推理高效的特點。它由236B個參數組成,其中21B個參數用於啟動每個標記。與DeepSeek67B相比,DeepSeek-V2效能更強,同時節省了42.5%的訓練成本,減少了93.3%的KV緩存,最大生成吞吐量提高到5.76倍。 DeepSeek是一家探索通用人工智

AI顛覆數學研究!菲爾茲獎得主、華裔數學家領銜11篇頂刊論文|陶哲軒轉贊 AI顛覆數學研究!菲爾茲獎得主、華裔數學家領銜11篇頂刊論文|陶哲軒轉贊 Apr 09, 2024 am 11:52 AM

AI,的確正在改變數學。最近,一直十分關注這個議題的陶哲軒,轉發了最近一期的《美國數學學會通報》(BulletinoftheAmericanMathematicalSociety)。圍繞著「機器會改變數學嗎?」這個話題,許多數學家發表了自己的觀點,全程火花四射,內容硬核,精彩紛呈。作者陣容強大,包括菲爾茲獎得主AkshayVenkatesh、華裔數學家鄭樂雋、紐大電腦科學家ErnestDavis等多位業界知名學者。 AI的世界已經發生了天翻地覆的變化,要知道,其中許多文章是在一年前提交的,而在這一

替代MLP的KAN,被開源專案擴展到卷積了 替代MLP的KAN,被開源專案擴展到卷積了 Jun 01, 2024 pm 10:03 PM

本月初,來自MIT等機構的研究者提出了一種非常有潛力的MLP替代方法—KAN。 KAN在準確性和可解釋性方面表現優於MLP。而且它能以非常少的參數量勝過以更大參數量運行的MLP。例如,作者表示,他們用KAN以更小的網路和更高的自動化程度重現了DeepMind的結果。具體來說,DeepMind的MLP有大約300,000個參數,而KAN只有約200個參數。 KAN與MLP一樣具有強大的數學基礎,MLP基於通用逼近定理,而KAN基於Kolmogorov-Arnold表示定理。如下圖所示,KAN在邊上具

你好,電動Atlas!波士頓動力機器人復活,180度詭異動作嚇到馬斯克 你好,電動Atlas!波士頓動力機器人復活,180度詭異動作嚇到馬斯克 Apr 18, 2024 pm 07:58 PM

波士頓動力Atlas,正式進入電動機器人時代!昨天,液壓Atlas剛「含淚」退出歷史舞台,今天波士頓動力就宣布:電動Atlas上崗。看來,在商用人形機器人領域,波士頓動力是下定決心要跟特斯拉硬剛一把了。新影片放出後,短短十幾小時內,就已經有一百多萬觀看。舊人離去,新角色登場,這是歷史的必然。毫無疑問,今年是人形機器人的爆發年。網友銳評:機器人的進步,讓今年看起來像人類的開幕式動作、自由度遠超人類,但這真不是恐怖片?影片一開始,Atlas平靜地躺在地上,看起來應該是仰面朝天。接下來,讓人驚掉下巴

iPhone上的蜂窩數據網路速度慢:修復 iPhone上的蜂窩數據網路速度慢:修復 May 03, 2024 pm 09:01 PM

在iPhone上面臨滯後,緩慢的行動數據連線?通常,手機上蜂窩互聯網的強度取決於幾個因素,例如區域、蜂窩網絡類型、漫遊類型等。您可以採取一些措施來獲得更快、更可靠的蜂窩網路連線。修復1–強制重啟iPhone有時,強制重啟設備只會重置許多內容,包括蜂窩網路連線。步驟1–只需按一次音量調高鍵並放開即可。接下來,按降低音量鍵並再次釋放它。步驟2–過程的下一部分是按住右側的按鈕。讓iPhone完成重啟。啟用蜂窩數據並檢查網路速度。再次檢查修復2–更改資料模式雖然5G提供了更好的網路速度,但在訊號較弱

特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! 特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! May 06, 2024 pm 04:13 PM

特斯拉機器人Optimus最新影片出爐,已經可以在工廠裡打工了。正常速度下,它分揀電池(特斯拉的4680電池)是這樣的:官方還放出了20倍速下的樣子——在小小的「工位」上,揀啊揀啊揀:這次放出的影片亮點之一在於Optimus在廠子裡完成這項工作,是完全自主的,全程沒有人為的干預。而且在Optimus的視角之下,它還可以把放歪了的電池重新撿起來放置,主打一個自動糾錯:對於Optimus的手,英偉達科學家JimFan給出了高度的評價:Optimus的手是全球五指機器人裡最靈巧的之一。它的手不僅有觸覺

牛津大學最新! Mickey:3D中的2D影像匹配SOTA! (CVPR\'24) 牛津大學最新! Mickey:3D中的2D影像匹配SOTA! (CVPR\'24) Apr 23, 2024 pm 01:20 PM

寫在前面項目連結:https://nianticlabs.github.io/mickey/給定兩張圖片,可以透過建立圖片之間的對應關係來估計它們之間的相機姿態。通常,這些對應關係是二維到二維的,而我們估計的姿態在尺度上是不確定的。一些應用,例如隨時隨地實現即時增強現實,需要尺度度量的姿態估計,因此它們依賴外部的深度估計器來恢復尺度。本文提出了MicKey,這是一個關鍵點匹配流程,能夠夠預測三維相機空間中的度量對應關係。透過學習跨影像的三維座標匹配,我們能夠在沒有深度測試的情況下推斷度量相對

See all articles