首頁 科技週邊 人工智慧 人工智慧有大事發生,LeCun也轉型了

人工智慧有大事發生,LeCun也轉型了

Apr 08, 2023 pm 01:11 PM
人工智慧 深度學習

人工智慧有大事發生,LeCun也轉型了

符號處理是邏輯學、數學和電腦科學中常見的過程,它將思考視為代數運算。近 70 年來,人工智慧領域最根本的爭論就是人工智慧系統應該建立在符號處理的基礎上還是類似人腦的神經系統之上。

其實還有第三種可能作為中間立場的——混合模型。透過將神經網路的數據驅動學習與符號處理的強大抽象能力相結合,混合模型試圖獲得兩全其美的能力。這也是我個人職涯大部分時間的工作方向。

在最近發表於NOEMA 雜誌的一篇文章中,圖靈獎得主、Meta 首席人工智慧科學家Yann LeCun 和LeCun 實驗室的「常駐哲學家」Jacob Browning 也捲入了這場爭論。這篇文章似乎提供了新的替代方案,但仔細檢查後就會發現文章觀點既不新鮮也不令人信服。

人工智慧有大事發生,LeCun也轉型了

Yann LeCun 和Jacob Browning 在發表於NOEMA 雜誌的文章中首次正式回應「深度學習撞牆了」這個觀點,表示「從一開始,批評者就過早地認為神經網路已經遇到了不可翻越的牆,但每次都被證明只是一個暫時的障礙。」

在文章的開頭,他們似乎反對混合模型,混合模型通常被定義為是結合了神經網路深度學習和符號處理的系統。但到最後,LeCun 一反常態,用很多話承認混合系統的存在——它們很重要,它們是一種可能的前進方式,而且我們一直知道這一點。文章本身就是矛盾的。

至於為什麼會出現這種矛盾,我唯一能想到的原因是 LeCun 和 Browning 以某種方式相信:學習了符號處理的模型並不是混合模型。但學習是一個發展中的問題(系統是如何產生的?),而已經發展好的系統如何運作(是用一種機制還是兩種)是一個計算問題:無論以哪種合理的標準來衡量,同時利用了符號和神經網路兩種機制的系統都是一個混合系統。 (也許他們真正想說的是,AI 更像是一種習得的混合系統(learned hybrid),而不是先天的混合系統(innate hybrid)。但習得的混合系統仍然是混合系統。)

在2010 年左右,符號處理被深度學習的支持者看作是一個糟糕的詞;而到了2020 年,了解符號處理的來源成了我們的首要任務。

我認為符號處理要不是與生俱來的,就是其他東西間接地促成了符號處理的獲得。我們越早弄清楚是什麼基礎允許系統學習符號抽象,我們就能夠越早地建立適當利用世界上所有知識的系統,系統也將更安全、更可信和可解釋。

然而,首先我們需要了解人工智慧發展史上這場重要辯論的來龍去脈。

早期的人工智慧先驅Marvin Minsky 和John McCarthy 認為符號處理是唯一合理的前進方式,而神經網路先驅Frank Rosenblatt 認為人工智慧將更能建立在類似神經元的「節點」集合並在可處理資料的結構上,以完成統計資料的繁重工作。

這兩種可能並不互相排斥。人工智慧所使用的「神經網路」並不是字面上的生物神經元網路。相反,它是一個簡化的數字模型,與實際生物大腦有幾分相似,但複雜度很小。原則上,這些抽像神經元可以以許多不同的方式連接起來,其中一些可以直接實現邏輯和符號處理。早在 1943 年,該領域最早的論文之一《A Logical Calculus of the Ideas Inmanent in Nervous Activity》就明確承認了這種可能性。

20 世紀 50 年代的 Frank Rosenblatt 以及 1980 年代的 David Rumelhart 和 Jay McClelland,提出了神經網路作為符號處理的替代方案;Geoffrey Hinton 也普遍支持這一立場。

這裡不為人知的歷史是,早在 2010 年代初期,LeCun、Hinton 和 Yoshua Bengio 對這些終於可以實際應用的多層神經網路非常熱情,他們希望完全消滅符號處理。到 2015 年,深度學習仍處於無憂無慮、熱情洋溢的時代,LeCun、Bengio 和 Hinton 在 Nature 上撰寫了一份關於深度學習的宣言。這篇文章以對符號的攻擊結束,認為「需要新的範式來透過對大型向量的運算取代基於規則的符號表達式運算」。

事實上,當時的 Hinton 非常確信符號處理是一條死胡同,以至於同年他在史丹佛大學做了一個名為「Aetherial Symbols」的演講——將符號比作科學史上最大的錯誤之一。 

類似地,20 世紀 80 年代,Hinton 的合作者 Rumelhart 和 McClelland 也提出了類似的觀點,他們在 1986 年的著作中辯稱:符號不是「人類計算的本質」。

當我在 2018 年寫了一篇文章為符號處理辯護時,LeCun 在 Twitter 上稱我的混合系統觀點“大部分是錯誤的”。彼時,Hinton 也將我的工作比喻為在「汽油引擎」上浪費時間,而「電動引擎」才是最好的前進方式。甚至在 2020 年 11 月,Hinton 還聲稱「深度學習將無所不能」。

因此,當LeCun 和Browning 現在毫不諷刺地寫道:「在深度學習領域工作的每個人都同意符號處理是創建類人AI 的必要特徵」,他們是在顛覆幾十年的辯論史。正如史丹佛大學人工智慧教授 Christopher Manning 所說:「LeCun 的立場發生了一些變化。」

人工智慧有大事發生,LeCun也轉型了

顯然,十年前的方法現在已經不適用了。

2010 年代,機器學習社群中許多人斷言(沒有真正的論點):「符號在生物學上不可信」。而十年後,LeCun 卻正在考慮一個包含符號處理的新方案,無論符號處理是與生俱來的還是後天習得的。 LeCun 和 Browning 的新觀點認為符號處理是至關重要的,這代表了深度學習領域的巨大讓步。

人工智慧歷史學家應該將 NOEMA 雜誌的文章視為一個重大轉折點,其中深度學習三巨頭之一的 LeCun 首先直接承認了混合 AI 的必然性。

值得注意的是,今年早些時候,深度學習三巨頭的另外兩位也表示支持混合 AI 系統。計算機科學家吳恩達和 LSTM 的創建者之一 Sepp Hochreiter 也紛紛表示支持此類系統。而 Jürgen Schmidhuber 的 AI 公司 NNAISANCE 近期正圍繞著符號處理和深度學習的組合進行研究。

LeCun 和Browning 的文章的其餘內容大致可以分為三個部分:

  • 對我的立場的錯誤描述;
  • 努力縮小混合模型的範圍;
  • 討論為什麼符號處理是後天習得的而非與生俱來的。

例如,LeCun 和Browning 說:「Marcus 認為,如果你一開始沒有符號處理,那你後面也不會有(if you don't have symbolic manipulation at the start, you'll never have it)。」而事實上我在2001 年的《代數思維(The Algebraic Mind)》一書中明確表示:我們不確定符號處理是否是與生俱來的。

他們還稱我預計深度學習「無法取得進一步進展」,而我的實際觀點並不是在任何問題上都不會再有任何進展,而是深度學習對於某些工作(例如組合性問題、因果推理問題)來說本身就是錯誤的工具。

他們還說我認為「符號推理對於一個模型來說是all-or-nothing 的,因為DALL-E 沒有用符號和邏輯規則作為其處理的基礎,它實際上不是用符號進行推理,」而我並沒有說過這樣的話。 DALL·E 不使用符號進行推理,但這並不意味著任何包含符號推理的系統必須是 all-or-nothing 的。至少早在 20 世紀 70 年代的專家系統 MYCIN 中,就有純粹的符號系統可以進行各種定量推理。

除了假設「包含習得符號的模型不是混合模型」,他們還試圖將混合模型等同於「包含不可微分符號處理器的模型」。他們認為我將混合模型等同於「兩種東西簡單的結合:在一個模式完善(pattern-completion)的深度學習模組上插入一個硬編碼的符號處理模組。」而事實上,每個都真正從事神經符號AI 工作的人都意識到這項工作並不是這麼簡單。

相反,正如我們都意識到的那樣,問題的關鍵是建立混合系統的正確方法。人們考慮了許多不同方法來組合符號和神經網絡,重點關注從神經網路中提取符號規則、將符號規則直接轉換為神經網路、構建允許在神經網路和符號系統之間傳遞訊息的中間系統等技術,並重構神經網路本身。許多途徑都正在探索中。

最後,我們來看最關鍵的問題:符號處理是否可以透過學習學得而不需要從一開始就內建?

我直截了當地回答:當然可以。據我所知,沒有人否認符號處理是可以學習的。 2001 年,我在《代數思維》的第 6.1 節中回答過這個問題,雖然我認為這不太可能,但我沒有說這是絕對不可能的。相反,我的結論是:「這些實驗和理論肯定不能保證符號處理的能力是與生俱來的,但它們確實符合這一觀點。」

#總的來說,我的觀點包括以下兩部分:

第一是「可學習性」觀點:在《代數思維》整本書中,我展示了某些類型的系統(基本上是當今更深層系統的前身)未能學得符號處理的各個方面,因此不能保證任何系統都能夠學習符號處理。正如我書中原話:

有些東西必須是與生俱來的。但「先天」和「後天」這兩者並沒有真正的衝突。大自然提供了一套讓我們與環境互動的機制、一套從世界中提取知識的工具,以及一套利用這些知識的工具。如果沒有一些與生俱來的學習工具,我們根本就不會學習。

發展心理學家Elizabeth Spelke 曾說:「我認為一個具有一些內建起點(例如物件、集合、用於符號處理的裝置等)的系統將比純粹的白板更有效地了解世界。」事實上,LeCun 自己最著名的捲積神經網路工作也能說明這一點。

第二點是人類嬰兒表現出一些擁有符號處理能力的證據。在我實驗室的一組經常被引用的規則學習實驗中,嬰兒將抽像模式的範圍泛化了,超越了他們訓練中的具體例子。人類嬰兒隱含邏輯推理能力的後續工作會進一步證實這一點。

不幸的是,LeCun 和 Browning 完全迴避了我這兩個觀點。奇怪的是,他們反而將學習符號等同於較晚習得的東西,例如「地圖、圖像表示、儀式甚至社會角色),顯然沒有意識到我和其他幾位認知科學家從認知科學的大量文獻中汲取的關於嬰兒、幼兒和非人類動物的思考。如果一隻小羊在出生後不久就可以爬下山坡,那麼為什麼一個新生的神經網絡不能加入一點符號處理呢?

最後,令人費解的是,為什麼LeCun 和Browning 會費盡心力地反對符號處理的先天性呢?他們沒有給出反對先天性的強有力的原則性論據,也沒有給出任何原則性的理由來證明符號處理是後天習得的。

值得注意的是,LeCun 的最新研究包容了一些「先天的」符號處理。他最近推出的新架構總體包含六個模組,其中大部分是可調的,但所有模組都是內建的。

人工智慧有大事發生,LeCun也轉型了

此外,LeCun 和 Browning 也沒有具體說明如何解決語言理解和推理中眾所周知的特定問題,因為語言模型沒有先天的符號處理機制。

相反,他們只是用歸納的原則說明深度學習的作用:「由於深度學習已經克服了 1 到 N 的問題,我們應該相信它可以克服 N 1 的問題」。

這種觀點的說服力很弱,人們真正應該思考和質疑的是深度學習的極限。

其次,還有一些強而有力的具體理由可以說明深度學習已經面臨原則上的挑戰,即組合性、系統性和語言理解問題。這些問題依賴「泛化」和「分佈偏移(distribution shift)」。領域內的每個人現在都認識到分佈偏移是當前神經網路的致命弱點。這也是《代數思維》一書中對當今深度學習系統的先驅觀點。

實際上,深度學習只是建立智慧機器的一部分。這類技術缺乏表徵因果關係(例如疾病與其症狀之間關係)的方法,並且可能在獲取抽象概念方面存在挑戰。深度學習沒有明顯的邏輯推理方式,距離整合抽象知識還有很長的路要走。

當然,深度學習已經取得了許多進展,它擅長模式識別,但在推理等一些基本問題上進展還遠遠不夠,系統仍然非常不可靠。 

以Google開發的新模式 Minerva 為例,它在訓練時有數十億個 token,但仍難以完成 4 位數相乘的問題。它在高中數學考試中獲得 50% 的正確率,但被吹噓為“重大進步”。因此,深度學習領域仍很難建構起一個掌握推理與抽象的系統。現在的結論是:不只是深度學習有問題,而是深度學習「一直都有問題」。

在我看來,符號處理的情況可能與以往一樣:

在「代數思維」 20 年的影響下,目前的系統仍然無法可靠地提取符號處理(例如乘法),即使面對龐大的資料集和訓練也是如此。人類嬰幼兒的例子表明,在正規教育之前,人類是能夠歸納複雜的自然語言和推理概念的(假定是符號性質的)。

一點內建的符號主義可以大幅提高學習效率。 LeCun 自己在卷積方面的成功(對神經網路連接方式的內建約束)很好地說明了這種情況。 AlphaFold 2 的成功一部分源自於精心建構的分子生物學的先天表徵,模型的作用是另一部分。 DeepMind 的一篇新論文表示,他們在建構關於目標的先天知識系統推理方面取得了一些進展。

而 LeCun 和 Browning 所說的都沒有改變這一切。

退一步看,世界大致可以分為三個部分:

  • 在工廠完全安裝了符號處理設備的系統(例如幾乎所有已知的程式語言)。
  • 具有先天學習裝置的系統缺乏符號處理,但在適當的資料和訓練環境下,足以獲得符號處理。
  • 即使有足夠的訓練,也無法獲得完整的符號處理機制的系統。

目前深度學習系統屬於第三類:一開始沒有符號處理機制,過程中沒有可靠的符號處理機制。

當 LeCun 和 Browning 意識到擴展的作用,即添加更多層、更多數據,但這是不夠的,他們似乎同意我最近反對擴展的論點。我們三個人都承認需要一些新的想法。

此外,在宏觀層面上,LeCun 最近的主張在許多方面都非常接近我在 2020 年的主張,即我們都強調感知、推理和擁有更豐富世界模型的重要性。我們都認為符號處理扮演著重要角色(儘管可能不同)。我們都認為目前流行的強化學習技術無法滿足全部需求,單純的擴展也是如此。

符號處理最大的差異在於需要固有結構的數量,以及利用現有知識的能力。符號處理希望盡可能利用現有知識,而深度學習則希望系統盡可能從零開始。

早在2010 年代,符號處理在深度學習支持者中還是一個不受歡迎的詞,21 世紀20 年代,我們應該將了解這一方法來源作為首要任務,即使是神經網路最狂熱的支持者已經認識到符號處理對實現AI 的重要性。一直以來神經符號社群一直關注的問題是:如何讓數據驅動的學習和符號表示在一個單一的、更強大的智慧中協調一致地工作?令人興奮的是,LeCun 最終承諾為實現這一目標而努力。

原文連結:https://www.noemamag.com/deep-learning-alone-isnt-getting-us-to-human-like-ai/

以上是人工智慧有大事發生,LeCun也轉型了的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

<🎜>:泡泡膠模擬器無窮大 - 如何獲取和使用皇家鑰匙
3 週前 By 尊渡假赌尊渡假赌尊渡假赌
北端:融合系統,解釋
3 週前 By 尊渡假赌尊渡假赌尊渡假赌
Mandragora:巫婆樹的耳語 - 如何解鎖抓鉤
3 週前 By 尊渡假赌尊渡假赌尊渡假赌

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

熱門話題

Java教學
1664
14
CakePHP 教程
1423
52
Laravel 教程
1321
25
PHP教程
1269
29
C# 教程
1249
24
位元組跳動剪映推出 SVIP 超級會員:連續包年 499 元,提供多種 AI 功能 位元組跳動剪映推出 SVIP 超級會員:連續包年 499 元,提供多種 AI 功能 Jun 28, 2024 am 03:51 AM

本站6月27日訊息,剪映是由位元組跳動旗下臉萌科技開發的一款影片剪輯軟體,依託於抖音平台且基本面向該平台用戶製作短影片內容,並相容於iOS、安卓、Windows 、MacOS等作業系統。剪映官方宣布會員體系升級,推出全新SVIP,包含多種AI黑科技,例如智慧翻譯、智慧劃重點、智慧包裝、數位人合成等。價格方面,剪映SVIP月費79元,年費599元(本站註:折合每月49.9元),連續包月則為59元每月,連續包年為499元每年(折合每月41.6元) 。此外,剪映官方也表示,為提升用戶體驗,向已訂閱了原版VIP

使用Rag和Sem-Rag提供上下文增強AI編碼助手 使用Rag和Sem-Rag提供上下文增強AI編碼助手 Jun 10, 2024 am 11:08 AM

透過將檢索增強生成和語意記憶納入AI編碼助手,提升開發人員的生產力、效率和準確性。譯自EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG,作者JanakiramMSV。雖然基本AI程式設計助理自然有幫助,但由於依賴對軟體語言和編寫軟體最常見模式的整體理解,因此常常無法提供最相關和正確的程式碼建議。這些編碼助手產生的代碼適合解決他們負責解決的問題,但通常不符合各個團隊的編碼標準、慣例和風格。這通常會導致需要修改或完善其建議,以便將程式碼接受到應

七個很酷的GenAI & LLM技術性面試問題 七個很酷的GenAI & LLM技術性面試問題 Jun 07, 2024 am 10:06 AM

想了解更多AIGC的內容,請造訪:51CTOAI.x社群https://www.51cto.com/aigc/譯者|晶顏審校|重樓不同於網路上隨處可見的傳統問題庫,這些問題需要跳脫常規思維。大語言模型(LLM)在數據科學、生成式人工智慧(GenAI)和人工智慧領域越來越重要。這些複雜的演算法提升了人類的技能,並在許多產業中推動了效率和創新性的提升,成為企業保持競爭力的關鍵。 LLM的應用範圍非常廣泛,它可以用於自然語言處理、文字生成、語音辨識和推薦系統等領域。透過學習大量的數據,LLM能夠產生文本

微調真的能讓LLM學到新東西嗎:引入新知識可能讓模型產生更多的幻覺 微調真的能讓LLM學到新東西嗎:引入新知識可能讓模型產生更多的幻覺 Jun 11, 2024 pm 03:57 PM

大型語言模型(LLM)是在龐大的文字資料庫上訓練的,在那裡它們獲得了大量的實際知識。這些知識嵌入到它們的參數中,然後可以在需要時使用。這些模型的知識在訓練結束時被「具體化」。在預訓練結束時,模型實際上停止學習。對模型進行對齊或進行指令調優,讓模型學習如何充分利用這些知識,以及如何更自然地回應使用者的問題。但是有時模型知識是不夠的,儘管模型可以透過RAG存取外部內容,但透過微調使用模型適應新的領域被認為是有益的。這種微調是使用人工標註者或其他llm創建的輸入進行的,模型會遇到額外的實際知識並將其整合

你所不知道的機器學習五大學派 你所不知道的機器學習五大學派 Jun 05, 2024 pm 08:51 PM

機器學習是人工智慧的重要分支,它賦予電腦從數據中學習的能力,並能夠在無需明確編程的情況下改進自身能力。機器學習在各個領域都有廣泛的應用,從影像辨識和自然語言處理到推薦系統和詐欺偵測,它正在改變我們的生活方式。機器學習領域存在著多種不同的方法和理論,其中最具影響力的五種方法被稱為「機器學習五大派」。這五大派分別為符號派、聯結派、進化派、貝葉斯派和類推學派。 1.符號學派符號學(Symbolism),又稱符號主義,強調利用符號進行邏輯推理和表達知識。該學派認為學習是一種逆向演繹的過程,透過現有的

AlphaFold 3 重磅問世,全面預測蛋白質與所有生命分子相互作用及結構,準確度遠超以往水平 AlphaFold 3 重磅問世,全面預測蛋白質與所有生命分子相互作用及結構,準確度遠超以往水平 Jul 16, 2024 am 12:08 AM

编辑|萝卜皮自2021年发布强大的AlphaFold2以来,科学家们一直在使用蛋白质结构预测模型来绘制细胞内各种蛋白质结构的图谱、发现药物,并绘制每种已知蛋白质相互作用的「宇宙图」。就在刚刚,GoogleDeepMind发布了AlphaFold3模型,该模型能够对包括蛋白质、核酸、小分子、离子和修饰残基在内的复合物进行联合结构预测。AlphaFold3的准确性对比过去许多专用工具(蛋白质-配体相互作用、蛋白质-核酸相互作用、抗体-抗原预测)有显著提高。这表明,在单个统一的深度学习框架内,可以实现

為大模型提供全新科學複雜問答基準與評估體系,UNSW、阿貢、芝加哥大學等多家機構共同推出SciQAG框架 為大模型提供全新科學複雜問答基準與評估體系,UNSW、阿貢、芝加哥大學等多家機構共同推出SciQAG框架 Jul 25, 2024 am 06:42 AM

編輯|ScienceAI問答(QA)資料集在推動自然語言處理(NLP)研究中發揮著至關重要的作用。高品質QA資料集不僅可以用於微調模型,也可以有效評估大語言模型(LLM)的能力,尤其是針對科學知識的理解和推理能力。儘管目前已有許多科學QA數據集,涵蓋了醫學、化學、生物等領域,但這些數據集仍有一些不足之處。其一,資料形式較為單一,大多數為多項選擇題(multiple-choicequestions),它們易於進行評估,但限制了模型的答案選擇範圍,無法充分測試模型的科學問題解答能力。相比之下,開放式問答

SK 海力士 8 月 6 日將展示 AI 相關新品:12 層 HBM3E、321-high NAND 等 SK 海力士 8 月 6 日將展示 AI 相關新品:12 層 HBM3E、321-high NAND 等 Aug 01, 2024 pm 09:40 PM

本站8月1日消息,SK海力士今天(8月1日)發布博文,宣布將出席8月6日至8日,在美國加州聖克拉拉舉行的全球半導體記憶體峰會FMS2024,展示諸多新一代產品。未來記憶體和儲存高峰會(FutureMemoryandStorage)簡介前身是主要面向NAND供應商的快閃記憶體高峰會(FlashMemorySummit),在人工智慧技術日益受到關注的背景下,今年重新命名為未來記憶體和儲存高峰會(FutureMemoryandStorage),以邀請DRAM和儲存供應商等更多參與者。新產品SK海力士去年在

See all articles