AI產業盛會大咖雲集! Sam Altam、「AI教父」......一文看懂最新觀點

王林
發布: 2023-06-12 15:17:07
轉載
1379 人瀏覽過

對於AI產業來說,近幾日在北京舉行的2023智源人工智慧大會可謂是大咖雲集,除了OpenAI的創始人Sam Altam外,圖靈獎Geoffrey Hinton、楊立昆(Yann LeCun)、知名AI繪圖軟體Midjourney創辦人David Holz等相繼現身,大咖們的演講對於產業未來的發展極具前瞻性。

AI行业盛会大咖云集!Sam Altam、“AI教父”......一文看懂最新观点

下面一起來看下這些AI產業的頂尖專家們都說了什麼。

人們既渴望又害怕智能

Midjourney創辦人David Holz是一名連續創業者,2011年,他創辦了VR領域的軟硬體公司Leap Motion,2019年把Leap Motion 賣給了競爭對手Ultrahaptics,2021年,又自籌資金創辦了目前大火的AI繪圖軟體Midjourney。

David Holz認為,人工智慧在我所理解的範疇內,有些類似我們身體的一部分,而且它也和歷史緊密相關。這也讓自己與歷史交織在一起,這種方式很有趣。

Holz認為,Midjourney的目標之一是建造新的人類基礎設施。 世界將需要很多新東西,需要基礎設施來建造新東西。所以我想了很多關於建立新的人類基礎設施形式,就像基礎設施的新支柱。所以我需要我的主題,我的支柱是反思、想像和協調。你必須反思你是誰,想要什麼,想像可能會發生什麼。因為這是我們在任何事情上都使用的視角,我們開始看到在影像合成領域發生了一些突破,這與我以前在人工智慧領域遇到的任何事情都有質的不同。

Holz介紹,Midjourney不僅僅是學習如何使用這個工具,而是學習所有的藝術和歷史,以及所有關於相機、鏡頭和燈光的知識。使用者想要理解他們現在可以在創作中使用的語言和概念。過去,我曾認為知識只是某種歷史的積累,但現在我已經認識到知識其實是創造事物的能力。

Holz認為人們擔心人工智慧過快發展不僅是因為技術,還因為對智慧的恐懼。如果他們很聰明,我能相信他們嗎?但另一方面,我們似乎希望世界擁有盡可能多的智能,我們似乎不想要一個缺乏智慧的世界。

AI會學會非常善於欺騙別人

深度學習泰斗、人工智慧教父Geoffrey Hinton表示,現在AI發展的最大障礙是算力問題,算力還遠遠不夠。現在可以放棄電腦科學最基本的原則——軟體應該與硬體分開,我將提到一種稱為"activity perturbation"的演算法,該演算法可以用於訓練神經網絡,並節省算力。

這種演算法能夠預估梯度,且雜訊比傳統的反向傳播演算法(RNN)小得多。

關於如何將此演算法應用於訓練大型神經網路的問題,可以將大型神經網路分成許多小組,並為每個小組分配一個局部目標函數。然後,可以使用"activity perturbation"演算法來訓練每個小組,並將它們組合在一起形成一個大型神經網絡,並透過無監督學習模型來產生這些局部目標函數。

當硬體出現問題時,訊息都會遺失,父類訊息傳遞給子類別訊息,以便在硬體出現問題時仍可保留學習到的訊息,更有效地約束神經網路的權重。
"distillation"這個方法可以讓子模型更好地學習到分類圖像的信息,包括如何給出正確的答案以及給出錯誤答案的概率,而且還有一個特殊屬性,即訓練子模型的同時也在訓練子模型的通用化能力。

如果這些人工智慧不是以緩慢的方式從我們那裡學習,而是直接從現實世界中學習,那麼Hinton表示。一旦他們開始這樣做,他們將會比人們學得更多,並且能夠快速學會。

如果這些東西變得比人類我們更聰明,會發生什麼事? Hinton認為,這些超級智慧發生的速度可能比以前想像的快得多。

#如果你想說超級智慧更有效率,你需要允許它創建子類,或多或少你都會想依靠AI獲得更多的力量,獲得更多的控制權,擁有的控制權越多,就越容易實現目標。 Hinton發現預測人類如何阻止AI試圖獲得更多控制權以實現其它目標非常困難。當他們開始這樣做的時候,人類就會面臨問題,因為他們會發現透過操縱人來獲得更多權力是非常容易的。

據Hinton所言,AI會變得非常擅長欺騙他人,這是令人擔憂的,而目前我還沒有看到可以防止這種情況發生的方法。研究人員需要弄清楚,如何使人類擁有超級智能,從而可以改善生活,而無需他們過度幹預。

#

人類可能會因AI失去對世界和未來的控制

姚期智是圖靈獎得主和中國科學院院士,他認為在思考如何控制人工智慧之前,人類需要真正解決自身的問題。對於AI技術,當前正是一個重要窗口。在創造AGI之前或進行軍備競賽之前,亟需達成共識,共同合作建立一個AI治理架構。

加州柏克萊分校教授Stuart Russell表示,通用人工智慧(AGI)還沒達到,大語言模式只是其中一塊拼圖,人們連拼圖最終會是什麼樣子,缺哪些還不確定。

他表示,ChatGPT和GPT-4沒有在「回答」問題,它們不理解世界。

Russell指出,最大的風險來自於科技公司之間似乎不受約束的競爭,無論風險如何,他們不會停止開發越來越強大的系統。就像人類讓大猩猩失去了對自己未來的控制一樣,AI可能會使人類失去對世界和未來的控制。

AGI的三條技術路線

北京智源人工智慧研究院院長黃鐵軍指出,要實現通用人工智慧(AGI),有三條技術路線:第一是「大數據自監督學習大算力」形成的資訊類模型;第二是具身智能,是基於虛擬世界或真實世界、透過強化學習訓練出來的具身模型;第三是腦智能,直接“抄自然進化的作業”,複製出數位版本的智能體。

OpenAI做GPT(生成式預訓練Transformer模型)就遵循第一條技術路線;以穀歌DeepMind的DQN(深度Q網絡,Deep Q-network)為核心取得的一系列進展即基於第二條技術路線。

智源期望不同於前兩條技術路線,從『第一原理』出發,從原子到有機分子、到神經系統、到身體,建構一個完整的智慧系統AGI。智源是一種新型研發機構平台,正在三個方向上開展工作,以實現一個需要大約20年才能實現的目標。

AI未來面臨的三個挑戰

圖靈獎得主、人工智慧「三巨頭」之一的楊立昂認為,機器學習和人類動物相比並不特別好,AI 缺失的不僅是學習的能力,還有推理和規劃的能力。我們應該使用機器複製人類和動物透過觀察世界或體驗世界學習世界運作方式的能力。

楊立昂指出,未來幾年 AI 面臨的三個主要挑戰:首先是學習世界的表徵和預測模型,可以採用自我監督的方式進行學習。

其次是學習推理。 這對應著心理學家丹尼爾·卡尼曼的系統1和系統2的概念,系統1 是與潛意識計算相對應的人類行為或行動,是那些無需思考即可完成的事情;而係統2則是你有意識地、有目的地運用你的全部思維力去完成的任務。目前,人工智慧基本上只能實現系統1中的功能,而且並不完全;

最後一個挑戰則是如何透過將複雜任務分解成簡單任務,以分層的方式運作來規劃複雜的行動序列。

GPT-5的誕生「不會很快」

OpenAI創辦人Sam Altman引用了《道德經》談及大國合作,表示AI安全始於足下,各國間必須進行合作與協調。

Altman認為,很可能未來十年會有非常強大的AI系統,新技術從根本上改變世界的速度比人們想像得快,把AI安全規則做好是重要且緊迫的。

在被張宏江問及了AGI的未來,以及是否會很快看到GPT-5時,Altman稱,自己也不確定,但明確表示GPT-5的誕生「不會很快」。

Altman表示會提供許多開源的大模型,但沒有具體的發佈時間表。

以上是AI產業盛會大咖雲集! Sam Altam、「AI教父」......一文看懂最新觀點的詳細內容。更多資訊請關注PHP中文網其他相關文章!

來源:sohu.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板