當科技與商業之間產生巨大矛盾時,Juergen Schmidhuber才會被大眾惦記得。從四月那封暫停人工智慧技術研發的公開信,到本月初為了能更「自由」的談論AI風險而離開谷歌的Geoffrey Hinton。本世紀最具想像力也最具爭議的技術終於站在了最後的十字路口。
最近兩年,Juergen Schmidhuber的風頭一度被獲得圖靈獎的人工智慧三巨頭(Yoshua Bengio、Geoffrey Hinton 和Yann LeCun)所蓋過,以致於大眾無意識間將這位人工智慧思想家與技術先驅放到了一個相對低估的位置。
要理解他錯失圖靈獎的原因,或許南京大學人工智慧學院院長周志華教授的評論值得參考,他說:「要論對深度學習的貢獻,Hinton 無疑居首,LeCun 和Schmidhuber 貢獻都很大。但HLB總捆綁在一起,Schmidhuber 顯然不在那個小團體裡。而獲獎需有提名有投票,人緣也重要。不過沒關係,有LSTM這樣教科書級的貢獻,他足以淡定。」
而更早在1990年,Schmidhuber明確了無監督生成對抗神經網絡,這些神經網絡在極小極大博弈中相互對抗,以實現人工好奇心。 1991年,他又引入了神經快速權重程序,形式上相當於現在所謂的具有線性化自我關注的轉換器(Transformer)。今天,這種轉換器正在驅動著著名的ChatGPT。 2015年,他的團隊推出了高速神經網路(Highway Neural Networks),比以前的網路深度多出許多倍。
在Schmidhuber的職業生涯中,因其開創性的工作獲得了各種獎項和榮譽。 2013年,他被授予“赫爾姆霍茲獎”,旨在表彰他在機器學習領域的重大貢獻。 2016年,他因「對深度學習和神經網路的開創性貢獻」獲頒IEEE神經網路先鋒獎。同時要注意的是,在Yoshua Bengio、Geoffrey Hinton 和 Yann LeCun還沒有獲得圖靈獎之前,Juergen Schmidhuber就已經被稱作是「現代人工智慧之父」了。
他的聲音經常站在「主流」的對立面,但經常是正確的。 Schmidhuber在今年稍早接受了福布斯中國的專訪,而又在近期回答了福布斯撰稿人Hessie Jones關於人工智慧擔憂的一系列問題。我們將相關談話內容整理如下:
福布斯中國:深度學習和神經網路等技術在ChatGPT出現後是否已經預示著發生了本質的變化?
Schmidhuber:實際上沒有,因為ChatGPT本質上是一個學習神經網絡,其基礎是在上個千年奠定的,然而,由於不斷的硬體加速,現在可以建立比以前更大的神經網絡,並向它們輸入整個互聯網,從而學習預測部分文字(例如"聊天")和圖像。 ChatGPT的智慧主要是這些規模龐大化的結果。
ChatGPT所基於的神經網路是所謂的"注意力轉換器"。我對此感到高興,因為30多年前,我發表了現在稱為"具有線性自註意力的轉換器"的論文(J. Schmidhuber. Learning to control fast-weight memories: An alternative to recurrent nets. Neural Computation , 4(1):131-139, 1992)。它們等效於我所說的神經快速權重編程器(除了歸一化),分離存儲和控制;注意力術語是在ICANN 1993年引入的。
福布斯中國:你去過中國,那你認為中國的人工智慧科技發展如何?中國該如何趕上像美國這樣的技術先進國家?
Schmidhuber:雖然深度學習的大部分基本演算法是由歐洲人發明的,但美國的大型公司在商業化這些演算法方面做得更好。我認為中國的公司並不落後。這些基本方法已經是公開開源的。你需要的是快速的計算機,大量的數據和工程人才。我多次訪問中國,知道中國擁有這一切,並且已經是人工智慧發表論文最多的國家。所以我對中國的人工智慧非常樂觀!
福布斯中國:目前,大部分的運算能力和數據都掌握在一些產業巨頭手中。中小微型企業和新創公司如何突破障礙?
Schmidhuber:40年前,我認識一個富人。他有一輛保時捷。但最令人驚訝的是:保時捷裡有一部行動電話。因此,透過衛星,他可以呼叫其他擁有類似保時捷的人。
今天,每個人都擁有一部便宜的智慧型手機,它在許多方面都比保時捷裡的東西更好。而且,隨著人工智慧的發展,情況也將如此。請記住:每5年,人工智慧的價格將便宜10倍。每個人都將擁有大量的便宜的人工智慧為他們工作。 (這是一個比摩爾定律更古老的規律,從齒輪的發現至今已經存在近千年了。)
實際上,我公司NNAISENSE的座右銘就是:「人工智慧面向所有人」!我們的人工智慧已經讓人類的生命更長、更健康、更輕鬆、更快樂。人工智慧不會被少數大公司控制。不,每個人都將擁有便宜但強大的人工智慧,以多種方式改善他/她的生活。
福布斯中國:您認為人工智慧和深度學習領域對於創業家和新創企業有哪些機會?
Schmidhuber:我可以從我們自己創立的企業NNAISENSE的角度來談。它的發音類似於“nascence”(英語中的“birth”),但拼寫方式不同,因為它是基於通用神經網路人工智慧而誕生。今天,大多數人工智慧的利潤都在虛擬世界中,用於行銷和出售廣告——這就是太平洋沿岸的大型平台公司的做法:阿里巴巴、亞馬遜、Facebook、騰訊、谷歌、百度等等。但是,行銷只佔世界經濟的一小部分。更大的部分也將被人工智慧侵入,就像電影中一樣。像我們這樣的新創企業有很多機會。
福布斯中國:您認為人工智慧取代人類工作的趨勢如何,考慮到ChatGPT所帶來的驚人體驗?
Schmidhuber:有了ChatGPT,使用者可以突然間像與一個非常博學的人交談一樣,該人似乎對所有主題和問題都有精心構思的答案。即使是像「用這個作家的風格寫一篇關於這個方面的文章摘要」的複雜任務,也經常能夠很快得到解決,以至於後來只需要進行少量編輯。許多辦公桌任務將透過如此聰明的人工智慧夥伴得到極大的便利。
今天哪種類型的人工智慧表現得相當不錯?答案是那些為桌面工作者服務的人工智慧。例如回答法律考試問題、總結公司文件、擊敗您在虛擬世界中的對手(例如視訊遊戲)或追蹤您在網路上的行動並向您提供量身定制的廣告。
福布斯中國:您如何看待AI在道德、道德、隱私和安全方面所面臨的挑戰?
Schmidhuber:這將是一場AI之間的軍備競賽,有些AI會為某些道德和道義標準、隱私和安全而戰,而其他一些則不那麼仁慈。
福布斯中國:目前的AI發展是否符合您的預測?深度學習將來會如何發展?
Schmidhuber:自15歲左右起,我的主要目標就是建立一個比我更聰明的自我改進的人工智慧 ,然後退休。目前的發展符合我的預測。
請記住,自1941年以來,每5年,計算機的價格便宜了10倍。這種指數級趨勢的樸素外推預測,21世紀將會看到廉價計算機,其原始計算能力將達到所有人類大腦的千倍之多。很快就會有數百萬、數十億、數萬億這樣的設備。
以下為福布斯撰稿人Hessie Jones針對 人工智慧擔憂的一系列問題和Schmidhuber的對話內容, 為保證文本清晰連貫,以下經過編輯整理。
Jones:你已經簽署了關於AI武器的警告信。但你沒有在最近發表的《暫停人工智慧大模型實驗: 一封公開信》上簽名,有什麼原因嗎?
#Schmidhuber:我已經意識到,許多在公開場合對人工智慧的危險提出警告的人只是在尋求宣傳。我不認為最新的信會產生任何重大影響,因為許多人工智慧研究人員、公司和政府將完全忽視它。
那封公開信裡多次使用了“我們”這個詞,指的是“我們所有人”,即人類。但正如我過去多次指出的那樣,世界上並不存在每個人都能認同的「我們」。問10個不同的人,你會聽到10種關於什麼是「好」的不同意見。其中一些觀點是完全不相容的。不要忘記許多人之間的巨大衝突。
信中還說,「如果這種暫停不能迅速到位,政府應該進行幹預。」問題是,不同的政府對什麼對自己好、什麼對別人好也有不同的看法。大國A會說,如果我們不這樣做,大國B就會做,也許是偷偷地做,以便獲得對我們的優勢。大國C和大國D也是如此。
Jones:每個人都承認這種對目前生成式人工智慧技術的恐懼。此外,OpenAI執行長Sam Altman本人也公開承認了這項技術的存在性威脅,並呼籲對人工智慧進行監管。從你的角度來看,AI是否對人類構成了存在性的威脅?
#Schmidhuber:人工智慧確實可以被武器化,我也毫不懷疑會有各種各樣的人工智慧軍備競賽,但人工智慧並沒有引入一種新的存在性威脅。來自人工智慧武器的威脅似乎與來自核氫彈更古老的威脅相比相形見絀,不值一提。我們應該更害怕半個世紀前的氫彈火箭技術。 1961年的沙皇炸彈(1960年代初冷戰期間蘇聯研發的一型氫彈)的破壞力幾乎是二戰中所有武器總和的15倍。儘管自1980年代以來各國已經進行了戲劇性的核裁軍,但全世界仍有足夠的核彈頭在兩個小時內消滅人類文明,且不需要任何人工智慧的幫助。我更擔心的是古老的生存威脅,而不是相當無害的人工智慧武器。
Jones:我意識到,雖然你把人工智慧與核彈的威脅相提並論,但目前存在著一種危險,即當前的技術可能被人類掌握,並使他們能夠「最終」以一種非常精確的方式對群體中的個人造成進一步的傷害,例如有針對性的無人機攻擊。正如一些人指出的那樣,你給了人們一個他們以前從未有過的工具集,使壞人能夠比以前做更多的壞事,因為他們原來沒有這項技術。
Schmidhuber:原則上,這些聽起來很可怕,但我們現有的法律足以應付這些由人工智慧驅動的新型武器。如果你用槍殺了人,你會進監獄,用無人機殺人也一樣。執法部門將更了解新的威脅和新的武器,並將用更好的技術來應對這些威脅。讓無人機從遠處瞄準目標,需要一些追蹤和一些智慧來完成,這在傳統上是由熟練的人力來完成的,但對我來說,這似乎只是傳統武器的改進版本,例如現在的槍,你知道的,它也只是比老式的槍更聰明一點。
Jones:隱含的生存威脅是人類對這項技術的控製程度。我們看到一些機會主義的早期案例,正如你所說,這些案例往往比積極的突破會得到更多的媒體關注。但你的意思是這一切都會平衡嗎?
Schmidhuber:從歷史上看,我們有一個悠久的傳統,那就是技術的突破會導致武器的進步,既用於防禦,也用於保護。從棍棒到石頭,從斧頭到火藥,從大砲到火箭,再到現在的無人機,這對人類歷史產生了巨大的影響,但縱觀歷史,那些使用科技來達到自己目的的人也要面對同樣的技術,因為他們的對手也正在學習使用這種技術來對付他們。這種情況在幾千年的人類歷史上一直重複,而且還會繼續下去。我不認為新的人工智慧軍備競賽會像老式的核彈頭那樣構成生死存亡的威脅。
你說了一些很重要的事情,有些人更喜歡談論這項技術的缺點,而不是它的好處,但這是誤導,因為95%的人工智慧研究和開發都是為了讓人們更快樂,促進人類的生活和健康。
Jones:讓我們來談談人工智慧研究中那些有益的、能夠從根本上改變目前的方法,並取得突破的進展。
Schmidhuber:好的!例如,11年前,我們的團隊和我的博士後Dan Ciresan是第一個透過深度學習贏得醫學影像比賽的團隊。我們分析了女性乳腺細胞,目的是分辨無害細胞與癌前階段的細胞。通常,一個訓練有素的腫瘤學家需要很長時間才能做出這些決定。我們的團隊對癌症一無所知,但卻能在大量此類數據上訓練出一個人工神經網絡,雖然這個網絡在開始時是非常愚蠢的。它的表現優於所有其他方法。今天,它不僅用於乳癌,還用於放射學和檢測動脈中的斑塊以及許多其他方面。我們在過去30年開發的一些神經網路現在已經廣泛應用於數千種醫療保健應用,可以檢測糖尿病和新冠肺炎等疾病。這最終將滲透到所有醫療保健領域。這種類型的人工智慧的良好結果比利用人工智慧進行犯罪的吸引眼球的新方法重要得多。
Jones:應用是強化結果的產物。大規模的應用要么讓我們相信人們被引入了歧途,要么相反,科技對人們的生活產生了積極的影響。
Schmidhuber:後者是更可能出現的情況。我們面臨巨大的商業壓力,需要好的AI而不是壞的AI,因為公司想要賣給你東西,而你只會購買你認為對你有益的東西。所以在這種簡單的商業壓力下,你會對優秀的AI產生巨大的偏見,而不是糟糕的AI。然而,與改善人們生活的人工智慧紀錄片相比,施瓦辛格電影中的世界末日場景更能吸引人們的注意。
Jones:我認為人們會被好故事所吸引——那些包含對手和鬥爭的故事,但最終都有圓滿的結局。這與你對人性的評價是一致的,以及歷史儘管有暴力和毀滅人性的傾向,但在某種程度上傾向於自我糾正。
Schmidhuber:讓我們以一種技術為例,你們都知道——生成式對抗網絡(GAN, Generative Adversarial Networks),它今天很容易被用於假新聞和虛假信息相關的應用。實際上,GAN發明的目的與今天的用途相差甚遠。
GANs這個名字是在2014年創建的,但我們在90年代初就已經有了基本的原則。 30多年前,我稱它為人造的好奇心(Artificial Curiosity)。這是一個非常簡單的方法,它可以將創造力注入到小小的兩個網路系統中。這種創造性的人工智慧不只是試圖奴顏婢膝地模仿人類,相反,它正在創造自己的目標。讓我解釋一下:
現在你有兩個網路。一個網路正在產生輸出,可能是任何東西,任何行動。然後,第二個網路正在觀察這些行動,並試圖預測這些行動的後果。一個動作可以移動一個機器人,然後再發生一些其他事情,而另一個網路只是試圖預測會發生什麼。
現在,我們可以透過減少第二個網路的預測誤差來實現人工好奇心,同時,這也是第一個網路的獎勵。第一個網路想使其獎勵最大化,因此它將發明一些行動,這些行動將導致第二個網路吃驚的情況,也就是那些它還沒有學會很好地預測的情況。
在輸出假圖片的情況下,第一個網絡將試圖產生質量足夠好的圖像來欺騙第二個網絡,而後者將試圖預測環境的反應:圖像是真的還是假的?第二個系統試圖擁有更強的預測能力而第一個網路將繼續在生成影像方面改進,使得第二個網路無法判斷其真偽。因此,它們兩個系統互相爭鬥。第二個網路將繼續減少它的預測誤差,而第一個網路將試圖使預測系統的誤差最大化。
透過這種零和遊戲(Zero-sum Game),第一個網路在產生這些令人信服的假輸出方面變得越來越好,生成的圖片看起來幾乎是完全真實的。因此,一旦你有了梵谷的一組有趣圖像,你就可以利用他的風格產生新的圖像,而梵谷本人並沒有創作過這些藝術品。
Jones:讓我們來談談未來。你曾說過,「傳統的人類不會對在宇宙中傳播智能方面發揮重要作用」。
Schmidhuber:首先讓我們從概念上區分兩類人工智慧。第一種類型的人工智慧是由人類指導的工具。它們被訓練來做特定的事情,例如準確檢測糖尿病或心臟病,並在發生前預防疾病發作。在這些情況下,人工智慧的目標是來自人類的。而更有趣的人工智慧正在設定自己的目標。他們正在發明自己的實驗並從中學習,他們的視野不斷擴大,最終他們成為現實世界中越來越普遍的問題解決者。他們不受父母的控制,他們學到的大部分是透過自我發明的實驗。
例如,一個機器人正在旋轉一個玩具,當它這樣做的時候,它可以通過攝像頭傳來的隨時間推移而變化的視頻,開始學習這個視頻的變化,並學習如果以某種方式旋轉玩具,它的三維性質將如何產生某些視覺變化。最終,它將學會重力如何運作,學會世界的物理學如何運作等等,就像一個小科學家一樣!
而我幾十年來一直預測,未來這種人工智慧科學家的放大版將想要進一步擴大他們的視野,並最終去大多數物理資源所在的地方,以建立更大更多的人工智慧。當然,幾乎所有這些資源都在遠離地球的太空中,那裡對人類是不友善的,但對適當設計的人工智慧控制的機器人和自我複製的機器人工廠是友好的。因此,在這裡我們談論的不再是我們微小的生物圈;相反,我們談論的是大得多的宇宙其他部分。在幾百億年內,擁有好奇心的、會自我改進的人工智慧將以一種對人類來說不可行的方式在可見的宇宙中開展「殖民」。聽起來像科幻小說,但自20世紀70年代以來,我一直無法看到這種情景的合理替代方案,除非發生全球性的災難,如全面的核戰爭,在它衝上雲霄之前阻止這種技術發展。 ■
福布斯中國獨家稿件,未經許可,請勿轉載
#頭圖來源:蓋蒂圖片社
##精彩資訊永不錯過
▽
以上是專訪「現代人工智慧之父」Juergen Schmidhuber,他畢生的工作不會帶來毀滅的詳細內容。更多資訊請關注PHP中文網其他相關文章!