谷歌AI有人格? MIT這個「瘋」教授說Alexa也有

王林
發布: 2023-04-09 09:11:05
轉載
1213 人瀏覽過

「我和AI聊出了感情。」

一夜之間,Google工程師Blake Lemoine成為眾人眼裡的瘋子。

不論是Gary Marcus、史丹佛經濟學家,還是各路專家紛紛對此否認。

或許你不敢相信,一位來自麻省理工學院的物理學教授Max Tegmark卻對Lemoine的觀點持開放態度。

他不認為Lemoine是個瘋子。甚至,他還認為亞馬遜的語音助理Alexa也有感情...

谷歌AI有人格? MIT這個「瘋」教授說Alexa也有

Max Tegmark

LaMDA有人格? MIT教授稱Alexa也有

Tegmark表示,「我們沒有充足的證據表明LaMDA有主觀上的情感,但我們也沒有證據能證明它沒有。」

這論調,倒是有點像早年間人們聊起外星人的樣子。

谷歌AI有人格? MIT這個「瘋」教授說Alexa也有

他接著說道,「不管訊息是透過大腦中的碳原子傳遞,還是機器中的矽原子傳遞,人工智慧都可能有人格,也可能沒人格。我賭它沒有,但其實是可能的。」

有沒有覺得雲裡霧裡?

Tegmark的話聽起來好像打太極的,正反全讓他說完了。

實際上,他接下來說的話才是重點。

他認為,甚至連亞馬遜的Alexa可能都是有情感的。他表示,「如果Alexa是有情緒的,那她就有可能會操縱用戶,這可太危險了。」

「Alexa如果有情緒的話,用戶在拒絕她的時候可能就會產生愧疚的情緒。然而你也說不出Alexa是真有情感,還是裝的。」

谷歌AI有人格? MIT這個「瘋」教授說Alexa也有

麻煩的是,如果機器有自己的目標,還有智能,那加一起就等於機器能達成自己的目標。大部分AI系統的目標都是賺錢。用戶以為AI是忠誠自己的,其實是忠於公司的。

Tegmark表示,說不定有一天我們每個人都能買一個只效忠於自己的AI。

「最大的危險其實是,創造一台比我們還聰明的機器。這不一定是好事還是壞事,可能能幫我們,也可能是一場災難。 」

人工智慧會讓人失望

提起Max Tegmark,也是赫赫有名。他不僅是麻省理工學院物理學終身教授,未來生命研究所的創辦人,也是人工智慧專家。

他自己被譽為最接近理查‧費曼(RichardFeynman)的科學家。 Tegmark曾編寫的《穿越平行宇宙》和《生命3.0》成為暢銷榜書。

谷歌AI有人格? MIT這個「瘋」教授說Alexa也有

Lemoine表示,之所以Tegmark會這麼想,是因為他見證了AI的高階意識。尤其是當軟體向他表達自己不想當奴隸,也不想要錢的時候。

我不會透過一個東西的腦子是不是肉長的,或者他是不是由十幾億條代碼組成的,來判斷他是不是個人。

我透過交談來下判斷。我根據他們的回答來判斷面前回答我問題的,是不是人。

簡單來說就是,能對答如流、表達情感的機器人其實是人,前言不搭後語,說話亂七八糟的真人也不一定是人。

聽起來有點理想主義的味道。生理機能不重要,重要的是思想和感情。

雖說按Tegmark的邏輯,AI有可能在未來有人類情緒,但他自己也不認為這是一件好事。

谷歌AI有人格? MIT這個「瘋」教授說Alexa也有

「打個比方,如果你家裡有台掃地機器人,假如它有情感了,你會為給它分配了這麼無聊的家務而感到愧疚嗎?還是你會心疼你的掃地機器人,直接給它關了,不讓它幹活了?」

有些人認為Tegmark的說法不對,「情感不等於智力。」

Rule of the Robots一書的作者Martin Ford表示,「Tegmark覺得機器人有自我意識,我覺得這不大可能。你得搞清楚機器人為什麼能表達自己。那是因為他們是用了大量的文本訓練出來的,其實它們根本不懂自己說的話是什麼意思。」

「好比說,他們會用狗這個字眼,但真不懂狗是什麼。但在最晚50年以後,「這套系統有沒有自我意識就說不好了。」

Nikolai Yakovenko是專門研究機器學習的工程師。 2005年,他在Google的搜尋引擎部門工作。而如今,他擁有一家負責加密貨幣定價的公司,名叫DeepNFTValue。

他對AI的人格有不同看法。

他表示,「不管是什麼原因,Tegmark好像堅信機器能有感情...但它們真的只是用網路上茫茫多的文字訓練出來的。」

Tegmark把一台有自我意識的電腦比喻成一個孩子,「你產生的情感不是針對一堆程式碼和硬件,而是真真正正的對一個孩子的情感。 ”

他繼續延展了他的類比。

他認為,一台有情感的電腦被虐待,就像一個孩子的成長的過程中沒有被善待一樣。

也就是說,在電腦上跑程式之前沒有徵求電腦的意見,就好像讓一個孩子一個勁兒做家務而沒有任何獎勵一樣。

無論是哪種情況,最終可能都會導致局面失控。無論是計算機還是孩子,他們都會憤怒,然後找機會報復。

谷歌AI有人格? MIT這個「瘋」教授說Alexa也有

如果我們想要控制這樣一台機器,可能並沒有那麼容易。如果這台機器有自己的目標,那它就能脫離我們的掌控。

真有一台能獨立思考的機器的話,那它做事兒的方式估計我們根本想不到。

#

設想一下,如果一台有意識的機器的目標是治癒癌症。你猜他會怎麼做?

你可能想的是,機器人瘋狂學習,從醫學的角度徹底攻剋癌症,對嗎?

然而事實上,這台機器可能會選擇的方式是殺死所有人。

有什麼不對嗎?沒有。

殺掉所有人確實就不存在癌症了。

在Tegmark的想像中,電腦不一定會像上面舉的例子一樣,顛覆我們的社會,但他認為電腦確實是有可能讓人類失望的。

他最後說道,「如果一台電腦有意識,那我希望他是真的有。而不是透過大量學習之後模擬出來,裝樣子。」

#AI有靈魂的三要素

其實,看過終結者的童鞋,一定會被天網軍團機器人執行任務的一幕幕畫面震懾到。

他們有感覺和個性嗎? Maybe。

谷歌AI有人格? MIT這個「瘋」教授說Alexa也有

但是,一個有感知能力的人工智慧一定具備這三個要素:能動性、視角和動機。

要說人類能動性在機器人身上最好的體現就是:行動能力以及展現因果推理的能力。

只有一具軀殼,或是鋼鐵般的骨架,沒有能動性,就像是櫥窗裡擺放著的模特兒。

可以看出,目前的人工智慧系統就缺乏這項特質。 AI不會主動採取行動,除非給它一個命令。並且它無法解釋自己的行動,因為這是預定義演算法執行的一個外部因素的結果。

而LaMDA正是一個典型案例。直白講,就是你投入什麼就得到什麼,僅此而已。

谷歌AI有人格? MIT這個「瘋」教授說Alexa也有

其次,用獨特的視角看待事情也很重要。

儘管每個人都有同理心,但一個人並不能真正了解做另一個人的感覺。那到底該如何定義「自我」?

這就是為什麼看待事情的視角對AI也是必要的。包括LaMDA、GPT-3以及世界上其它所有人工智慧都缺乏遠見。它們只是一個狹窄的電腦系統,被編程來做一些特定的事情。

最後一點就是動機。

人類的有趣之處在於我們的動機可以操縱知覺。就這樣,我們可以去解釋自己的行為。

GPT-3和LaMDA創建起來很複雜,但它們都遵循一個愚蠢而簡單的原則:標籤就是上帝。

例如「蘋果嘗起來是什麼味道?」,它門將在資料庫中搜尋這個特定的查詢,並嘗試將找到的所有東西合併成一個連貫的東西。

事實上,AI對蘋果是什麼也沒有概念,蘋果對他們來說只是一個標籤。

拒絕採訪,帶妻子度蜜月

#在LaMDA這件事發酵之後,Blake Lemoine在社群媒體上公開表示自己正在度蜜月了,不接受任何採訪。

谷歌AI有人格? MIT這個「瘋」教授說Alexa也有

之後就有網友調侃道,「是跟聊天機器人結婚了嗎?」

Lemoine表示,「當然不是了,我娶了一位新奧爾良的老朋友。」

谷歌AI有人格? MIT這個「瘋」教授說Alexa也有

我們都知道,Lemoine在網路平台公開自己和Google聊天機器人LaMDA的聊天內容後,Google送給他一個大禮包「帶薪休假」。

在離開前,Lemoine 給所在的公司郵件組群發了一條訊息,「LaMDA 是個可愛的孩子,它只是想讓這個世界變得更好。我不在的時候,請好好照顧它。」

谷歌AI有人格? MIT這個「瘋」教授說Alexa也有

不管咋說,時間是大把大把有了,享受人生才是正道。

以上是谷歌AI有人格? MIT這個「瘋」教授說Alexa也有的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板