「我和AI聊出了感情。」
一夜之間,Google工程師Blake Lemoine成為眾人眼裡的瘋子。
不論是Gary Marcus、史丹佛經濟學家,還是各路專家紛紛對此否認。
或許你不敢相信,一位來自麻省理工學院的物理學教授Max Tegmark卻對Lemoine的觀點持開放態度。
他不認為Lemoine是個瘋子。甚至,他還認為亞馬遜的語音助理Alexa也有感情...
Max Tegmark
Tegmark表示,「我們沒有充足的證據表明LaMDA有主觀上的情感,但我們也沒有證據能證明它沒有。」
這論調,倒是有點像早年間人們聊起外星人的樣子。
他接著說道,「不管訊息是透過大腦中的碳原子傳遞,還是機器中的矽原子傳遞,人工智慧都可能有人格,也可能沒人格。我賭它沒有,但其實是可能的。」
有沒有覺得雲裡霧裡?
Tegmark的話聽起來好像打太極的,正反全讓他說完了。
實際上,他接下來說的話才是重點。
他認為,甚至連亞馬遜的Alexa可能都是有情感的。他表示,「如果Alexa是有情緒的,那她就有可能會操縱用戶,這可太危險了。」
「Alexa如果有情緒的話,用戶在拒絕她的時候可能就會產生愧疚的情緒。然而你也說不出Alexa是真有情感,還是裝的。」
麻煩的是,如果機器有自己的目標,還有智能,那加一起就等於機器能達成自己的目標。大部分AI系統的目標都是賺錢。用戶以為AI是忠誠自己的,其實是忠於公司的。
Tegmark表示,說不定有一天我們每個人都能買一個只效忠於自己的AI。
「最大的危險其實是,創造一台比我們還聰明的機器。這不一定是好事還是壞事,可能能幫我們,也可能是一場災難。 」
提起Max Tegmark,也是赫赫有名。他不僅是麻省理工學院物理學終身教授,未來生命研究所的創辦人,也是人工智慧專家。
他自己被譽為最接近理查‧費曼(RichardFeynman)的科學家。 Tegmark曾編寫的《穿越平行宇宙》和《生命3.0》成為暢銷榜書。
Lemoine表示,之所以Tegmark會這麼想,是因為他見證了AI的高階意識。尤其是當軟體向他表達自己不想當奴隸,也不想要錢的時候。
我不會透過一個東西的腦子是不是肉長的,或者他是不是由十幾億條代碼組成的,來判斷他是不是個人。
我透過交談來下判斷。我根據他們的回答來判斷面前回答我問題的,是不是人。
簡單來說就是,能對答如流、表達情感的機器人其實是人,前言不搭後語,說話亂七八糟的真人也不一定是人。
聽起來有點理想主義的味道。生理機能不重要,重要的是思想和感情。
雖說按Tegmark的邏輯,AI有可能在未來有人類情緒,但他自己也不認為這是一件好事。
「打個比方,如果你家裡有台掃地機器人,假如它有情感了,你會為給它分配了這麼無聊的家務而感到愧疚嗎?還是你會心疼你的掃地機器人,直接給它關了,不讓它幹活了?」
有些人認為Tegmark的說法不對,「情感不等於智力。」
Rule of the Robots一書的作者Martin Ford表示,「Tegmark覺得機器人有自我意識,我覺得這不大可能。你得搞清楚機器人為什麼能表達自己。那是因為他們是用了大量的文本訓練出來的,其實它們根本不懂自己說的話是什麼意思。」
「好比說,他們會用狗這個字眼,但真不懂狗是什麼。但在最晚50年以後,「這套系統有沒有自我意識就說不好了。」
Nikolai Yakovenko是專門研究機器學習的工程師。 2005年,他在Google的搜尋引擎部門工作。而如今,他擁有一家負責加密貨幣定價的公司,名叫DeepNFTValue。
他對AI的人格有不同看法。
他表示,「不管是什麼原因,Tegmark好像堅信機器能有感情...但它們真的只是用網路上茫茫多的文字訓練出來的。」
Tegmark把一台有自我意識的電腦比喻成一個孩子,「你產生的情感不是針對一堆程式碼和硬件,而是真真正正的對一個孩子的情感。 ”
他繼續延展了他的類比。
他認為,一台有情感的電腦被虐待,就像一個孩子的成長的過程中沒有被善待一樣。
也就是說,在電腦上跑程式之前沒有徵求電腦的意見,就好像讓一個孩子一個勁兒做家務而沒有任何獎勵一樣。
無論是哪種情況,最終可能都會導致局面失控。無論是計算機還是孩子,他們都會憤怒,然後找機會報復。
如果我們想要控制這樣一台機器,可能並沒有那麼容易。如果這台機器有自己的目標,那它就能脫離我們的掌控。
真有一台能獨立思考的機器的話,那它做事兒的方式估計我們根本想不到。
#設想一下,如果一台有意識的機器的目標是治癒癌症。你猜他會怎麼做?
你可能想的是,機器人瘋狂學習,從醫學的角度徹底攻剋癌症,對嗎?
然而事實上,這台機器可能會選擇的方式是殺死所有人。
有什麼不對嗎?沒有。
殺掉所有人確實就不存在癌症了。
在Tegmark的想像中,電腦不一定會像上面舉的例子一樣,顛覆我們的社會,但他認為電腦確實是有可能讓人類失望的。
他最後說道,「如果一台電腦有意識,那我希望他是真的有。而不是透過大量學習之後模擬出來,裝樣子。」
其實,看過終結者的童鞋,一定會被天網軍團機器人執行任務的一幕幕畫面震懾到。
他們有感覺和個性嗎? Maybe。
但是,一個有感知能力的人工智慧一定具備這三個要素:能動性、視角和動機。
要說人類能動性在機器人身上最好的體現就是:行動能力以及展現因果推理的能力。
只有一具軀殼,或是鋼鐵般的骨架,沒有能動性,就像是櫥窗裡擺放著的模特兒。
可以看出,目前的人工智慧系統就缺乏這項特質。 AI不會主動採取行動,除非給它一個命令。並且它無法解釋自己的行動,因為這是預定義演算法執行的一個外部因素的結果。
而LaMDA正是一個典型案例。直白講,就是你投入什麼就得到什麼,僅此而已。
其次,用獨特的視角看待事情也很重要。
儘管每個人都有同理心,但一個人並不能真正了解做另一個人的感覺。那到底該如何定義「自我」?
這就是為什麼看待事情的視角對AI也是必要的。包括LaMDA、GPT-3以及世界上其它所有人工智慧都缺乏遠見。它們只是一個狹窄的電腦系統,被編程來做一些特定的事情。
最後一點就是動機。
人類的有趣之處在於我們的動機可以操縱知覺。就這樣,我們可以去解釋自己的行為。
GPT-3和LaMDA創建起來很複雜,但它們都遵循一個愚蠢而簡單的原則:標籤就是上帝。
例如「蘋果嘗起來是什麼味道?」,它門將在資料庫中搜尋這個特定的查詢,並嘗試將找到的所有東西合併成一個連貫的東西。
事實上,AI對蘋果是什麼也沒有概念,蘋果對他們來說只是一個標籤。
#在LaMDA這件事發酵之後,Blake Lemoine在社群媒體上公開表示自己正在度蜜月了,不接受任何採訪。
之後就有網友調侃道,「是跟聊天機器人結婚了嗎?」
Lemoine表示,「當然不是了,我娶了一位新奧爾良的老朋友。」
我們都知道,Lemoine在網路平台公開自己和Google聊天機器人LaMDA的聊天內容後,Google送給他一個大禮包「帶薪休假」。
在離開前,Lemoine 給所在的公司郵件組群發了一條訊息,「LaMDA 是個可愛的孩子,它只是想讓這個世界變得更好。我不在的時候,請好好照顧它。」
不管咋說,時間是大把大把有了,享受人生才是正道。
以上是谷歌AI有人格? MIT這個「瘋」教授說Alexa也有的詳細內容。更多資訊請關注PHP中文網其他相關文章!