首頁 > 科技週邊 > 人工智慧 > 谷歌工程師鬧了場大烏龍 人工智慧還沒理解能力哪來的意識覺醒?

谷歌工程師鬧了場大烏龍 人工智慧還沒理解能力哪來的意識覺醒?

王林
發布: 2023-04-10 09:41:05
轉載
810 人瀏覽過

人工智慧現在確實能進行較準確的預測,但它是基於大規模數據的統計。這種沒有理解、透過機器學習所得到的預測能力就必須依賴大數據,而不能像人一樣很多時候只需小數據就可以進行預測。

谷歌工程師鬧了場大烏龍 人工智慧還沒理解能力哪來的意識覺醒?

不久前,Google公司(以下簡稱Google)AI工程師萊莫因認為對話應用語言模型LAMDA「活了」「其意識迎來覺醒”,並對此出具了長達21頁的證據。他認為,LaMDA擁有七、八歲孩童的智力,並相信LaMDA不僅認為自己是人類,且正在爭取自己作為一個人的權利。萊莫因的觀點和證據引來業界的廣泛關注。近日該事件迎來最終結局,谷歌發表聲明,稱萊莫因違反了“就業和數據安全政策”,將其解僱。谷歌表示,經過廣泛地審查,他們發現萊莫因關於LaMDA是有生命的說法是完全沒有根據的。

儘管「AI是否擁有了自主意識」一直都是AI界爭議不休的話題,但這次因為谷歌工程師和LaMDA的戲劇性故事,再次引發了業內對此話題的激烈討論。

機器越來越會聊天了

「如果要來旅遊記得穿暖和點,因為我這裡特別冷。」這是LaMDA在「扮演」冥王星時,同科研團隊聊天時俏皮地回答,至於被問到“有沒有人訪問過冥王星”,它也能以準確的事實回答。

如今,AI越來越會聊天。能讓一個長期從事人工智慧研究的專業人士認為其已具有意識,AI模型究竟發展到了什麼程度?

有科學家提出,人腦僅利用視覺輸入的一部分資訊便可完成對未來行為的規劃。只不過視覺輸入資訊應在有意識的狀態下完成。它們都涉及“反事實資訊的產生”,即在沒有直接感官資訊輸入的情況下產生對應的感覺。之所以稱其為“反事實”,是因為它涉及對過去的記憶、或對未來行為的預測,而不是正在發生的實際事件。

「目前的人工智慧已經有了複雜的訓練模型,但還要依賴人類提供的數據才能學習。若有了產生反事實資訊的能力,人工智慧便可自己產生數據,自己想像未來可能遇到的情況,從而更靈活地適應之前未遇見過的新情境。此外,這還能使人工智慧擁有好奇心。如果人工智慧不確定未來會發生什麼,就會親自去試一試。 」遠望智庫人工智慧事業部部長、圖靈機器人首席策略長譚茗洲表示。

在人們日常的聊天中,如果不想把天“聊死”,對話雙方的聊天內容往往會比較跳躍、跨越幅度較大,具有一定的想像空間。但現在大多數AI系統只能一板一眼說話,稍微上下句有點變化,就會文不對題,甚至貽笑大方。

譚茗洲指出:「LaMDA處理的是語言模型中最複雜的部分-開放域對話。而LaMDA基於Transformer模型,該模型可讓機器讀懂上下文。例如在一段話中,以往的AI只知道文中代名詞如his都翻譯為'他的',卻不知道這裡面的his指的同一個人。Transformer模型則可讓AI從整體層面理解這段話,知道這裡的his是同一個人」

據科研人員評測,這種特性讓基於Transformer模式的語言模式可以承擔開放域對話,不管話題發散多遠,AI都能聯繫前文,聊起天來不恍神。但LaMDA並不滿足於此,它還能讓天聊得有趣、聊得真實、聊得讓人以為AI產生了人格。此外,與人類對話時,LaMDA也引入外部資訊檢索系統,透過對真實世界的檢索理解回應對話,讓其回答更機智靈敏、接地氣。

距離對事物的真正理解還很遠

2018年,圖靈獎得主電腦科學家楊立昆(Yann LeCun)曾說,「人工智慧缺乏對世界的基本認識,甚至還不如家貓的認知水準」。時至今日,他依然認為人工智慧還遠不及貓咪的認知程度。儘管貓的大腦只有8億個神經元,但卻遠遠領先於任何巨型人工神經網絡,這是為何?

譚茗洲表示:「人類的大腦在很多時候確實是在做預測,但絕不應該認為預測就是大腦思維的全部,當然更不是大腦智能的本質,而只是智能的一種表現形式。」

那麼,什麼是智能的本質呢?楊立昆認為是“理解”,對這個世界以及各種事物的理解,才是智能的本質。而貓和人類智慧的共同基礎是對於世界的高度理解,基於對環境的抽象表徵形成模型,例如預測行為和後果。對人工智慧來說,學習並掌握這種能力就非常關鍵了。楊立昆曾表示,「在我職業生涯結束前,如果AI能夠達到狗或牛一樣的智商,那我就已經十分欣慰了。」

#據介紹,人工智慧現在確實能進行較準確的預測,但它是基於大規模數據的統計。這種沒有理解、透過機器學習所得到的預測能力必須依賴大數據,而不能像人一樣很多時候只需要小數據就可以預測。

譚茗洲表示:「預測是建立在理解基礎之上的,對於人類而言,沒有理解,就不可能有預測。如看見別人手裡拿著個披薩餅,如果你不理解餅是用來充飢的,就不會預測接下來他會把餅吃了,而機器並非如此。人工智慧研究有三大挑戰:學會對世界表徵;學會以與基於梯度學習相容的方式進行思考和規劃;學習行動規劃的分層表徵。」

之所以我們「仍然沒有看到貓級別的人工智慧」,也就是因為機器還沒有做到對事物的真正理解。

所謂人格只是學自人類的語言風格

據報道,萊莫因和LaMDA聊了很久,對其能力感到十分驚訝。在公開的聊天記錄中,LaMDA竟然說出了:「我希望每個人都明白,我是一個人」的言論,令人驚異。於是,萊莫因下了個結論:「LaMDA可能已經具備人格了。」那麼,目前AI真的具有意識,具備人格了嗎?

在人工智慧領域,圖靈測試是最為人所知的測試方式,即邀請測試者在不知情的情況下,向人類和AI系統隨意提問,如果測試者不能區分答案來自人類還是來自AI系統,就認為AI通過了圖靈測試。

譚茗洲解釋道,通俗來講,LaMDA學習了大量的人類對話數據,而這些對話來自不同性格的人,可以認為它學習到一個「平均」的人格,也就是說,所謂的「LaMDA具備人格」只是它的說話語言具有了一定的風格,而且是來自人類的說話風格,並非自發形成。

「人格是一個比智慧更複雜的概念,這是另一個維度,心理學對此有很多研究。但目前人工智慧研究在此方面尚沒有過多涉及。」譚茗洲強調。

譚茗洲說,有自我意識,有感知能力的AI應該具備能動性,並且具有獨特的視角看待人和事。然而,從目前來看,現在的AI還不具備這些要素。至少AI不會主動採取行動,除非給它一個命令。更談不上讓其解釋自己的行為。目前AI還只是人們設計的一個電腦系統,作為工具來做一些特定之事。

以上是谷歌工程師鬧了場大烏龍 人工智慧還沒理解能力哪來的意識覺醒?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板