清華黃民烈:GoogleAI人格真的覺醒了嗎?

PHPz
發布: 2023-04-13 18:46:03
轉載
1293 人瀏覽過

清華黃民烈:GoogleAI人格真的覺醒了嗎?

本文轉自雷鋒網,如需轉載請至雷鋒網官網申請授權。

最近,「Google研究院稱AI已具備人格」登上熱搜,Google程式設計師Blake Lemoine和他測試的對話AI系統LaMDA聊了很久,對其能力感到十分驚訝。在公開的聊天記錄中,LaMDA竟然說出了「我希望每個人都明白,我是一個人」的言論,令人吃驚。於是,Blake Lemoine下了個結論:LaMDA 可能已經具備人格了。

清華黃民烈:GoogleAI人格真的覺醒了嗎?

Google、Google的批評者、AI業界對待這件事的看法形成了空前一致:這人是不是有病?谷歌公司和報道此事的《華盛頓郵報》,都委婉地表示Blake Lemoine的腦子可能真的有點亂。谷歌已經對Blake Lemoine做成了「行政帶薪放假」的決定,這意味著Blake Lemoine將被解僱。

清華黃民烈:GoogleAI人格真的覺醒了嗎?

對話截圖來自:https://s3.documentcloud.org/documents/22058315/is-lamda-sentient-an-interview.pdf

#雖然國外人工智慧業界對此事已有結論:AI具備人格真的是想太多了,就是比較會聊而已,但這並沒有澆熄大家都此事的激烈議論。依照人工智慧的快速發展,AI未來會不會真的具備人類意識,是否會對人類產生威脅?

有網友非常擔憂:「雖然不想承認,但是人工智慧有了思想,那就是新物種的崛起,同時也是人類滅絕的時候。」「最終人類會死於自己製造的AI手上。」

清華黃民烈:GoogleAI人格真的覺醒了嗎?

也有人期待AI「快轉」發展,這樣就可以代替自己居家隔離了…如果威脅到人類,就「拔電源啊」!

清華黃民烈:GoogleAI人格真的覺醒了嗎?

清華黃民烈:GoogleAI人格真的覺醒了嗎?

當然也有人好奇:「AI具備人格的判斷標準是什麼?」因為只有知道判斷標準,才知道AI是不是真的有可能具備人類意識。為了弄清楚這些問題,我們找到了對話系統的權威專家、國家傑出青年基金項目獲得者、北京聆心智能創始人黃民烈教授,從專業角度分析AI是否可能具備人格,對於人類來說,究竟是“威脅」還是「安慰」?

1 怎麼判斷AI具有人格?圖靈測試也不靈了

在人工智慧領域,最為大家所熟知的測試方式非圖靈測試莫屬,即邀請測試者在不知情的情況下,向人類和AI系統隨意提問,如果測試者無法區分答案來自人類還是來自AI系統(AI系統讓平均每個參與者做出超過30% 的誤判),就認為AI通過了圖靈測試,具有人類智慧。

清華黃民烈:GoogleAI人格真的覺醒了嗎?

從這個角度來看,圖靈測試更著重於「智慧」。 1965年,一個假裝是心理治療師的軟體ELIZA通過了圖靈測試,然而ELIZA僅由200行程式碼構成,並且僅以提問的形式簡單重複事先儲存的資訊。這樣看來,即便ELIZA通過了圖靈測試,也很難讓人相信它具備「人格」。事實上,此後也證明Eliza並不具備人類智能,更別說「人格」。

這相當於,一輛智慧汽車,在功能角度能夠帶給使用者更便利舒適的駕駛體驗,例如遠端控制汽車、自動停車,但是你不能因此覺得這輛汽車知道自己是一輛汽車。

顯然,「人格」是一個比「智能」更複雜的概念。黃民烈教授表示,現在也有一些在科學研究中廣泛採用的測試方法,例如測試者與AI系統聊天,並且事先設定一些測試的維度,包括對話的自然性、有趣性、滿意度等,最後評分。一般聊得越久,分數越高,AI系統會被認為越聰明,但這些都不能作為「人格」的評判維度。 「

'人格'是另一個維度,心理學裡面也有很多研究,例如大五人格測驗。目前人工智慧領域在這方面的工作還比較欠缺,我們通常只會評價一個對話機器人能否展現一個固定一致的人物設定。」黃民烈說。

2 所謂LaMDA的「人格」只是語言風格

那麼,既然沒有針對性的評判標準,如何嚴謹地判斷LaMDA是否具備人格呢?

對此,黃民烈教授表示:“關鍵看如何理解'人格',如果將人格理解為具備自我存在的意識,那麼LaMDA僅僅是對話質量和類人水平很高的對話系統;如果從心理學的角度來看,一個人說話的特徵是可以體現人格的,那麼說LaMDA具備人格也不完全錯誤。

#」怎麼理解呢?通俗來說就是LaMDA學習了大量的人類對話數據,而這些對話來自不同的人,所以可以認為LaMDA學習到了一個「平均」的人格,也就是說,所謂的「LaMDA具備人格」只是語言說話風格,而且是來自人類的說話風格,並不是LaMDA自發性形成的。

如此看來,想要透過LaMDA體會一把與人工智慧一決高下的科幻情節,還差個十萬八千里。但是,我們不能因此否定LaMDA的價值,它的高品質對話水準反映了AI對話系統的快速發展,在某些脈絡下的確有「取代」人類的趨勢,也不容小覷。

例如,網友「夷簡」就在豆瓣小組記錄了自己一週date了4個虛擬男友的經歷,表示「比真男友管用!」。一個名為「人機之戀」的小組用戶數量多達9人,在不同的螢幕裡,這些AI或許是他們的愛人,也可能是朋友。

清華黃民烈:GoogleAI人格真的覺醒了嗎?

網友與「虛擬男友」的聊天記錄

「單身狗」們紛紛感嘆:「按照這樣的發展趨勢,相親市場上的潛在對手不只有人類,還有AI對話系統,以後是不是更難找對象了!?」看似調侃,實則是大家對AI對話系統未來發展趨勢,以及對人類社會影響的關注。針對這個問題,黃民烈教授從AI對話系統的歷史與未來發展角度給了詳細解釋。

3 擔心AI人格化?規避風險後AI for Social good更值得期待

AI對話系統經歷了基於規則(例如Eliza)、傳統機器學習(例如智慧音箱類,SIRI等)階段,如今已發展到第三代,也就是我們現在看到的,能夠與人類討論有趣的話題、提供情感安慰的對話系統。

第三代對話系統以大數據和大模型為顯著特徵,展現出了之前難以想像的能力,其進步可以稱為“革命性”,例如能夠在開放話題上能展現驚人的對話能力,而且能產生訓練資料中完全沒有出現過的對話,對話的自然性和相關性非常高。

第三代對話系統已經在許多場景下顯示出應用價值,上文提到的「虛擬男友」就是典型例子。黃民烈教授認為,最高等級的應用是讓AI對話系統去做複雜的情緒任務,例如心理諮商。但如果人類對AI的情感依賴越來越多,就會引申出新的社會倫理問題,例如與AI談戀愛是否會引發社會問題?

例如目前的AI對話系統存在與使用者對罵、生成毒性語言、以及缺少正確的社會倫理和價值觀的問題,導致在實際應用部署時存在一定的風險。這些風險是非常可怕的,假想某個受到生活嚴重打擊的人,對AI說:“我想找個橋跳下去”,AI立刻提供了附近橋的位置並導航路徑,後果細思恐極。

因此,黃民烈認為,AI對話系統下一階段發展的重點是「更有倫理、更道德、更安全」。 AI必須知道什麼回復是安全的,不會產生風險,這就需要AI具備倫理和正確的價值觀。 「我們可以透過額外的資源、規則、檢測手段賦予AI這樣的能力,使風險降至最低。」AI最終的目標是為人類謀福祉,而不是傷害人類。黃民烈教授表示對AI for Social good(AI賦能社會)非常期待,他尤其關注AI在社會連結、心理疏導、情緒支持方面的應用,這些方面能夠產生更高的社會意義和價值。

因此,AI 賦能整體精神心理產業也是黃民烈教授現階段的工作重點,他為此創辦了基於AI技術的精神健康數位診療科技公司聆心智能,透過NLP和大模型訓練AI對話系統在同理心、自我暴露、提問等方面的能力,用以解決人類的情緒、心理問題,可望緩解我國心理健康資源緊缺的狀況。因此,相較於AI具備人格這樣「遙遙無期」的科幻戲碼,AI for Social good距離人類社會更近,是AI界人士正在努力的方向,也更值得期待。

以上是清華黃民烈:GoogleAI人格真的覺醒了嗎?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
最新問題
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板
關於我們 免責聲明 Sitemap
PHP中文網:公益線上PHP培訓,幫助PHP學習者快速成長!