6月4日消息,隨著人工智慧技術的快速發展和普及,許多行內人士擔心不加限制的人工智慧可能會導致人類滅亡。但專家表示,人工智慧帶來的最大負面影響不太可能是科幻電影中的核戰場面,反而更有可能是假訊息、操縱用戶等造成的社會環境不斷惡化。
近幾個月來,業內愈發擔心人工智慧。就在本週,300多名產業領袖發表了一封聯名公開信,警告人工智慧可能導致人類滅絕,對待人工智慧應該像「疫情和核戰」那樣加以嚴肅對待。
像是「人工智慧末日」這個名詞總是會讓人聯想到科幻電影中機器人統治世界的畫面,但實際上任由發展的人工智慧會帶來哪些後果?專家說,現實可能不像電影情節那樣起伏,不會是人工智慧啟動核彈,而是社會基礎環境逐漸惡化。
加州大學柏克萊分校人工智慧安全計畫主任傑西卡紐曼(Jessica Newman)說:“我不認為人們該擔心人工智慧會變壞,或者人工智慧會有某種惡意慾望。” 「危險來自一些更簡單的東西,那就是人們可能會給人工智慧編程,讓它做有害的事情,或者我們最終會把天生不準確的人工智慧系統整合到越來越多的社會領域,從而造成傷害。」
這並不是說我們不應該擔心人工智慧。即便末日場景不太可能發生,強大的人工智慧也有能力用錯誤訊息問題不斷加劇、操縱人類用戶以及為勞動市場帶來巨大變化等形式破壞社會穩定。
雖然人工智慧技術已經存在了幾十年時間,但像ChatGPT這種語言學習模型的普及加劇了人們長期以來的擔憂。紐曼說,與此同時,科技公司爭先恐後將人工智慧應用到他們的產品中,彼此進行激烈競爭,帶來了一堆麻煩。
她說:「我非常擔心我們眼下走的路。」「對於整個人工智慧領域來說,我們正處於一個特別危險的時期,因為這些系統雖然看起來很特別,但仍然非常不準確,並且存在固有漏洞。」
接受採訪的專家們表示,他們最擔心的有不少方面。
許多領域早已經啟動了所謂的人工智慧變革。機器學習技術支撐著社群媒體新聞推送演算法,長期以來,人們一直指責這種技術加劇了固有偏見和錯誤訊息等問題。
專家警告說,隨著人工智慧模型的發展,這些尚未解決的問題只會進一步加劇。最糟糕的情況可能影響到人們理解事實真相和有效訊息,導致更多基於謊言的事件發生。專家表示,錯誤和虛假資訊的增加可能引發進一步的社會動盪。
「可以說,社群媒體的崩潰是我們第一次遇到真正愚蠢的人工智慧。因為推薦系統實際上只是簡單的機器學習模型,」數據科學平台Anaconda執行長兼聯合創始人Peter Wang說。 「我們真的徹底失敗了。」
Peter Wang補充說,這些錯誤可能導致系統陷入永無止境的惡性循環,因為語言學習模型也是在錯誤訊息的基礎上進行訓練,為未來模型創造的又是有缺陷的資料集。這可能會導致「模型自相殘殺」效應,未來模型會因為過去模型的輸出放大偏差,並永遠受到影響。
專家們稱,不準確的錯誤訊息和容易誤導人們的假訊息都被人工智慧放大了。像ChatGPT這種大語言模型很容易出現所謂的「幻覺」現象,反覆捏造杜撰假訊息。新聞業監督機構NewsGuard的一項研究發現,數十個完全由人工智慧撰寫資料的線上「新聞」網站中有許多內容都存在不準確之處。
NewsGuard聯合執行長 Gordon Crovitz和史蒂文·布里爾(Steven Brill)表示,這種系統可能會被壞人利用,故意大規模傳播錯誤資訊.
克羅維茨說:「一些惡意的行為者可以製造虛假陳述,然後利用這個系統的倍增效應來大規模傳播虛假信息。」「有人說人工智能的危險被誇大了,但在新聞信息領域,它正在產生驚人影響。」
全球非營利組織Partnership on AI的麗貝卡·芬利(Rebecca Finlay)表示:「就更大規模的潛在危害而言,錯誤訊息是人工智慧最有可能對個人造成傷害的方面、風險也最高。」「問題是我們如何創造一個生態系統,讓我們能夠理解什麼是真實的?」「我們又該如何驗證我們在網路上看到的東西?”
雖然大多數專家都表示,錯誤訊息是最直接和最普遍的擔憂,但關於這項技術可能會在多大程度上對用戶的思想或行為產生負面影響,也存在不少爭議。
事實上,這些擔憂已經帶來了不少悲劇。據報道,比利時一名男子在得到聊天機器人的鼓動後自殺身亡。還有聊天機器人告訴用戶和他的伴侶分手,或是讓有飲食失調問題的用戶減肥。
紐曼說,從設計上講,因為聊天機器人是以對話的形式與用戶交流,可能會產生更多的信任感。
「大語言模型特別有能力說服或操縱人們在潛移默化中改變他們的信念或行為,」她說。 「孤獨和心理健康已經是全世界的大問題,我們需要觀察聊天機器人會對世界產生何種認知影響。」
#因此,專家們更擔心的不是人工智慧聊天機器人會獲得感知能力並超越人類用戶,而是它們背後的大語言模型可能會操縱人們對自己造成原本沒有的傷害。紐曼說,那些以廣告獲利模式運作的語言模式尤其如此,它們試圖操縱使用者行為,盡可能長時間地使用平台。
紐曼表示:「在很多情況下,給用戶造成傷害也不是因為他們想要這樣做,而是系統未能遵循安全協議造成的後果。」
紐曼補充說,聊天機器人的類人特性使用戶特別容易受到操縱。
她說:「如果你和一個使用第一人稱代名詞的東西交談,談論它自己的感受和所處情境,即使明知道它不是真實的,仍然更有可能引發一種它像人類的反應,讓人們更容易想要相信它。」「語言模型讓人們願意信任它,把它當成朋友,而不是工具。」
勞動力問題
長期存在的另一個擔憂是,數位自動化將取代大量人類工作。一些研究得出結論,到2025年,人工智慧將在全球取代8,500萬個工作崗位,未來將取代超過3億個工作崗位。
受人工智慧影響的產業以及職位非常多,有編劇也有資料科學家。現如今,人工智慧可以像真正的律師一樣通過律師考試,也能比真正的醫生更好回答健康方面的問題。
專家發出警告,人工智慧的崛起可能會導致出現大規模失業,從而造成社會不穩定。
Peter Wang警告說,大規模裁員在不久將來就會發生,“許多工作崗位都面臨風險”,而且幾乎沒有任何計劃應對後果。
他說:「在美國,沒有關於人們失業時如何生存的框架。」「這將導致很多混亂和動盪。對我來說,這是由此產生的最具體、最現實的意外後果。」
儘管人們越來越擔心科技業和社群媒體帶來的負面影響,但在美國,監管科技業和社群媒體平台的措施卻很少。專家擔心人工智慧也是如此。
Peter Wang說:「我們許多人擔心人工智慧發展的原因之一是,在過去的40年時間裡,作為一個社會,美國基本上放棄了對科技的監管。」
儘管如此,近幾個月來美國國會已經有了一番積極動作,舉行聽證會,讓OpenAI首席執行官薩姆·奧爾特曼(Sam Altman)就應該實施的監管措施作證。芬利表示,她對這些舉措感到“鼓舞”,但在製定人工智慧技術規格以及如何發布方面,還需要做更多工作。
她說:「很難預測立法和監管部門的反應能力。」「我們需要對這種程度的技術進行嚴格審查。」
儘管人工智慧的危害是業界大多數人最關心的問題,但並非所有專家都是「末日論者」。許多人也對這項技術的潛在應用感到興奮。
Peter Wang說:「實際上,我認為新一代人工智慧技術真的可以為人類釋放出巨大的潛力,讓人類社會以更大規模繁榮起來,要超越過去100年甚至200年的水平。”“實際上,我對它的積極影響非常非常樂觀。”
以上是人工智慧會導致人類滅亡嗎?專家稱更擔心假訊息和操縱用戶的詳細內容。更多資訊請關注PHP中文網其他相關文章!