警惕人工智慧事不宜遲
我們無法完全正確地指定目標,也無法預測或預防追求錯誤目標的超能力機器在全球範圍內會造成的傷害。我們已經看到了一些例子,例如社群媒體演算法利用人們的偏好來優化點擊量,這給民主體制帶來了災難性的後果。
尼克•博斯特羅姆(Nick Bostrom)在2014年出版的《超級智慧:路徑、危險與策略》(Superintelligence: Paths, Danger, Strategies)一書中詳細闡述了嚴肅對待風險的主張。 《經濟學人》(The Economist)雜誌對這本書進行了評論,評論最後寫道:「在地球上引入第二個智能物種影響深遠,值得我們深思。」
#當然,在在利害攸關的情況下,智者們已經在苦思冥想了:參與嚴肅的辯論、權衡利弊、尋求解決方案、找出解決方案的漏洞等。據我所知,這些工作收效甚微,而且遭到了各種否認。
一些著名的人工智慧研究人員的論點幾乎不值一駁。我在文章中看到或在會議上聽到了不下幾十種說法,以下是其中的一部分:
電子計算器在算術方面無人能敵,而計算器並沒有佔領世界;因此,沒有理由擔心超人類人工智慧。
歷史上沒有發生過機器殺死數百萬人的例子,有鑑於此,這種情況未來也不會發生。
宇宙中沒有無限大的物理量,智力也不例外,所以無須過度擔憂超級智慧。
或許人工智慧研究人員最常見的回答是:「我們可以關掉它。」阿蘭•圖靈自己也提出了這種可能性,但他並不太自信:
如果機器可以思考,它可能會比我們思考得更全面,那麼我們會處在什麼位置?即使可以讓機器屈服於我們,例如在關鍵時刻關閉電源,但我們作為一個物種,也應該感到自愧不如……這種新的危險……一定會讓我們倍感焦慮。
關掉機器是行不通的,原因很簡單,超級智慧實體一定會考慮到這種可能性,會採取措施來阻止。它會這麼做不是因為它“想要生存”,而是因為它在追求我們給它設定的目標,並且知道如果被關掉,它就會失敗。我們不能簡單地“關掉它”,就像我們不能僅憑將棋子放在相應的棋盤格上就打敗阿爾法圍棋一樣。
其他形式的否認則引發了更複雜的觀點,例如智力是多方面的。例如,一個人的空間智力可能高於其他人,但社交智力則不如後者,所以我們不能按照嚴格的智力順序來排列所有人。對機器來說更是如此:將阿爾法圍棋的「智力」與Google搜尋引擎的「智力」進行比較毫無意義。
《連線》雜誌的創始主編、極富洞察力的技術評論員凱文•凱利(Kevin Kelly)將這一觀點又向前推進了一步。他在《超人類人工智慧神話》(The Myth of a Superhuman AI)一書中寫道:「智力不是一個單一的維度,所以『比人類更聰明』是一個毫無意義的概念。」關於超級智能的憂慮被一竿打翻了。
現在,有一個很明顯的答案,機器可能在所有相關智力的維度上超越人類。在這種情況下,即便以凱利的嚴格標準,機器人也會比人類聰明。不過這個相當有力的假設並不是反駁凱利的論點的必要條件。
以黑猩猩為例。黑猩猩的短期記憶可能優於人類,即使是人類擅長的任務,例如回憶數字序列也是如此。短期記憶是智力的一個重要向度。根據凱利的論點,人類並不比黑猩猩聰明,事實上,他會說「比黑猩猩聰明」是毫無意義的概念。
對僅僅因為人類的寬容而存活下來的黑猩猩和其他物種,以及所有人類已經摧毀的物種而言,這可不是什麼安慰。同樣,對於可能擔心被機器消滅的人來說,這也不算是安慰。
有人認為超級智慧無法實現,因此超級智慧的風險也就不存在。這些說法並不新鮮,但現在人工智慧研究人員自己都說這種人工智慧不可能實現,實在令人驚訝。例如,AI100組織的重要報告《2030年的人工智慧與生活》(Artificial Intelligence and Life in 2030)表示:「與電影場景不同,未來現實中不會也不可能出現超人類機器人。」
據我所知,這是第一次有嚴肅的人工智慧研究人員公開表示不可能出現人類級或超人類人工智慧,而且這發生在人工智慧研究快速發展的時期,這期間一個又一個障礙被打破。這就好比是一群頂尖的癌症生物學家宣布他們一直在愚弄我們:他們一直都知道永遠不會有治癒癌症的方法。
是什麼促成了這種重大轉變?報告中沒有提供任何論點或證據。 (事實上,有什麼證據能夠證明,物理上不可能存在比人類大腦更優的原子排列呢?)我認為主要原因在於部落主義——這是一種對抗可能對人工智慧構成「攻擊」的事物的本能,然而,將超級智慧的人工智慧視為可能對人工智慧構成攻擊的事物似乎有些奇怪,用人工智慧永遠不會實現其目標來為人工智慧辯護更顯得荒謬。我們不能靠打賭斷定人類的創造力有限來確保未來的災難不會發生。
嚴格來說,超人類人工智慧不是沒有可能,那我們是否無須過早擔心它的風險?電腦科學家吳恩達認為,這就像是在擔心「火星上人口過剩」。不過,長期風險仍然會引起人們的注意。何時擔憂有關人類的潛在嚴重問題,不僅取決於問題發生的時間,還取決於準備和實施解決方案需要多長時間。
例如,要探測一顆將於2069年與地球相撞的小行星,我們會等到2068年才開始研究解決方案嗎?當然不是!人類將設立全球性的緊急計畫來尋找應對威脅的方法,因為我們無法提前獲知我們需要多少時間。
吳恩達的觀點也讓人感覺我們根本不可能把數十億人轉移到火星上去。這個類比是錯誤的。我們投入了大量的科學和技術資源來創造更強大的人工智慧系統,卻很少考慮成功之後會發生什麼。我們可以做一個更恰當的類比:計劃把人類遷移到火星,而不考慮到達後的呼吸、飲食問題。有些人可能會認為這個計劃不明智。
另一種迴避潛在問題的方法是斷言人們對風險的擔憂源自於無知。例如,艾倫人工智慧研究所的執行長奧倫•艾奇奧尼(Oren Etzioni)指責呼籲人們認清人工智慧潛在威脅的伊隆•馬斯克和史蒂芬•霍金是盧德主義(對新技術和新事物的盲目衝動反抗)者:
每一項新興科技創新都將人們置於恐懼中。從工業時代初期織工把鞋子丟進紡織機,到今天對機器人殺手的畏怯,我們不知道新科技會對自我意識和生計產生什麼影響。當我們一無所知,便會心生恐慌。
即使從表面上理解這個經典的謬誤論證,它也站不住腳。霍金對科學推理並不陌生,馬斯克監督並投資了多個人工智慧研究計畫。如果認為提出擔憂的比爾•蓋茲、I.J.古德(I.J. Good)、馬文•明斯基、阿蘭•圖靈和諾伯特•維納(Norbert Wiener)都沒有資格討論人工智慧,那就更不可信了。
指責盧德主義也是完全錯誤的。這就好比當核子工程師指出有必要控制裂變反應時,有人指責核子工程師是盧德主義者。也就是說,提及人工智慧的風險就意味著否認人工智慧的潛在利益。再以奧倫•艾奇歐尼為例:
悲觀預測往往沒有考慮到人工智慧在預防醫療事故、減少車禍等方面的潛在優勢。
近期,臉譜網執行長馬克•祖克柏與伊隆•馬斯克進行了媒體交流:
#反對人工智慧就是在反對不會發生事故的更安全的汽車,反對更準確的病人病情診斷。
任何提及風險的人都是在“反對人工智慧”,這種觀念很離奇。 (核安工程師「反對電」嗎?)更重要的是,整個論點恰恰是逆向的,原因有二。首先,如果沒有潛在利益,就沒有人工智慧研究的動力和人類級人工智慧帶來的危險,我們就不會進行相關探討。其次,如果不能成功降低風險,就不會有任何利益。
1979年三里島、1986年切爾諾貝利和2011年日本福島發生的災難性事件大大降低了核能的潛在利益。這些核災嚴重限制了核工業的發展。義大利於1990年放棄了核能,比利時、德國、西班牙和瑞士已經宣布放棄核能計畫。從1991年到2010年,每年新增的核電淨容量大約是切爾諾貝利事故前幾年的1/10。
奇怪的是,有這些事件作為前車之鑑,著名的認知科學家史蒂文•平克(Steven Pinker)依然認為,不應呼籲人們關注人工智能的風險,因為“先進社會的安全文化”將確保消除所有重大的人工智慧風險。即便無視我們先進的安全文化導致的切爾諾貝利核事故、福島核事故和全球暖化失控,平克的論點也完全沒有說到重點。發揮作用的安全文化包括指出潛在的失效模式和尋找方法來進行預防,而人工智慧的標準模型即是失效模式。
平克也認為,有問題的人工智慧行為源自於設定特定類型的目標;如果不考慮這些,就不會有任何問題:
人工智慧反烏托邦計畫將狹隘的大男人主義心理投射到了智力的概念。他們認為,具有超人類智力的機器人會設定一些目標,例如推翻它們的主人,或征服世界。
深度學習先驅、臉譜網人工智慧研究主管揚•勒丘恩(Yann LeCun)在淡化人工智慧風險時,經常引用同樣的觀點:
我們無須讓人工智慧擁有自我保護本能、嫉妒心理等……人工智慧不會產生破壞性的“情緒”,除非我們將這些情緒融入其中。
那些認為這種風險可以忽略不計的人,沒有解釋為何超級人工智慧必須處於人類控制之下。
實際上,不管我們是否植入「情感」或「慾望」(例如自我保護、資源取得、知識發掘,或極端情況下的統治世界)都全然無關緊要。機器無論如何都會產生這些情感,就像我們所建構目標的子目標一樣——不管它是什麼性別。正如「關掉機器」的觀點所揭示的,對於一台機器來說,生命終止本身並不是壞事。儘管如此,還是要避免生命終止,因為一旦終止,它們就很難達到目標。
「避免設定目標」觀點的一個常見變體是:足夠智能的系統必然會憑藉其智力而自行製定「正確」的目標。 18世紀的哲學家大衛‧休謨在《人性論》中駁斥了這個觀點。尼克•博斯特羅姆在《超級智能》(Superintelligence)一書中將休謨的觀點視為正交命題:
智力和最終目標呈正交關係:任何水平的智力都可以或多或少地與任何最終目標結合。
例如,無人駕駛汽車的目的地可以是任何指定的地點;讓汽車更好地自動駕駛,並不意味著它會自動拒絕前往需要既定數學計算的地址。
同樣,不難想像,通用智慧系統可以或多或少地被賦予目標,包括最大化回形針的數量或已知圓周率的數位。這就是強化學習系統和其他獎勵優化器的工作原理:演算法是完全通用的,可以接受任何獎勵訊號。對於在標準模型中工作的工程師和電腦科學家來說,正交命題只是一個給定命題。
著名機器人專家羅德尼•布魯斯克(Rodney Brooks)明確批判了博斯特羅姆的正交命題,他斷言,一個程序“不可能聰明到發明出顛覆人類社會的方法來實現人類為之設定的目標,卻不了解它是如何給人類造成困擾的」。
不過,鑑於布魯斯克對這個問題的定義,這樣的程式不僅是可能存在的,實際上更是不可避免的。布魯斯克認為,機器「實現人類設定目標」的最佳方案正在為人類帶來問題。由此可見,這些問題反映了人類在設定目標時忽略了對人類有價值的東西。由機器執行的最佳方案很可能會給人類造成困擾,而機器也很可能意識到了這一點,但是,機器顯然不會認為這些問題是有問題的,這不關它們的事。
總而言之,那些認為人工智慧帶來的風險微乎其微的「懷疑論者」並未解釋為什麼超級人工智慧系統必須處於人類控制之下;他們甚至沒有試圖解釋為什麼超級人工智慧系統永遠不會被開發出來。
人工智慧領域必須承擔風險,並盡力降低風險,而不是繼續陷入對立中傷和反覆挖掘不可信的論點。就我們所知,這些風險既非渺小,也非不可逾越。第一步就是要認識到必須取代標準模型,改變人工智慧系統優化一個固定目標的模式。這是一項糟糕的工程。我們需要做大量的工作來重塑和再構人工智慧的基礎。
以上是警惕人工智慧事不宜遲的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

本站6月27日訊息,剪映是由位元組跳動旗下臉萌科技開發的一款影片剪輯軟體,依託於抖音平台且基本面向該平台用戶製作短影片內容,並相容於iOS、安卓、Windows 、MacOS等作業系統。剪映官方宣布會員體系升級,推出全新SVIP,包含多種AI黑科技,例如智慧翻譯、智慧劃重點、智慧包裝、數位人合成等。價格方面,剪映SVIP月費79元,年費599元(本站註:折合每月49.9元),連續包月則為59元每月,連續包年為499元每年(折合每月41.6元) 。此外,剪映官方也表示,為提升用戶體驗,向已訂閱了原版VIP

透過將檢索增強生成和語意記憶納入AI編碼助手,提升開發人員的生產力、效率和準確性。譯自EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG,作者JanakiramMSV。雖然基本AI程式設計助理自然有幫助,但由於依賴對軟體語言和編寫軟體最常見模式的整體理解,因此常常無法提供最相關和正確的程式碼建議。這些編碼助手產生的代碼適合解決他們負責解決的問題,但通常不符合各個團隊的編碼標準、慣例和風格。這通常會導致需要修改或完善其建議,以便將程式碼接受到應

想了解更多AIGC的內容,請造訪:51CTOAI.x社群https://www.51cto.com/aigc/譯者|晶顏審校|重樓不同於網路上隨處可見的傳統問題庫,這些問題需要跳脫常規思維。大語言模型(LLM)在數據科學、生成式人工智慧(GenAI)和人工智慧領域越來越重要。這些複雜的演算法提升了人類的技能,並在許多產業中推動了效率和創新性的提升,成為企業保持競爭力的關鍵。 LLM的應用範圍非常廣泛,它可以用於自然語言處理、文字生成、語音辨識和推薦系統等領域。透過學習大量的數據,LLM能夠產生文本

大型語言模型(LLM)是在龐大的文字資料庫上訓練的,在那裡它們獲得了大量的實際知識。這些知識嵌入到它們的參數中,然後可以在需要時使用。這些模型的知識在訓練結束時被「具體化」。在預訓練結束時,模型實際上停止學習。對模型進行對齊或進行指令調優,讓模型學習如何充分利用這些知識,以及如何更自然地回應使用者的問題。但是有時模型知識是不夠的,儘管模型可以透過RAG存取外部內容,但透過微調使用模型適應新的領域被認為是有益的。這種微調是使用人工標註者或其他llm創建的輸入進行的,模型會遇到額外的實際知識並將其整合

機器學習是人工智慧的重要分支,它賦予電腦從數據中學習的能力,並能夠在無需明確編程的情況下改進自身能力。機器學習在各個領域都有廣泛的應用,從影像辨識和自然語言處理到推薦系統和詐欺偵測,它正在改變我們的生活方式。機器學習領域存在著多種不同的方法和理論,其中最具影響力的五種方法被稱為「機器學習五大派」。這五大派分別為符號派、聯結派、進化派、貝葉斯派和類推學派。 1.符號學派符號學(Symbolism),又稱符號主義,強調利用符號進行邏輯推理和表達知識。該學派認為學習是一種逆向演繹的過程,透過現有的

編輯|ScienceAI問答(QA)資料集在推動自然語言處理(NLP)研究中發揮著至關重要的作用。高品質QA資料集不僅可以用於微調模型,也可以有效評估大語言模型(LLM)的能力,尤其是針對科學知識的理解和推理能力。儘管目前已有許多科學QA數據集,涵蓋了醫學、化學、生物等領域,但這些數據集仍有一些不足之處。其一,資料形式較為單一,大多數為多項選擇題(multiple-choicequestions),它們易於進行評估,但限制了模型的答案選擇範圍,無法充分測試模型的科學問題解答能力。相比之下,開放式問答

本站8月1日消息,SK海力士今天(8月1日)發布博文,宣布將出席8月6日至8日,在美國加州聖克拉拉舉行的全球半導體記憶體峰會FMS2024,展示諸多新一代產品。未來記憶體和儲存高峰會(FutureMemoryandStorage)簡介前身是主要面向NAND供應商的快閃記憶體高峰會(FlashMemorySummit),在人工智慧技術日益受到關注的背景下,今年重新命名為未來記憶體和儲存高峰會(FutureMemoryandStorage),以邀請DRAM和儲存供應商等更多參與者。新產品SK海力士去年在

編輯|KX在藥物研發領域,準確有效地預測蛋白質與配體的結合親和力對於藥物篩選和優化至關重要。然而,目前的研究並沒有考慮到分子表面訊息在蛋白質-配體相互作用中的重要作用。基於此,來自廈門大學的研究人員提出了一種新穎的多模態特徵提取(MFE)框架,該框架首次結合了蛋白質表面、3D結構和序列的信息,並使用交叉注意機制進行不同模態之間的特徵對齊。實驗結果表明,該方法在預測蛋白質-配體結合親和力方面取得了最先進的性能。此外,消融研究證明了該框架內蛋白質表面資訊和多模態特徵對齊的有效性和必要性。相關研究以「S
