首頁 科技週邊 人工智慧 矽谷熱辯:AI是否會毀滅人類?

矽谷熱辯:AI是否會毀滅人類?

May 30, 2023 pm 11:18 PM
人工智慧

矽谷熱辯:AI是否會毀滅人類?

5月22日消息,隨著生成式人工智慧等新科技成為科技界新熱潮,關於人工智慧是否會毀滅人類的爭論愈演愈烈。有知名科技領導者警告稱,人工智慧可能會接管整個世界。其他研究人員和高階主管則表示,這種說法是科幻小說。

在上週召開的美國國會聽證會上,人工智慧新創公司OpenAI執行長薩姆·奧爾特曼(Sam Altman)明確提醒大家,該公司公開的這項技術存在安全風險。

奧特曼警告說,ChatGPT聊天機器人等人工智慧技術可能會引發虛假資訊和惡意操縱等問題,並呼籲進行監管。

他表示,人工智慧可能「對世界造成嚴重傷害」。

奧特曼在美國國會作證之際,關於人工智慧是否會主宰世界的辯論正轉向主流,整個矽谷和致力於推廣人工智慧技術的人士意見不一、分歧也越來越大。

以前曾有個別人認為,機器的智力水平可能會突然超越人類,並決定毀滅人類,現在這種邊緣型想法正在獲得越來越多人的支持。有些權威科學家甚至都認為電腦學會超越人類並能控制人的時間將會縮短。

但許多研究人員和工程師表示,雖然不少人擔心現實中出現像電影《魔鬼終結者》中的天網那種殺手型人工智慧,但這種擔憂並不是基於合乎邏輯的好科學。相反地​​分散了人們對這種技術已經造成現實問題的注意力,包括奧特曼在證詞中所描述的問題。現在的人工智慧技術正在混淆版權,加劇人們對數位隱私和監控的擔憂,也可能被用來提高駭客突破網路防禦的能力。

Google微軟以及OpenAI都已經公開發布突破性的人工智慧技術。這些技術可以與使用者進行複雜對話,並根據簡單文字提示產生圖像。關於邪惡人工智慧的爭論已經升溫。

「這不是科幻小說,」人工智慧教父、Google前員工傑弗瑞‧辛頓(Geoffrey Hinton)說。辛頓表示,比人類更聰明的人工智慧可能在5到20年內出現,而他先前的估計是30到100年。

「就好像外星人已經登陸地球或即將登陸,」他說。 「我們真的無法接受,因為它們講話流利,它們很有用,它們會寫詩,還會回覆無聊的信。但它們真的是外星人。」

#儘管如此,在大型科技公司內部,許多與這項技術有密切關係的工程師並不認為人工智慧取代人類是大家現在需要擔心的事情。

人工智慧新創公司Cohere旗下研究實驗室Cohere for AI主管、前谷歌研究員薩拉·胡克(Sara Hooker)說:「在積極從事這一學科的研究人員中,關注當前現實風險的人遠遠多於關注人類是否有生存風險的人。」

目前的現實風險很多,例如發布受過不良內容訓練的機器人會加深偏見和歧視等問題;人工智慧的絕大多數訓練資料用的都是英語,主要來自北美或歐洲,這可能會使互​​聯網更加偏離大多數人的語言和文化;這些機器人也經常編造虛假訊息,將其偽裝成事實;在某些情況下,它們甚至會陷入攻擊用戶的無限循環對話。此外,人們也不清楚這項技術帶來的連鎖反應,所有產業都在為人工智慧可能帶來的顛覆或變革做準備,甚至律師或醫生等高薪工作也會被取代。

也有人認為,未來人工智慧可能會傷害人類,甚至以某種方式控制整個社會。雖然事關人類生存的風險似乎更加嚴峻,但許多人認為,這種風險更難量化,也不那麼具體。

「有一群人認為,這些只是演算法。它們只是在重複網路上看到的內容。」今年4月份Google執行長桑德爾·皮查伊(Sundar Pichai)在接受採訪時表示: 「還有一種觀點認為,這些演算法正湧現出新特性,具有創造力、推理能力和規劃能力。」「我們需要審慎對待這件事。」

這場爭論源自於過去10年間電腦科學領域機器學習技術的不斷突破。機器學習創造出相關軟體和技術,可以在沒有人類明確指令的情況下,從大量資料中提取出新穎見解。這種技術在社交媒體演算法、搜尋引擎和圖像識別程式等各種應用中無處不在。

去年,OpenAI和其他幾家小公司開始陸續發布使用新機器學習技術的工具:生成式人工智慧。這種所謂的大語言模型用網上抓取的上萬億張照片和句子進行自我訓練後,可以根據簡單提示生成圖像和文本,與用戶開展複雜對話,並編寫計算機代碼。

未來生命研究所(Future of Life Institute)執行董事安東尼‧阿吉雷(Anthony Aguirre)說,大公司正在競相開發越來越聰明的機器,幾乎沒有任何監管。未來生命研究所成立於2014年,目的是研究社會存在的風險。在特斯拉執行長馬斯克(Elon Musk)的資助下,研究所於2015年開始研究人工智慧毀滅人類的可能性。

阿吉雷說,如果人工智慧獲得比人類更好的推理能力,它們就會試圖實現自我控制。這是值得人們擔心的,就像現在存在的現實問題一樣。

他說:「如何約束它們不偏離軌道,將變得越來越複雜。」「不少科幻小說已經說得很具體了。」

今年3月份,阿吉雷幫忙寫了一封公開信,呼籲暫停訓練新的人工智慧模型6個月。這封公開信共獲得27,000位人士簽名支持,獲得2018年計算機科學最高獎項的資深人工智能研究員約書亞·本吉奧(Yoshua Bengio)和最具影響力的人工智能初創企業之一首席執行官埃馬德·莫斯塔克(Emad Mostaque)都名列其中。

馬斯克無疑是其中最引人注目的。他曾幫忙創建OpenAI,現在自己也在忙著組建人工智慧公司,最近投資了訓練人工智慧模型所需的昂貴電腦設備。

多年來馬斯克一直認為,人類應該對發展超級人工智慧的後果倍加小心。在上週特斯拉年度股東大會期間接受採訪時,馬斯克表示,自己當初之所以資助OpenAI,是因為他覺得谷歌聯合創始人拉里·佩奇(Larry Page)對人工智能的威脅“漫不經心” 。

美版知乎Quora也在開發自家人工智慧模型。公司執行長亞當·德安吉洛(Adam D’angelo)沒有在公開信上簽名。他談到這封公開信時說,「人們提出這項建議時有各自不同的動機。」

OpenAI執行長奧爾特曼也不認同公開信內容。他表示,自己同意這封公開信的部分內容,但總體上缺乏“技術細節”,並不是監管人工智慧的正確方式。奧爾特曼在上週二舉行的人工智慧聽證會上表示,他公司的做法是儘早向大眾推出人工智慧工具,以便在科技變得更強大之前發現和解決問題。

但科技界有關殺手型機器人的爭論越來越多。其中一些最嚴厲的批評來自多年來一直研究這項技術缺陷的研究人員。

2020年,Google研究人員蒂姆尼特·格布魯(Timnit Gebru)和瑪格麗特·米切爾(Margaret Mitchell)與華盛頓大學學者艾米麗·M·本德( Emily M. Bender)和安潔莉娜·麥克米蘭-梅傑(Angelina McMillan-Major)合作撰寫了一篇論文。他們認為,大語言模型模仿人類的能力不斷增強,這加劇了人們會認為它們是有感情的風險。

相反,他們認​​為這些模型應該被理解為“隨機的鸚鵡學舌”,或者說僅僅是非常擅長純粹根據概率預測句子接下來會出現哪一個單詞,而不需要理解自己在說什麼。其他批評者則稱大語言模型為「自動補全」或「知識灌腸」。

他們詳細記錄了大語言模型如何照本宣科地產生性別歧視等不良內容。格布魯說,這篇論文曾被Google壓下來了。在自己堅持公開發表這篇文章後,谷歌解雇了她。幾個月後,公司又解雇了米切爾。

這篇論文的四位合作者也寫了一封信,以回應馬斯克等人簽名的公開信。

他們說:「用一個幻想中的人工智慧烏托邦或世界末日來分散我們的注意力很危險。」「相反,我們應該關注那些開發公司非常真實、非常現實的剝削行為,這些公司正在迅速集中力量,加劇社會不平等。」

Google當時拒絕就格布魯被解僱一事發表評論,但表示仍有許多研究人員在研究負責任和合乎道德的人工智慧。

「毫無疑問,現代人工智慧是強大的,但這並不意味著它們對人類生存的威脅迫在眉睫,」Cohere公司人工智慧研究主管胡克說。

目前,關於人工智慧擺脫人類控制的大部分討論都集中在其如何迅速克服自身的限制上,就像《魔鬼終結者》中的天網一樣。

胡克說:「大多數技術和技術中存在的風險都是逐步變化的。」「目前存在的技術限制加劇了大多數風險。」

去年,Google解僱了人工智慧研究員布萊克·萊蒙(Blake Lemoine)。他在受訪時曾表示,自己堅信Google的LaMDA人工智慧模型具有感知能力。當時,萊蒙遭到了業內許多人的嚴厲斥責。但一年後,科技界也有不少人開始接受他的觀點。

前谷歌研究員辛頓說,直到最近使用了最新的人工智慧模型之後,自己改變了對這項技術潛在危險的既定看法。辛頓向電腦程式提出一些複雜的問題,在他看來,這些問題需要人工智慧模型能大致理解他的請求,而不僅僅是根據訓練資料預測可能的答案。

今年3月份,微軟研究人員表示,在研究OpenAI的最新模型GPT4時,他們觀察到了“通用人工智慧的火花”,其指的就是能夠像人類一樣獨立思考的人工智慧。

微軟已經花了數十億美元與OpenAI合作開發必應聊天機器人。質疑者認為,微軟正在圍繞人工智慧技術打造自己的公眾形象。人們總認為這種技術比實際情況更先進,微軟可以從中獲益良多。

微軟研究人員在論文中認為,這項技術僅僅基於所訓練的文本內容,就已經發展出對世界空間和視覺的理解。 GPT4可以自動畫出獨角獸,並描述如何將包括雞蛋在內的隨機物體堆疊在一起,讓雞蛋不會破碎。

微軟研究團隊寫道:「除了掌握語言之外,GPT-4還可以解決涉及數學、程式設計、視覺、醫學、法律、心理學等領域的各種複雜新問題,而且不需要任何特殊提示。」他們總結說,人工智慧在許多領域的能力與人類相當。

不過其中一位研究人員承認,儘管人工智慧研究人員曾嘗試制定量化標準來評估機器的智慧程度,但如何定義「智慧」依舊非常棘手。

他說,「它們都存在問題或有爭議。」

以上是矽谷熱辯:AI是否會毀滅人類?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

位元組跳動剪映推出 SVIP 超級會員:連續包年 499 元,提供多種 AI 功能 位元組跳動剪映推出 SVIP 超級會員:連續包年 499 元,提供多種 AI 功能 Jun 28, 2024 am 03:51 AM

本站6月27日訊息,剪映是由位元組跳動旗下臉萌科技開發的一款影片剪輯軟體,依託於抖音平台且基本面向該平台用戶製作短影片內容,並相容於iOS、安卓、Windows 、MacOS等作業系統。剪映官方宣布會員體系升級,推出全新SVIP,包含多種AI黑科技,例如智慧翻譯、智慧劃重點、智慧包裝、數位人合成等。價格方面,剪映SVIP月費79元,年費599元(本站註:折合每月49.9元),連續包月則為59元每月,連續包年為499元每年(折合每月41.6元) 。此外,剪映官方也表示,為提升用戶體驗,向已訂閱了原版VIP

使用Rag和Sem-Rag提供上下文增強AI編碼助手 使用Rag和Sem-Rag提供上下文增強AI編碼助手 Jun 10, 2024 am 11:08 AM

透過將檢索增強生成和語意記憶納入AI編碼助手,提升開發人員的生產力、效率和準確性。譯自EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG,作者JanakiramMSV。雖然基本AI程式設計助理自然有幫助,但由於依賴對軟體語言和編寫軟體最常見模式的整體理解,因此常常無法提供最相關和正確的程式碼建議。這些編碼助手產生的代碼適合解決他們負責解決的問題,但通常不符合各個團隊的編碼標準、慣例和風格。這通常會導致需要修改或完善其建議,以便將程式碼接受到應

七個很酷的GenAI & LLM技術性面試問題 七個很酷的GenAI & LLM技術性面試問題 Jun 07, 2024 am 10:06 AM

想了解更多AIGC的內容,請造訪:51CTOAI.x社群https://www.51cto.com/aigc/譯者|晶顏審校|重樓不同於網路上隨處可見的傳統問題庫,這些問題需要跳脫常規思維。大語言模型(LLM)在數據科學、生成式人工智慧(GenAI)和人工智慧領域越來越重要。這些複雜的演算法提升了人類的技能,並在許多產業中推動了效率和創新性的提升,成為企業保持競爭力的關鍵。 LLM的應用範圍非常廣泛,它可以用於自然語言處理、文字生成、語音辨識和推薦系統等領域。透過學習大量的數據,LLM能夠產生文本

微調真的能讓LLM學到新東西嗎:引入新知識可能讓模型產生更多的幻覺 微調真的能讓LLM學到新東西嗎:引入新知識可能讓模型產生更多的幻覺 Jun 11, 2024 pm 03:57 PM

大型語言模型(LLM)是在龐大的文字資料庫上訓練的,在那裡它們獲得了大量的實際知識。這些知識嵌入到它們的參數中,然後可以在需要時使用。這些模型的知識在訓練結束時被「具體化」。在預訓練結束時,模型實際上停止學習。對模型進行對齊或進行指令調優,讓模型學習如何充分利用這些知識,以及如何更自然地回應使用者的問題。但是有時模型知識是不夠的,儘管模型可以透過RAG存取外部內容,但透過微調使用模型適應新的領域被認為是有益的。這種微調是使用人工標註者或其他llm創建的輸入進行的,模型會遇到額外的實際知識並將其整合

你所不知道的機器學習五大學派 你所不知道的機器學習五大學派 Jun 05, 2024 pm 08:51 PM

機器學習是人工智慧的重要分支,它賦予電腦從數據中學習的能力,並能夠在無需明確編程的情況下改進自身能力。機器學習在各個領域都有廣泛的應用,從影像辨識和自然語言處理到推薦系統和詐欺偵測,它正在改變我們的生活方式。機器學習領域存在著多種不同的方法和理論,其中最具影響力的五種方法被稱為「機器學習五大派」。這五大派分別為符號派、聯結派、進化派、貝葉斯派和類推學派。 1.符號學派符號學(Symbolism),又稱符號主義,強調利用符號進行邏輯推理和表達知識。該學派認為學習是一種逆向演繹的過程,透過現有的

為大模型提供全新科學複雜問答基準與評估體系,UNSW、阿貢、芝加哥大學等多家機構共同推出SciQAG框架 為大模型提供全新科學複雜問答基準與評估體系,UNSW、阿貢、芝加哥大學等多家機構共同推出SciQAG框架 Jul 25, 2024 am 06:42 AM

編輯|ScienceAI問答(QA)資料集在推動自然語言處理(NLP)研究中發揮著至關重要的作用。高品質QA資料集不僅可以用於微調模型,也可以有效評估大語言模型(LLM)的能力,尤其是針對科學知識的理解和推理能力。儘管目前已有許多科學QA數據集,涵蓋了醫學、化學、生物等領域,但這些數據集仍有一些不足之處。其一,資料形式較為單一,大多數為多項選擇題(multiple-choicequestions),它們易於進行評估,但限制了模型的答案選擇範圍,無法充分測試模型的科學問題解答能力。相比之下,開放式問答

SOTA性能,廈大多模態蛋白質-配體親和力預測AI方法,首次結合分子表面訊息 SOTA性能,廈大多模態蛋白質-配體親和力預測AI方法,首次結合分子表面訊息 Jul 17, 2024 pm 06:37 PM

編輯|KX在藥物研發領域,準確有效地預測蛋白質與配體的結合親和力對於藥物篩選和優化至關重要。然而,目前的研究並沒有考慮到分子表面訊息在蛋白質-配體相互作用中的重要作用。基於此,來自廈門大學的研究人員提出了一種新穎的多模態特徵提取(MFE)框架,該框架首次結合了蛋白質表面、3D結構和序列的信息,並使用交叉注意機制進行不同模態之間的特徵對齊。實驗結果表明,該方法在預測蛋白質-配體結合親和力方面取得了最先進的性能。此外,消融研究證明了該框架內蛋白質表面資訊和多模態特徵對齊的有效性和必要性。相關研究以「S

SK 海力士 8 月 6 日將展示 AI 相關新品:12 層 HBM3E、321-high NAND 等 SK 海力士 8 月 6 日將展示 AI 相關新品:12 層 HBM3E、321-high NAND 等 Aug 01, 2024 pm 09:40 PM

本站8月1日消息,SK海力士今天(8月1日)發布博文,宣布將出席8月6日至8日,在美國加州聖克拉拉舉行的全球半導體記憶體峰會FMS2024,展示諸多新一代產品。未來記憶體和儲存高峰會(FutureMemoryandStorage)簡介前身是主要面向NAND供應商的快閃記憶體高峰會(FlashMemorySummit),在人工智慧技術日益受到關注的背景下,今年重新命名為未來記憶體和儲存高峰會(FutureMemoryandStorage),以邀請DRAM和儲存供應商等更多參與者。新產品SK海力士去年在

See all articles