人工智慧三階段:為何科學家聯署限制可導致人類滅絕的AI技術
包括OpenAI和GoogleDeepmind負責人在內的專家警告,人工智慧可能導致人類滅絕,但是機器如何取代人類呢?
自2022年11月推出以來,ChatGPT——一款使用人工智慧根據用戶的需求回答問題或產生文字甚至程式碼的聊天機器人,已成為史上成長最快的網路應用程式。
在短短兩個月的時間裡,它的活躍用戶達到了1億。根據科技監測公司Sensor Town的說法,Instagram花了長達兩年半的時間才達成這個里程碑。
OpenAI公司在微軟的資助下開發的ChatGPT廣受歡迎,引發了人們對人工智慧影響人類未來的激烈猜測。
數十名專家支持在人工智慧安全中網頁上發表的聲明,表示:「減輕人工智慧造成的滅絕風險,應該與流行病和核戰等其他社會規模的風險一起成為全球優先事項。」
但也有人表示,這種擔憂被誇大了。
模仿人類
ChatGPT、DALL-E、Bard和AlphaCode等人工智慧產出的文本(從散文、詩歌和笑話到電腦程式碼)和圖像(如圖表、照片和藝術品),幾乎與人類自己的作品一模一樣,難以區分。
學生用它來寫作業,政客們用它來寫演講稿。民主黨眾議員傑克·奧金克洛斯在美國國會推出了這項資源。
科技巨頭IBM稱,將停止招募7,800個可以由人工智慧處理的職位。
如果所有這些變化讓你不知所措,那就做好準備:
我們還只是處於人工智慧的第一階段,還有兩個階段即將到來,一些科學家害怕這可能會威脅到人類的生存。
以下是三個階段。
1. 弱人工智慧(Artificial Narrow Intelligence)
弱人工智慧也被稱為限制領域人工智慧,專注於單一任務,在一系列功能中執行重複性工作。
它通常從大量資料中學習,例如從網路上學習,但只在它被程式設計的特定領域學習。
一個例子是像棋程序,能夠擊敗世界冠軍,但無法執行其他任務。
智慧型手機上到處都是使用這種技術的應用程序,從GPS地圖,到了解你的口味並提出建議的音樂和視頻程式。
複雜得多的系統,例如無人駕駛汽車和ChatGPT,仍然屬於弱人工智慧的類別。他們不能在設定的角色範圍之外運作,所以不能靠自己做決定。
但一些專家認為,被編程為具有自動學習功能的系統,如ChatGPT或AutoGPT,可能會進入下一個發展階段。
2. 人工通用智能(Artificial General Intelligence)
當機器能夠完成人類所能完成的任何智力任務時,人工通用智慧就會到來。
它也被稱為「強人工智慧」。
6個月的暫停
#2023年3月,1000多名技術專家呼籲“所有人工智慧實驗室立即暫停至少6個月的比GPT-4更強大的人工智慧系統的訓練”,GPT-4是ChatGPT的最新版本。
包括蘋果聯合創始人史蒂夫·沃茲尼亞克以及包括特斯拉和SpaceX公司老闆馬斯克在內的其他科技巨頭寫道:「具有與人類競爭智力的人工智慧系統可能對社會和人類構成深刻的風險。」馬斯克曾是OpenAI的共同創辦人之一,後來因與公司領導層意見不合而辭去了董事會職務。
在这封由非营利机构“生命未来研究所”发布的信中,专家们表示,如果公司拒绝迅速停止它们的项目,“政府应该介入并实施暂停令”,以便设计和实施安全措施。
“既聪明又愚蠢”
牛津大学人工智能伦理研究所的卡丽莎·韦丽兹在这封信上签了名。她拒绝签署,因为她认为人工智能安全中心最终发布的警告声明过于极端。
“我们目前正在开发的这种人工智能既聪明又愚蠢,”她告诉安德鲁·韦伯,“如果有人尝试过ChatGPT或其他人工智能,他们会注意到它们有非常显著的局限性。”
韦丽兹表示,她担心人工智能会以极高的速度制造错误信息。
随着2024年美国总统选举的临近,我越来越担心像推特和其他重要平台解雇了他们的人工智能道德和安全团队。”
美国政府承认潜在的威胁。白宫在5月4日的一份声明中称:“人工智能是我们这个时代最强大的技术之一,但为了抓住它带来的机遇,我们必须先降低它的风险。”
美国国会曾传唤OpenAI首席执行官山姆·阿尔特曼回答有关ChatGPT的问题。
在参议院听证会上,阿尔特曼表示,随着人工智能的发展,政府对他的行业进行监管是“非常重要的”。
生命未来研究所的公共政策研究员古铁雷斯对记者解释,人工智能带来的巨大挑战之一是,“没有一个由专家组成的联合机构来决定如何监管它,就像政府间气候变化专门委员会那样。”
这就把我们带到了人工智能的第三个也是最后一个阶段。
3. 超人工智能
这个理论认为,一旦我们达到第二阶段,我们将很快进入最后阶段,即“超级人工智能”。当人工智能超过人类智能时,就会出现这种情况。
牛津大学哲学家、人工智能专家博斯特罗姆将超智能定义为“在几乎所有领域,包括科学创造力、一般智慧和社交技能,都远远超过最优秀的人类大脑的智能”。
“人类要成为工程师、护士或律师,必须学习很长时间。古铁雷斯解释说,“通用人工智能的难点在于它能够在我们无法做到的情况下不断自我改进。”。
科幻小说
这个概念让人想起了电影《终结者》的情节,在这部电影中,机器发动了一场毁灭人类的核战争。
普林斯顿大学的计算机科学家纳拉亚南此前曾告诉记者,科幻般的灾难场景是不现实的:“目前的人工智能还远远不足以让这些风险成为现实。最后,它分散了人们对人工智能短期危害的注意力。”
虽然对于机器是否真的能获得人类拥有的那种广泛的智能,尤其是在情商方面,存在很多争论,但这是那些认为我们即将实现通用人工智能的人最担心的事情之一。
最近,"人工智能教父"杰弗里·欣顿警告称,我们可能即将迈过这个里程碑。欣顿是教授机器从经验中学习的先驱。
“我认为,现在(机器)并不比我们聪明。考虑到他已退休并且已经年届75岁,我认为他们很可能很快实现这一点。
欣顿在发给《纽约时报》的一份宣布离开谷歌的声明中表示,他现在对自己所做的工作感到后悔,因为他担心“糟糕的参与者”会利用人工智能做“坏事”。
他警告说,这些机器最终可能会“创造出‘我需要更多权力’这样的子目标”,这将带来“生存风险”。
雖然欣頓承認人工智慧可能有風險,但他認為在短期內其帶來的好處要大於風險,因此認為我們不應該停止開發這種技術。 」他說。
滅絕還是不死
#英國物理學家史蒂芬霍金發出嚴厲的警告。
「人工智慧的全面發展可能意味著人類的終結,」他在2014年告訴記者,也就是他去世前四年。
他說,具有這種智慧水平的機器「將自行發展,並以越來越快的速度重新設計自己」。
奈米機器人與永生
#未來主義發明家兼作家庫茲韋爾是人工智慧的最大愛好者之一,他是Google的人工智慧研究員,也是矽谷奇點大學的共同創辦人。
庫茲韋爾認為,人類將能夠使用超級智慧的人工智慧來克服生物障礙。
2015年,他預測,到2030年,因為奈米機器人(非常小的機器人)在我們體內工作,能夠修復和治癒任何損傷或疾病,人類將實現永生。
人工智慧管理
古鐵雷斯同意,關鍵是要創建一個人工智慧治理系統。
「想像一下這樣的未來:一個實體擁有地球上每個人及其習慣的大量資訊(因為網路搜尋),它可以用我們無法意識到的方式控制我們。」他說。
「最糟糕的場景並不是人類與機器人之間的戰爭。我們與一個比我們更聰明的存在共享這個星球,而且很遺憾的是,我們沒有意識到自己被操縱了。」
以上是人工智慧三階段:為何科學家聯署限制可導致人類滅絕的AI技術的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

本站6月27日訊息,剪映是由位元組跳動旗下臉萌科技開發的一款影片剪輯軟體,依託於抖音平台且基本面向該平台用戶製作短影片內容,並相容於iOS、安卓、Windows 、MacOS等作業系統。剪映官方宣布會員體系升級,推出全新SVIP,包含多種AI黑科技,例如智慧翻譯、智慧劃重點、智慧包裝、數位人合成等。價格方面,剪映SVIP月費79元,年費599元(本站註:折合每月49.9元),連續包月則為59元每月,連續包年為499元每年(折合每月41.6元) 。此外,剪映官方也表示,為提升用戶體驗,向已訂閱了原版VIP

透過將檢索增強生成和語意記憶納入AI編碼助手,提升開發人員的生產力、效率和準確性。譯自EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG,作者JanakiramMSV。雖然基本AI程式設計助理自然有幫助,但由於依賴對軟體語言和編寫軟體最常見模式的整體理解,因此常常無法提供最相關和正確的程式碼建議。這些編碼助手產生的代碼適合解決他們負責解決的問題,但通常不符合各個團隊的編碼標準、慣例和風格。這通常會導致需要修改或完善其建議,以便將程式碼接受到應

想了解更多AIGC的內容,請造訪:51CTOAI.x社群https://www.51cto.com/aigc/譯者|晶顏審校|重樓不同於網路上隨處可見的傳統問題庫,這些問題需要跳脫常規思維。大語言模型(LLM)在數據科學、生成式人工智慧(GenAI)和人工智慧領域越來越重要。這些複雜的演算法提升了人類的技能,並在許多產業中推動了效率和創新性的提升,成為企業保持競爭力的關鍵。 LLM的應用範圍非常廣泛,它可以用於自然語言處理、文字生成、語音辨識和推薦系統等領域。透過學習大量的數據,LLM能夠產生文本

大型語言模型(LLM)是在龐大的文字資料庫上訓練的,在那裡它們獲得了大量的實際知識。這些知識嵌入到它們的參數中,然後可以在需要時使用。這些模型的知識在訓練結束時被「具體化」。在預訓練結束時,模型實際上停止學習。對模型進行對齊或進行指令調優,讓模型學習如何充分利用這些知識,以及如何更自然地回應使用者的問題。但是有時模型知識是不夠的,儘管模型可以透過RAG存取外部內容,但透過微調使用模型適應新的領域被認為是有益的。這種微調是使用人工標註者或其他llm創建的輸入進行的,模型會遇到額外的實際知識並將其整合

機器學習是人工智慧的重要分支,它賦予電腦從數據中學習的能力,並能夠在無需明確編程的情況下改進自身能力。機器學習在各個領域都有廣泛的應用,從影像辨識和自然語言處理到推薦系統和詐欺偵測,它正在改變我們的生活方式。機器學習領域存在著多種不同的方法和理論,其中最具影響力的五種方法被稱為「機器學習五大派」。這五大派分別為符號派、聯結派、進化派、貝葉斯派和類推學派。 1.符號學派符號學(Symbolism),又稱符號主義,強調利用符號進行邏輯推理和表達知識。該學派認為學習是一種逆向演繹的過程,透過現有的

編輯|ScienceAI問答(QA)資料集在推動自然語言處理(NLP)研究中發揮著至關重要的作用。高品質QA資料集不僅可以用於微調模型,也可以有效評估大語言模型(LLM)的能力,尤其是針對科學知識的理解和推理能力。儘管目前已有許多科學QA數據集,涵蓋了醫學、化學、生物等領域,但這些數據集仍有一些不足之處。其一,資料形式較為單一,大多數為多項選擇題(multiple-choicequestions),它們易於進行評估,但限制了模型的答案選擇範圍,無法充分測試模型的科學問題解答能力。相比之下,開放式問答

編輯|KX在藥物研發領域,準確有效地預測蛋白質與配體的結合親和力對於藥物篩選和優化至關重要。然而,目前的研究並沒有考慮到分子表面訊息在蛋白質-配體相互作用中的重要作用。基於此,來自廈門大學的研究人員提出了一種新穎的多模態特徵提取(MFE)框架,該框架首次結合了蛋白質表面、3D結構和序列的信息,並使用交叉注意機制進行不同模態之間的特徵對齊。實驗結果表明,該方法在預測蛋白質-配體結合親和力方面取得了最先進的性能。此外,消融研究證明了該框架內蛋白質表面資訊和多模態特徵對齊的有效性和必要性。相關研究以「S

本站8月1日消息,SK海力士今天(8月1日)發布博文,宣布將出席8月6日至8日,在美國加州聖克拉拉舉行的全球半導體記憶體峰會FMS2024,展示諸多新一代產品。未來記憶體和儲存高峰會(FutureMemoryandStorage)簡介前身是主要面向NAND供應商的快閃記憶體高峰會(FlashMemorySummit),在人工智慧技術日益受到關注的背景下,今年重新命名為未來記憶體和儲存高峰會(FutureMemoryandStorage),以邀請DRAM和儲存供應商等更多參與者。新產品SK海力士去年在
