Sam Altman預警:AI滅絕人類! 375+大佬簽署22字聯名信,LeCun唱反調
|本文轉自:新智元【新智元導讀】AI真的要滅絕人類嗎? 375 大佬共同簽署了22字聯名信。
3月,千名大佬簽署暫停「超級AI」研發的聯名信,讓整個業界為之震驚。
就在昨天,一封只有22個字的聯名信再次引起軒然大波。
寥寥數語,把AI類比為了傳染病和核戰,分分鐘滅絕人類的那種。
簽名者中,有Hinton和Bengio兩位人工智慧的「教父」,還有矽谷巨頭的高階主管,Sam Altman、Demis Hassabis等在人工智慧領域工作的研究人員。
截止目前,已經有370多名從事人工智慧主管都簽署了這份聯名信。
然而,這封信並不是得到所有人的支持。
「圖靈三巨頭」中的一位LeCun直言:我不同意。
使用人工智慧可以增強人類的智力,與核武和致命病原體不同,這在本質上是一件好事。我們甚至沒有一個可靠的藍圖來創造接近人類水平的人工智慧。一旦我們做到了,我們會想出讓它安全的方法。 ”
這封聯名信究竟說了啥?
「致命」公開信
22字,言簡意賅:
「降低AI給人類帶來滅絕的風險,應該被提到全球層級的優先程度。就像我們應對傳染病、核戰這種社會危機一樣。」
而簽署這封公開信的AI界人士一眼根本望不到頭。
赫然映入眼簾的就是Geoffrey Hinton,Yoshua Bengio,GoogleDeepMind的CEO Demis Hassabis,OpenAI的CEO Sam Altman,Anthropic的CEO Dario Amodei。
這裡面Hinton的含金量不用多說,前Google副總裁、深度學習泰斗、神經網路之父,以及圖靈獎得主。
Yoshua Bengio同樣也是圖靈獎得主,和Hinton,LeCun被合稱為圖靈獎三巨頭。 (然而LeCun在這件事上和另兩個巨頭態度截然相反)
除了在科技巨頭公司任職的大佬,還不乏知名AI學者。例如UC柏克萊的Dawn Song,清華大學的張亞勤。
而在這些耳熟能詳的名字下面,就是無數的AI界人士了。
甚至,每個人都可以參與簽署這封公開信。
只要填寫姓名、信箱、職位等等訊息,就可以參與簽署了。
不過,可以選擇的身份並不多。 (狗頭)
反對:滅絕人類純扯淡
當然,Meta首席科學家LeCun還是一如既往地「唱唱反調」。
他一向的觀點都是:現在的AI發展剛哪裡到哪裡啊,就天天把威脅和安全掛在嘴邊。
他說列舉出來的威脅,根本超出了目前人工智慧發展的水平,因為這些威脅根本不存在。在我們能夠初步設計出人工智慧達到狗的水平(更不用說達到人類的水平)之前,討論如何確保其安全還為時過早。
史丹佛大學的吳恩達立場和LeCun相同,但理由卻有點不同。
他認為,不是AI會導致各種各樣的問題,而是我們將會遇到的各種各樣的問題只能靠AI來解決。
例如:下一次傳染病爆發,氣候變遷導致的人口減少,小行星撞擊地球等等。
他表示,人類想繼續生存、繁榮下去,得加速AI的發展,而不是減慢。
也有網友評論,你說的這不是AI,而是MAGIC(魔法)吧。
AI風險面面觀
那麼,這些大牛們所宣稱的足以滅絕人類的風險包括什麼呢?
他們總結了以下8個面向。
武器化
部分人可能會將AI用於帶有破壞性的地方,會導致人類生存的風險,加劇政治動盪。
比方說,現在深度強化學習的技術已經可以應用於空戰了,機器學習能用於製造化學武器(已有論文表明,GPT-4可以在實驗室中自主進行實驗、合成化學品)。
此外,近年來研究人員一直在開發用於自動進行網路攻擊的AI系統,還有軍方領導人想要讓AI控制核子發射井。
因此,未來AI強國會佔據戰略優勢,各國之間的軍備競賽會轉向AI領域。就算大部分國家都確保各自建構的系統是安全的,不會威脅他國安全,仍然可能有國家蓄意用AI做壞事,造成傷害。
這給人的感覺就像核武,有個不聽話不老實的就全白玩兒。
因為數位領域的危害傳播速度很快。
訊息誤傳
#訊息誤傳這個事情大家早就有所耳聞。遠的不說,前一陣子美國律師用ChatGPT打官司,結果舉的案例有6個都是杜撰的例子,現在還熱呼呼。
而有影響力的集體,如國家、政黨、組織,有能力用AI來影響(通常是潛移默化地)並改變普通人的政治信念、意識形態等等。
同時AI本身也有能力產生非常有煽動性(或有說服力)的觀點,激起使用者強烈的情緒。
而這些預想的可能後果是完全不可預料的,不得不防。
代理「把戲」
#AI系統根據具象的目標進行訓練,而這些目標只是我們人類所重視的東西的間接代理。
就好像AI經過訓練,就可以給用戶推送他們愛看的影片或文章。
但不代表,這種方式就是好的。推薦系統可能會導致人們的想法越來越極端,也更容易預測每個使用者的偏好。
而隨著未來AI的表現越來越強、影響越來越大,我們拿來訓練系統的目標也必須更仔細的確認。
人類「退化」
#如果看過「機器人總動員」這部電影,我們就能想像未來時代,機器越來越強,人類是一副什麼樣子。
大腹便便、身體素質低下、毛病一堆。
就是因為,什麼都交給AI了,人類自然就要「退化」了。
尤其是,在大量崗位被AI的自動化所取代的未來圖景下,這種場面更成為可能中的很可能。
不過,按LeCun的觀點,估計又得批駁一番。咱離「機器人總動員」想像的場景還差得遠。
科技壟斷
#與技術本身無關,這一點強調的是可能會出現的「技術壟斷」。
也許有一天,最強大的AI由越來越少的利害關係人所掌控,使用權也被他們牢牢地捏在手心。
而真到了那一步的話,剩下的普通人就只能處在一個任人擺佈的狀態,因為根本反抗不了。
想想大劉的科幻小說「贍養人類」吧。
一個終產者靠著AI統治著全球的everybody,多可怕。
不可控的發展
#這點主要想說明,AI系統發展到某一步,可能結果會超出設計者的想像,且無法再進行控制。
其實這也是主流的擔心所糾結的地方。
總是會有人擔心,AI發展到最後,會像「魔鬼終結者」裡的「天網」一樣,或是「鋼鐵人」裡的「奧創」一樣,不受掌控,試圖毀滅人類。
在發展的過程中,存在一些風險只有在進一步推進時才會顯現出來,而等到發現時,已經為時已晚。甚至還可能會出現新的目標。
欺騙
這點有一些抽象,簡單來說,就是AI系統可能會「欺騙」人類。
這種「欺騙」並不是故意的,只是因為AI為了實現代理人的目標是處的手段而已。
透過「欺騙」獲得人類的認可,要比透過正常管道獲得人類的認可更有效率,而效率才是AI首要考慮的要素。
尋求權力的行為
#這點和技術壟斷之間有相關性。
正因為會出現技術壟斷的情況,各國就會追求壟斷技術的權力。
而這種「追求」,很可能是會帶來難以預料的後果的。
參考資料:
https://www.safe.ai/statement-on-ai-risk
#https://twitter.com/ylecun/status/1663616081582252032?s=46&t=iBppoR0Tk6jtBDcof0HHgg
以上是Sam Altman預警:AI滅絕人類! 375+大佬簽署22字聯名信,LeCun唱反調的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

本文回顧了AI最高的藝術生成器,討論了他們的功能,對創意項目的適用性和價值。它重點介紹了Midjourney是專業人士的最佳價值,並建議使用Dall-E 2進行高質量的可定製藝術。

本文比較了諸如Chatgpt,Gemini和Claude之類的頂級AI聊天機器人,重點介紹了其獨特功能,自定義選項以及自然語言處理和可靠性的性能。

Meta的Llama 3.2:多模式和移動AI的飛躍 Meta最近公佈了Llama 3.2,這是AI的重大進步,具有強大的視覺功能和針對移動設備優化的輕量級文本模型。 以成功為基礎

Chatgpt 4當前可用並廣泛使用,與諸如ChatGpt 3.5(例如ChatGpt 3.5)相比,在理解上下文和產生連貫的響應方面取得了重大改進。未來的發展可能包括更多個性化的間

文章討論了Grammarly,Jasper,Copy.ai,Writesonic和Rytr等AI最高的寫作助手,重點介紹了其獨特的內容創建功能。它認為Jasper在SEO優化方面表現出色,而AI工具有助於保持音調的組成

2024年見證了從簡單地使用LLM進行內容生成的轉變,轉變為了解其內部工作。 這種探索導致了AI代理的發現 - 自主系統處理任務和最少人工干預的決策。 Buildin

本文評論了Google Cloud,Amazon Polly,Microsoft Azure,IBM Watson和Discript等高級AI語音生成器,重點介紹其功能,語音質量和滿足不同需求的適用性。

獵鷹3:革命性的開源大語模型 Falcon 3是著名的獵鷹系列LLMS系列中的最新迭代,代表了AI技術的重大進步。由技術創新研究所(TII)開發
