近幾日,關於如何監督 AI 的討論越來越熱烈,各位大佬們意見非常不統一。
比如圖靈獎三大王 Geoffrey Hinton、Yoshua Bengio、Yann LeCun 就出現了兩種觀點。 Hinton、Bengio 為一隊,他們強烈呼籲加強對 AI 的監管,否則可能引發「AI 滅絕人類」的風險。 LeCun 與他們的觀點並不相同,他認為 AI 強監管必將帶來巨頭壟斷,結果是只有少數公司控制 AI 的研發。
為了表達自己的想法,很多人以簽署聯名信的方式來傳達觀點,就拿剛剛過去的幾天來說,Bengio、Hinton 等再發聯名信《在快速發展的時代管理人工智慧風險》,呼籲在開發AI 系統之前,研究者應該採取緊急治理措施。
最近一封名為《人工智慧安全與開放的聯合聲明》的公開信在社群媒體上引起了軒然大波
請點擊以下連結查看公開信:https://open.mozilla.org/letter/
截至目前,深度學習三巨頭之一的LeCun、史丹佛大學電腦科學系教授吳恩達等370 多人已經在這封公開信上簽名。名單還在持續更新中。
LeCun 表示,「開放、透明和廣泛的訪問使軟體平台更安全、更可靠。這封來自Mozilla 基金會的公開信,我也簽了名,它為開放的人工智慧平台和系統提供了理由。」
#以下為公開信內容:
我們正處於人工智慧治理的關鍵時刻。為了減輕人工智慧系統當前和未來的危害,我們需要擁抱開放、透明和廣泛的存取。這需要成為全球的首要任務
的確,公開可用的模型存在風險和漏洞 —— 人工智慧模型可能被惡意行為者濫用或被裝備不足的開發人員部署。然而,我們一次又一次地看到,各種專有技術都是如此 —— 增加公眾訪問和審查使技術更安全,而不是更危險。對基礎人工智慧模型進行嚴格和專有的控制是保護我們免受大規模傷害的唯一途徑,這種想法往好了說是天真,往壞了說就是危險。
此外,人類發展的歷史告訴我們,迅速採取錯誤的監管可能會導致權力集中,從而損害競爭和創新。開放模型可以為公開辯論提供資訊並改進策略制定。如果我們的目標是安全、保障和問責,那麼開放和透明就是實現這一目標的重要因素。
我們正處於一場關於人工智慧時代「開放」意義的動態討論之中。這場重要的辯論不該放慢腳步。相反,它應該加快速度,鼓勵我們嘗試、學習和開發新的方法,在人工智慧安全競賽中利用開放性。
我們需要建立一套方法來促進開源和開放。這些方法可以作為以下方面的基礎:
透過個人研究、合作和知識共享,我們可以加速對人工智慧能力的風險和危害的了解
#2. 透過幫助監管機構採用工具來監控大規模人工智慧系統,加強公眾監督和問責。
降低新玩家的進入門檻,是專注於創建負責任的人工智慧的重要方面
作為這份公開信的簽署人,我們來自各行各業的多元群體,包括科學家、政策制定者、工程師、活動家、企業家、教育工作者和記者等等。我們代表了關於如何管理和發布開源人工智慧的不同觀點。然而,我們強烈同意一個觀點:在人工智慧時代,採取開放、負責任和透明的方法對於確保我們的安全至關重要
在人工智慧的安全領域,開放是解決問題的方法,而不是加劇問題的源頭
簽署者:需要進行改寫
#########目前,這封僅出現數天的公開信在持續發酵,在國外AI 社群已經引起了極大的關注與討論,大家可以持續關註名單更新。
如果你同意這封聯名信的觀點,也可以提交自己的資訊簽名。
對 AI 強監管,到底是弊大於利,還是利大於弊,還需要時間給予答案。
以上是LeCun、吳恩達等370多人簽聯名信:嚴格控制AI是危險的,開放才是解藥的詳細內容。更多資訊請關注PHP中文網其他相關文章!