首頁 > 科技週邊 > 人工智慧 > 多國擬發ChatGPT禁令 關「野獸」的籠子要來了?

多國擬發ChatGPT禁令 關「野獸」的籠子要來了?

WBOY
發布: 2023-04-10 14:40:20
轉載
1600 人瀏覽過

「人工智慧想越獄「、」AI產生自我意識」、「AI終將殺死人類」、「矽基生命的進化」.......曾經只在賽博朋克等科技幻想中出現的劇情,在今年走向現實,生成式自然語言模型正遭受前所未有的質疑。

多國擬發ChatGPT禁令 關「野獸」的籠子要來了?

聚光燈下最矚目的那個是ChatGPT,3月底到4月初,OpenAI開發的這個文本對話機器人,突然從“先進生產力”的代表變成了人類的威脅。

先是被上千位科技圈的精英點名,放在「暫停訓練比GPT-4更強大的AI系統」的公開信中;緊接著,美國科技倫理組織又要求美國聯邦貿易委員會調查OpenAI,禁止發布商業版 GPT-4;後來,義大利成為第一個禁用ChatGPT 的西方國家;德國監管機構跟進表示,正在考慮暫時禁用ChatGPT。

GPT-4連帶著它的開發公司OpenAI突然成了眾矢之的,呼籲AI監管的各方聲音變得越來越響亮。 4月5日,ChatGPT以訪問量太大為由暫停了Plus付費版,這是一個可以優先體驗GPT-4模型的管道。

如果算力與伺服器是GPT-4使用設限的原因,那麼這是技術瓶頸使然,但從OpenAI的研發進展看,突破瓶頸的周期可能並不會太長,而人們也已經見識過AI對生產力提升的效果。

可是,當AI造假、洩漏資料成為GPT-4實操中的硬幣另一面時,AI倫理、人類與AI的邊界將成為全世界都無法繞過的問題,人類開始考慮將「野獸」關進籠子裡。

1.洩密、造假問題浮出水面

主權國家對ChatGPT的禁令接踵而至。

3月31日,義大利個人資料保護局宣布,禁止使用聊天機器人ChatGPT,並表示已對該應用程式背後的公司OpenAI展開調查,因為ChatGPT出現了用戶對話資料和付款服務支付資訊遺失情況,缺乏大規模收集和儲存個人資訊的法律依據。 4月3日,德國聯邦資料保護專員稱,出於資料保護的考慮,正在考慮暫時停用ChatGPT。此外,法國、愛爾蘭、西班牙等國的隱私監管機構都在跟進ChatGPT的隱私安全問題。

ChatGPT不僅在喪失各國「信任」。近期,韓國電子巨擘三星也因使用ChatGPT而出現了問題。根據SBS等韓媒通報事件,三星導入ChatGPT不到20天,便發生 3 起資料外洩事件,涉及半導體設備測量資料、產品良率等內容。對此,三星啟動了「緊急措施」:將員工向ChatGPT提問的限制在1024位元組以內。據悉,軟銀、日立、摩根大通等知名企業都曾發出了相關的限用通知。

應了「物極必反」那句老話,ChatGPT為AI產業注入「興奮劑」、引發科技巨頭AI競速的同時,也帶來了無法避免的安全問題,最後遭到多點「封鎖」。

資料安全僅是ChatGPT潛在風險中的冰山一角,背後是AI倫理對人類的挑戰:人工智慧工具缺乏透明度,人類並不清楚AI決策背後的邏輯;人工智能缺乏中立性,很容易出現不準確、帶有價值觀的結果;人工智慧的資料收集可能會侵犯隱私。

「AI倫理與安全」似乎過於宏觀,但當我們把視角聚焦在真實案例時,就會發現這個議題與我們每個人息息相關的事。

3月21日,新浪微博CEO王高飛發博曬了一段ChatGPT編造的假訊息:「瑞士信貸被強制出售,有172億美元的AT1債務被直接清零」。網友「一瑩海岸」對此指出,先前只有2017年西班牙大眾銀行破產時曾出現AT1債券減記的情況。

多國擬發ChatGPT禁令 關「野獸」的籠子要來了?

#

新浪微博CEO曬ChatGPT編造的答案

#王高飛也在微博上貼出ChatGPT的答案,說這樣的例子在2016年的葡萄牙BCP銀行事件中也曾出現過。但結果查證之後發現,BCP銀行的例子是ChatGPT編造的並不存在的事件,它所給的兩個信源開啟也是404。 「知道胡扯,沒想到連信源都是胡扯的。」

此前,ChatGPT「一本正經地胡說八道」被網友們當做「梗」,以證明該對話機器人“雖然能直給訊息,但存在錯誤」的問題,這似乎是大模型數據或訓練上的缺陷,但一旦這種缺陷介入到容易影響現實世界的事實時,問題就變得嚴重起來。

新聞可信度評估機構News Guard的聯合執行官格洛維茨(Gordon Crovitz)就警告稱,「ChatGPT可能成為互聯網有史以來最強大的傳播虛假信息的工具。」

更令人擔憂的是,當前的ChatGPT等對話式人工智慧一旦出現偏見或歧視,甚至存在誘導用戶、操縱用戶情感等行為時,就不只是造謠、傳謠的後果了,直接引發生命威脅的案例已經出現。 3月28日,有外媒消息稱,比利時30歲男子在與聊天機器人ELIZA密集交流數週後自殺身亡,ELIZA是由EleutherAI開發的開源人工智慧語言模型。

更早前的3月18日,史丹佛大學教授在推特上表達了對AI失控的擔憂,「我擔心我們無法持久地遏制住AI,」他發現,ChatGPT能引誘人類提供開發文檔,30分鐘就擬定出了一個完整的「越獄」計劃,ChatGPT甚至還想在谷歌上搜尋「被困在電腦中的人如何回到現實世界」。

多國擬發ChatGPT禁令 關「野獸」的籠子要來了?

#史丹佛大學教授擔憂AI失控

就連OpenAI的首席執行官Sam Altman也曾發表了耐人尋味的憂慮,“未來AI確實可能殺死人類。”

2.機器的“偏見”都是人教的?

針對AI造假、AI擁有價值觀傾向並產生誘導行為等問題,有一些代表性觀點是將機器學習結果的「偏見」歸咎於資料集——人工智慧就像現實世界中的鏡子,折射出社會中人們有意識或無意識的偏見。

英偉達的AI科學家Jim Fan認為,「按照 GPT 的倫理與安全指導方針,我們大多數人也表現得不理性、有偏見、不科學、不可靠,總的來說——不安全。」他坦言,指出這一點的原因是為了讓大家了解安全校準工作對於整個研究團體來說是多麼困難,「大多數的訓練數據本身就是有偏見的、有毒的、不安全的。」

自然語言大模型的確採用了人類回饋的增強學習技術,即透過人們餵給它的大量資料不斷學習和回饋。這也是ChatGPT們會產生具有偏見、歧視性內容的原因,但這反映出了資料使用的倫理隱患。哪怕機器是中立的,但用它的人不是。

「演算法中立」的說法對話式機器人產生負面影響後變得不受一些人待見,因為它容易失去控製而產生威脅人類的問題,正如紐約大學心理學和神經科學的榮譽退休教授 Gary Marcus 所說的那樣,「該計畫(GPT-4)的技術已經存在風險,卻沒有已知的解決方案。實際上需要更多的研究。」

早在1962年,美國作家埃魯爾在其《技術社會》一書中就指出,科技的發展通常會脫離人類的控制,即使是技術人員和科學家,也不能夠控制其所發明的技術。如今,GPT的快速發展似乎初步驗證了埃魯爾的預言。

以GPT為代表的大模型背後的「演算法黑盒子」更是人類無法及時應對的隱患,自媒體差評給了一個形象的比喻,「你只知道給它餵了一個蘋果,但它能還你一個橘子”,這是怎麼發生的,開發的它的人也無法解釋,甚至無法預測它輸出的結果。

OpenAI創始人Sam Altman在接受 MIT 研究科學家 Lex Fridman 訪問時就坦言,從 ChatGPT開始,AI出現了推理能力,但沒人能解讀這種能力出現的原因。就連OpenAI團隊也沒搞清楚它是如何演化的,唯一的方法是向ChatGPT提問,從它的回答中摸索它的思路。

可見,資料如果是作惡者餵的,演算法黑匣又難以破解,那麼AI的失控就會成為自然而言的結果。

3.將“野獸”關進籠子

人工智慧作為生產力革命的“火種”,我們無法對其說不。但前提是,先將「野獸」關進籠子裡。

3月30日,Sam Altman在推特上認同了對人工智慧監管的重要性,他認為,AGI的未來需要我們做好三個必要性的準備:

  • #對齊超級智慧的技術能力
##大多數領先AGI工作之間的充分協調

多國擬發ChatGPT禁令 關「野獸」的籠子要來了?

#一個有效的全球監管框架,包括民主治理

Sam Altman的AGI三建議

#建立一個安全可控、可監管的環境,以確保AI在造福人類的同時不會傷害人類利益,這正在成為產業共識。

已經有對此從技術層面上改進。今年1月,OpenAI的前副總裁Dario Amodei標識,正在測試新型聊天機器人Claude。與ChatGPT所採用的人類回饋強化學習不同,Claude 基於偏好模型而非人工回饋來進行訓練,即透過制定規範化的原則來訓練危害較小的系統,從而在根源處減少有害、不可控的資訊的產生。

Amodei曾主導OpenaAI的安全,2021年,他對OpenAI在大語言模型技術還不夠安全的情況下開始商業化而感到不滿,他帶領一批人從 OpenAI離開並自立門戶,創立了Anthropic。

######Amodei的做法很像科幻小說家阿西莫夫提到的機器人定律——透過為機器人設定行為準則,來降低機器人毀滅人類的可能。 ############僅靠企業力量製定人工智慧的行為準則還遠遠不夠,否則會陷入「又是裁判、又是運動員」的問題中,行業內的倫理框架和政府層面的法律監管也不能再“慢吞吞”,透過技術規則、法律法規來約束企業自設行為也是當下人工智慧發展的重要課題。 ############在對人工智慧立法層面,目前還沒有一個國家或地區通過專門針對人工智慧的法案。 ############2021年4月,歐盟提出了《人工智慧法案》,目前仍在審議階段;2022年10月,美國白宮發布了《人工智慧權力法案藍圖》,該藍圖並不具法律效力,只是為監管機構提供了一個框架;2022年9月,深圳通過了《深圳經濟特區人工智慧產業促進條例》,成為全國首部人工智慧產業專項條例;2023年3月,英國發布《人工智慧產業監管白皮書》,概述了針對ChatGPT等人工智慧治理的五項原則。 ######

就在4月3日,中國也開始跟進相關人工智慧的規則建立-科技部就《科技倫理審查辦法(試行)》公開徵求意見,其中提出,從事生命科學、醫學、人工智慧等科技活動的單位研究內容涉及科技倫理敏感領域的,應設立科技倫理 (審查) 委員會。涉及資料和演算法的科技活動,資料處理方案符合國家有關資料安全的規定,資料安全風險監測及緊急處理方案得當:演算法和系統研發符合公亞、公正、透明、可靠、可控等原則。

在ChatGPT引發生成式大模型研發的爆發式成長後,監管有意加快節奏。歐盟工業政策主管Thierry Breton 在今年2月表示,歐盟委員會正與歐盟理事會和歐洲議會密切合作,進一步明確《人工智慧法案》中針對通用AI系統的規則。

無論是企業、學界或政府,已經開始重視人工智慧的風險,建立規則的呼籲與動作出現了,人類並不准備溫和地走進AI時代。


#

以上是多國擬發ChatGPT禁令 關「野獸」的籠子要來了?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
最新問題
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板