目錄
1.洩密、造假問題浮出水面
2.機器的“偏見”都是人教的?
3.將“野獸”關進籠子
首頁 科技週邊 人工智慧 多國擬發ChatGPT禁令 關「野獸」的籠子要來了?

多國擬發ChatGPT禁令 關「野獸」的籠子要來了?

Apr 10, 2023 pm 02:40 PM
人工智慧 chatgpt 自然語言

「人工智慧想越獄「、」AI產生自我意識」、「AI終將殺死人類」、「矽基生命的進化」.......曾經只在賽博朋克等科技幻想中出現的劇情,在今年走向現實,生成式自然語言模型正遭受前所未有的質疑。

多國擬發ChatGPT禁令 關「野獸」的籠子要來了?

聚光燈下最矚目的那個是ChatGPT,3月底到4月初,OpenAI開發的這個文本對話機器人,突然從“先進生產力”的代表變成了人類的威脅。

先是被上千位科技圈的精英點名,放在「暫停訓練比GPT-4更強大的AI系統」的公開信中;緊接著,美國科技倫理組織又要求美國聯邦貿易委員會調查OpenAI,禁止發布商業版 GPT-4;後來,義大利成為第一個禁用ChatGPT 的西方國家;德國監管機構跟進表示,正在考慮暫時禁用ChatGPT。

GPT-4連帶著它的開發公司OpenAI突然成了眾矢之的,呼籲AI監管的各方聲音變得越來越響亮。 4月5日,ChatGPT以訪問量太大為由暫停了Plus付費版,這是一個可以優先體驗GPT-4模型的管道。

如果算力與伺服器是GPT-4使用設限的原因,那麼這是技術瓶頸使然,但從OpenAI的研發進展看,突破瓶頸的周期可能並不會太長,而人們也已經見識過AI對生產力提升的效果。

可是,當AI造假、洩漏資料成為GPT-4實操中的硬幣另一面時,AI倫理、人類與AI的邊界將成為全世界都無法繞過的問題,人類開始考慮將「野獸」關進籠子裡。

1.洩密、造假問題浮出水面

主權國家對ChatGPT的禁令接踵而至。

3月31日,義大利個人資料保護局宣布,禁止使用聊天機器人ChatGPT,並表示已對該應用程式背後的公司OpenAI展開調查,因為ChatGPT出現了用戶對話資料和付款服務支付資訊遺失情況,缺乏大規模收集和儲存個人資訊的法律依據。 4月3日,德國聯邦資料保護專員稱,出於資料保護的考慮,正在考慮暫時停用ChatGPT。此外,法國、愛爾蘭、西班牙等國的隱私監管機構都在跟進ChatGPT的隱私安全問題。

ChatGPT不僅在喪失各國「信任」。近期,韓國電子巨擘三星也因使用ChatGPT而出現了問題。根據SBS等韓媒通報事件,三星導入ChatGPT不到20天,便發生 3 起資料外洩事件,涉及半導體設備測量資料、產品良率等內容。對此,三星啟動了「緊急措施」:將員工向ChatGPT提問的限制在1024位元組以內。據悉,軟銀、日立、摩根大通等知名企業都曾發出了相關的限用通知。

應了「物極必反」那句老話,ChatGPT為AI產業注入「興奮劑」、引發科技巨頭AI競速的同時,也帶來了無法避免的安全問題,最後遭到多點「封鎖」。

資料安全僅是ChatGPT潛在風險中的冰山一角,背後是AI倫理對人類的挑戰:人工智慧工具缺乏透明度,人類並不清楚AI決策背後的邏輯;人工智能缺乏中立性,很容易出現不準確、帶有價值觀的結果;人工智慧的資料收集可能會侵犯隱私。

「AI倫理與安全」似乎過於宏觀,但當我們把視角聚焦在真實案例時,就會發現這個議題與我們每個人息息相關的事。

3月21日,新浪微博CEO王高飛發博曬了一段ChatGPT編造的假訊息:「瑞士信貸被強制出售,有172億美元的AT1債務被直接清零」。網友「一瑩海岸」對此指出,先前只有2017年西班牙大眾銀行破產時曾出現AT1債券減記的情況。

多國擬發ChatGPT禁令 關「野獸」的籠子要來了?

#

新浪微博CEO曬ChatGPT編造的答案

#王高飛也在微博上貼出ChatGPT的答案,說這樣的例子在2016年的葡萄牙BCP銀行事件中也曾出現過。但結果查證之後發現,BCP銀行的例子是ChatGPT編造的並不存在的事件,它所給的兩個信源開啟也是404。 「知道胡扯,沒想到連信源都是胡扯的。」

此前,ChatGPT「一本正經地胡說八道」被網友們當做「梗」,以證明該對話機器人“雖然能直給訊息,但存在錯誤」的問題,這似乎是大模型數據或訓練上的缺陷,但一旦這種缺陷介入到容易影響現實世界的事實時,問題就變得嚴重起來。

新聞可信度評估機構News Guard的聯合執行官格洛維茨(Gordon Crovitz)就警告稱,「ChatGPT可能成為互聯網有史以來最強大的傳播虛假信息的工具。」

更令人擔憂的是,當前的ChatGPT等對話式人工智慧一旦出現偏見或歧視,甚至存在誘導用戶、操縱用戶情感等行為時,就不只是造謠、傳謠的後果了,直接引發生命威脅的案例已經出現。 3月28日,有外媒消息稱,比利時30歲男子在與聊天機器人ELIZA密集交流數週後自殺身亡,ELIZA是由EleutherAI開發的開源人工智慧語言模型。

更早前的3月18日,史丹佛大學教授在推特上表達了對AI失控的擔憂,「我擔心我們無法持久地遏制住AI,」他發現,ChatGPT能引誘人類提供開發文檔,30分鐘就擬定出了一個完整的「越獄」計劃,ChatGPT甚至還想在谷歌上搜尋「被困在電腦中的人如何回到現實世界」。

多國擬發ChatGPT禁令 關「野獸」的籠子要來了?

#史丹佛大學教授擔憂AI失控

就連OpenAI的首席執行官Sam Altman也曾發表了耐人尋味的憂慮,“未來AI確實可能殺死人類。”

2.機器的“偏見”都是人教的?

針對AI造假、AI擁有價值觀傾向並產生誘導行為等問題,有一些代表性觀點是將機器學習結果的「偏見」歸咎於資料集——人工智慧就像現實世界中的鏡子,折射出社會中人們有意識或無意識的偏見。

英偉達的AI科學家Jim Fan認為,「按照 GPT 的倫理與安全指導方針,我們大多數人也表現得不理性、有偏見、不科學、不可靠,總的來說——不安全。」他坦言,指出這一點的原因是為了讓大家了解安全校準工作對於整個研究團體來說是多麼困難,「大多數的訓練數據本身就是有偏見的、有毒的、不安全的。」

自然語言大模型的確採用了人類回饋的增強學習技術,即透過人們餵給它的大量資料不斷學習和回饋。這也是ChatGPT們會產生具有偏見、歧視性內容的原因,但這反映出了資料使用的倫理隱患。哪怕機器是中立的,但用它的人不是。

「演算法中立」的說法對話式機器人產生負面影響後變得不受一些人待見,因為它容易失去控製而產生威脅人類的問題,正如紐約大學心理學和神經科學的榮譽退休教授 Gary Marcus 所說的那樣,「該計畫(GPT-4)的技術已經存在風險,卻沒有已知的解決方案。實際上需要更多的研究。」

早在1962年,美國作家埃魯爾在其《技術社會》一書中就指出,科技的發展通常會脫離人類的控制,即使是技術人員和科學家,也不能夠控制其所發明的技術。如今,GPT的快速發展似乎初步驗證了埃魯爾的預言。

以GPT為代表的大模型背後的「演算法黑盒子」更是人類無法及時應對的隱患,自媒體差評給了一個形象的比喻,「你只知道給它餵了一個蘋果,但它能還你一個橘子”,這是怎麼發生的,開發的它的人也無法解釋,甚至無法預測它輸出的結果。

OpenAI創始人Sam Altman在接受 MIT 研究科學家 Lex Fridman 訪問時就坦言,從 ChatGPT開始,AI出現了推理能力,但沒人能解讀這種能力出現的原因。就連OpenAI團隊也沒搞清楚它是如何演化的,唯一的方法是向ChatGPT提問,從它的回答中摸索它的思路。

可見,資料如果是作惡者餵的,演算法黑匣又難以破解,那麼AI的失控就會成為自然而言的結果。

3.將“野獸”關進籠子

人工智慧作為生產力革命的“火種”,我們無法對其說不。但前提是,先將「野獸」關進籠子裡。

3月30日,Sam Altman在推特上認同了對人工智慧監管的重要性,他認為,AGI的未來需要我們做好三個必要性的準備:

  • #對齊超級智慧的技術能力
##大多數領先AGI工作之間的充分協調

多國擬發ChatGPT禁令 關「野獸」的籠子要來了?

#一個有效的全球監管框架,包括民主治理

Sam Altman的AGI三建議

#建立一個安全可控、可監管的環境,以確保AI在造福人類的同時不會傷害人類利益,這正在成為產業共識。

已經有對此從技術層面上改進。今年1月,OpenAI的前副總裁Dario Amodei標識,正在測試新型聊天機器人Claude。與ChatGPT所採用的人類回饋強化學習不同,Claude 基於偏好模型而非人工回饋來進行訓練,即透過制定規範化的原則來訓練危害較小的系統,從而在根源處減少有害、不可控的資訊的產生。

Amodei曾主導OpenaAI的安全,2021年,他對OpenAI在大語言模型技術還不夠安全的情況下開始商業化而感到不滿,他帶領一批人從 OpenAI離開並自立門戶,創立了Anthropic。

######Amodei的做法很像科幻小說家阿西莫夫提到的機器人定律——透過為機器人設定行為準則,來降低機器人毀滅人類的可能。 ############僅靠企業力量製定人工智慧的行為準則還遠遠不夠,否則會陷入「又是裁判、又是運動員」的問題中,行業內的倫理框架和政府層面的法律監管也不能再“慢吞吞”,透過技術規則、法律法規來約束企業自設行為也是當下人工智慧發展的重要課題。 ############在對人工智慧立法層面,目前還沒有一個國家或地區通過專門針對人工智慧的法案。 ############2021年4月,歐盟提出了《人工智慧法案》,目前仍在審議階段;2022年10月,美國白宮發布了《人工智慧權力法案藍圖》,該藍圖並不具法律效力,只是為監管機構提供了一個框架;2022年9月,深圳通過了《深圳經濟特區人工智慧產業促進條例》,成為全國首部人工智慧產業專項條例;2023年3月,英國發布《人工智慧產業監管白皮書》,概述了針對ChatGPT等人工智慧治理的五項原則。 ######

就在4月3日,中國也開始跟進相關人工智慧的規則建立-科技部就《科技倫理審查辦法(試行)》公開徵求意見,其中提出,從事生命科學、醫學、人工智慧等科技活動的單位研究內容涉及科技倫理敏感領域的,應設立科技倫理 (審查) 委員會。涉及資料和演算法的科技活動,資料處理方案符合國家有關資料安全的規定,資料安全風險監測及緊急處理方案得當:演算法和系統研發符合公亞、公正、透明、可靠、可控等原則。

在ChatGPT引發生成式大模型研發的爆發式成長後,監管有意加快節奏。歐盟工業政策主管Thierry Breton 在今年2月表示,歐盟委員會正與歐盟理事會和歐洲議會密切合作,進一步明確《人工智慧法案》中針對通用AI系統的規則。

無論是企業、學界或政府,已經開始重視人工智慧的風險,建立規則的呼籲與動作出現了,人類並不准備溫和地走進AI時代。


#

以上是多國擬發ChatGPT禁令 關「野獸」的籠子要來了?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

熱門話題

Java教學
1655
14
CakePHP 教程
1413
52
Laravel 教程
1306
25
PHP教程
1252
29
C# 教程
1226
24
ChatGPT 現在允許免費用戶使用 DALL-E 3 產生每日限制的圖像 ChatGPT 現在允許免費用戶使用 DALL-E 3 產生每日限制的圖像 Aug 09, 2024 pm 09:37 PM

DALL-E 3 於 2023 年 9 月正式推出,是比其前身大幅改進的車型。它被認為是迄今為止最好的人工智慧圖像生成器之一,能夠創建具有複雜細節的圖像。然而,在推出時,它不包括

位元組跳動剪映推出 SVIP 超級會員:連續包年 499 元,提供多種 AI 功能 位元組跳動剪映推出 SVIP 超級會員:連續包年 499 元,提供多種 AI 功能 Jun 28, 2024 am 03:51 AM

本站6月27日訊息,剪映是由位元組跳動旗下臉萌科技開發的一款影片剪輯軟體,依託於抖音平台且基本面向該平台用戶製作短影片內容,並相容於iOS、安卓、Windows 、MacOS等作業系統。剪映官方宣布會員體系升級,推出全新SVIP,包含多種AI黑科技,例如智慧翻譯、智慧劃重點、智慧包裝、數位人合成等。價格方面,剪映SVIP月費79元,年費599元(本站註:折合每月49.9元),連續包月則為59元每月,連續包年為499元每年(折合每月41.6元) 。此外,剪映官方也表示,為提升用戶體驗,向已訂閱了原版VIP

微調真的能讓LLM學到新東西嗎:引入新知識可能讓模型產生更多的幻覺 微調真的能讓LLM學到新東西嗎:引入新知識可能讓模型產生更多的幻覺 Jun 11, 2024 pm 03:57 PM

大型語言模型(LLM)是在龐大的文字資料庫上訓練的,在那裡它們獲得了大量的實際知識。這些知識嵌入到它們的參數中,然後可以在需要時使用。這些模型的知識在訓練結束時被「具體化」。在預訓練結束時,模型實際上停止學習。對模型進行對齊或進行指令調優,讓模型學習如何充分利用這些知識,以及如何更自然地回應使用者的問題。但是有時模型知識是不夠的,儘管模型可以透過RAG存取外部內容,但透過微調使用模型適應新的領域被認為是有益的。這種微調是使用人工標註者或其他llm創建的輸入進行的,模型會遇到額外的實際知識並將其整合

為大模型提供全新科學複雜問答基準與評估體系,UNSW、阿貢、芝加哥大學等多家機構共同推出SciQAG框架 為大模型提供全新科學複雜問答基準與評估體系,UNSW、阿貢、芝加哥大學等多家機構共同推出SciQAG框架 Jul 25, 2024 am 06:42 AM

編輯|ScienceAI問答(QA)資料集在推動自然語言處理(NLP)研究中發揮著至關重要的作用。高品質QA資料集不僅可以用於微調模型,也可以有效評估大語言模型(LLM)的能力,尤其是針對科學知識的理解和推理能力。儘管目前已有許多科學QA數據集,涵蓋了醫學、化學、生物等領域,但這些數據集仍有一些不足之處。其一,資料形式較為單一,大多數為多項選擇題(multiple-choicequestions),它們易於進行評估,但限制了模型的答案選擇範圍,無法充分測試模型的科學問題解答能力。相比之下,開放式問答

SOTA性能,廈大多模態蛋白質-配體親和力預測AI方法,首次結合分子表面訊息 SOTA性能,廈大多模態蛋白質-配體親和力預測AI方法,首次結合分子表面訊息 Jul 17, 2024 pm 06:37 PM

編輯|KX在藥物研發領域,準確有效地預測蛋白質與配體的結合親和力對於藥物篩選和優化至關重要。然而,目前的研究並沒有考慮到分子表面訊息在蛋白質-配體相互作用中的重要作用。基於此,來自廈門大學的研究人員提出了一種新穎的多模態特徵提取(MFE)框架,該框架首次結合了蛋白質表面、3D結構和序列的信息,並使用交叉注意機制進行不同模態之間的特徵對齊。實驗結果表明,該方法在預測蛋白質-配體結合親和力方面取得了最先進的性能。此外,消融研究證明了該框架內蛋白質表面資訊和多模態特徵對齊的有效性和必要性。相關研究以「S

SK 海力士 8 月 6 日將展示 AI 相關新品:12 層 HBM3E、321-high NAND 等 SK 海力士 8 月 6 日將展示 AI 相關新品:12 層 HBM3E、321-high NAND 等 Aug 01, 2024 pm 09:40 PM

本站8月1日消息,SK海力士今天(8月1日)發布博文,宣布將出席8月6日至8日,在美國加州聖克拉拉舉行的全球半導體記憶體峰會FMS2024,展示諸多新一代產品。未來記憶體和儲存高峰會(FutureMemoryandStorage)簡介前身是主要面向NAND供應商的快閃記憶體高峰會(FlashMemorySummit),在人工智慧技術日益受到關注的背景下,今年重新命名為未來記憶體和儲存高峰會(FutureMemoryandStorage),以邀請DRAM和儲存供應商等更多參與者。新產品SK海力士去年在

佈局 AI 等市場,格芯收購泰戈爾科技氮化鎵技術和相關團隊 佈局 AI 等市場,格芯收購泰戈爾科技氮化鎵技術和相關團隊 Jul 15, 2024 pm 12:21 PM

本站7月5日消息,格芯(GlobalFoundries)於今年7月1日發布新聞稿,宣布收購泰戈爾科技(TagoreTechnology)的功率氮化鎵(GaN)技術及智慧財產權組合,希望在汽車、物聯網和人工智慧資料中心應用領域探索更高的效率和更好的效能。隨著生成式人工智慧(GenerativeAI)等技術在數位世界的不斷發展,氮化鎵(GaN)已成為永續高效電源管理(尤其是在資料中心)的關鍵解決方案。本站引述官方公告內容,在本次收購過程中,泰戈爾科技公司工程師團隊將加入格芯,進一步開發氮化鎵技術。 G

VSCode 前端開發新紀元:12款 AI 代碼助理推薦 VSCode 前端開發新紀元:12款 AI 代碼助理推薦 Jun 11, 2024 pm 07:47 PM

在前端開發的世界裡,VSCode以其強大的功能和豐富的插件生態,成為了無數開發者的首選工具。而近年來,隨著人工智慧技術的快速發展,VSCode上的AI代碼助理也如雨後春筍般湧現,大大提升了開發者的編碼效率。 VSCode上的AI代碼助手,如雨後春筍般湧現,大大提升了開發者的編碼效率。它利用人工智慧技術,能夠聰明地分析程式碼,提供精準的程式碼補全、自動糾錯、語法檢查等功能,大大減少了開發者在編碼過程中的錯誤和繁瑣的手工工作。有今天,就為大家推薦12款VSCode前端開發AI程式碼助手,幫助你在程式設計之路

See all articles