在義大利恢復上線,但OpenAI的監管麻煩才剛開始
5月7日訊息,在剛剛過去的一周,OpenAI已經成功安撫了義大利監管機構,促使其解除了對聊天機器人ChatGPT的臨時禁令,但這家人工智慧研究公司與歐洲監管機構的鬥爭仍未結束,更多挑戰才剛開始。
今年早些時候,OpenAI廣受歡迎但備受爭議的聊天機器人ChatGPT在義大利遭遇了一個重大的法律障礙,義大利資料保護局(GPDP)指控OpenAI違反歐盟資料保護規則。為了試圖解決問題,該公司同意限制在義大利使用該服務。
4月28日,ChatGPT重新在義大利上線,OpenAI輕鬆解決了義大利資料保護局的擔憂,而沒有對其服務做出重大改變。這對OpenAI來說是一次明顯的勝利。
雖然義大利資料保護局對ChatGPT所做的改變表示“歡迎”,但OpenAI以及其他開發聊天機器人公司所面臨的法律挑戰可能才剛剛開始。多個國家的監管機構正在調查這些人工智慧工具收集數據和產生資訊的方式,理由包括收集未經許可的培訓數據、聊天機器人傾向於發出錯誤訊息等。
歐盟已經開始執行《一般資料保護規範》(GDPR),這是世界上最強大的隱私權法律框架之一,其影響可能遠遠超出歐洲。同時,歐盟立法者正在製定一項專門針對人工智慧的法律,這也很可能會開啟對ChatGPT等系統進行監管的新時代。
ChatGPT成為多方關注目標
ChatGPT是生成式人工智慧(AIGC)中備受關注的應用程式之一,涵蓋了根據使用者提示產生文字、圖像、視訊和音訊等多種工具。據報道,ChatGPT在2022年11月推出僅兩個月後,每月活躍用戶就達到了1億人,成為史上成長最快的消費者應用程式之一。
借助ChatGPT,人們可以將文本翻譯成不同的語言、撰寫大學論文,甚至產生程式碼。但一些批評者,包括監管機構在內,指出ChatGPT輸出的資訊並不可靠,有版權問題,在保護資料方面有缺陷。
義大利是第一個對ChatGPT採取行動的國家。 3月31日,義大利資料保護局指控OpenAI違反了《一般資料保護條例》:允許ChatGPT提供不準確或誤導性資訊、未向使用者通知資料收集做法、未遵守個人資料處理的法規,以及未能充分防止13歲以下兒童使用該服務。義大利資料保護局命令OpenAI立即停止在ChatGPT的訓練資料中使用從義大利公民收集的個人資訊。
目前,其他國家尚未採取類似的大動作。但自3月以來,至少有三個歐盟國家——德國、法國和西班牙,對ChatGPT展開了自己的調查。同時,在大西洋彼岸,加拿大正在根據其《個人資訊保護和電子文件法案》(PIPEDA)評估ChatGPT的隱私問題。歐洲資料保護委員會(EDPB)甚至成立了專門的工作小組來協調調查。如果這些機構要求OpenAI做出改變,可能會影響該公司為全球用戶提供服務的方式。
監管機構有兩大擔憂
監管機構對ChatGPT的最大擔憂主要分為兩大類:訓練資料從何而來? OpenAI如何向使用者傳遞訊息?
為了支援ChatGPT,OpenAI需要使用GPT-3.5和GPT-4大型語言模型(LLM),這些模型是針對大量人工生成的文本進行訓練的。 OpenAI對究竟使用了哪些訓練文本始終保持謹慎,但表示利用了「各種授權的、公開可用的資料來源,其中可能包括公開可用的個人資訊」。
根據《一般資料保護規範》的規定,這可能會帶來巨大問題。該法於2018年頒布,涵蓋了收集或處理歐盟公民資料的所有服務,無論提供服務的組織總部設在哪裡。 《一般資料保護規範》要求公司在收集個人資料之前必須獲得使用者的明確同意,收集這些資料必須有法律上的正當理由,並對這些資料的使用和儲存方式保持透明。
歐洲監管機構聲稱,OpenAI訓練資料的保密性意味著他們無法確認其使用的個人資訊是否最初獲得了使用者的同意。義大利資料保護局辯稱,OpenAI從一開始就沒有收集這些資訊的「法律依據」。到目前為止,OpenAI和其他公司幾乎沒有受到審查。
另一個問題是《一般資料保護規範》的“被遺忘權”,它允許用戶要求公司更正他們的個人資訊或將其完全刪除。 OpenAI提前更新了其隱私權政策,以方便回應這些請求。但考慮到一旦將特定資料輸入到這些大型語言模型中,分離可能會非常複雜,是否在技術上可行始終存在爭議。
OpenAI也直接從使用者收集資訊。就像其他網路平台一樣,它會收集一系列標準的用戶數據,例如姓名、聯絡資訊和信用卡詳細資訊等。但更重要的是,OpenAI會記錄使用者與ChatGPT的互動。如官網所述,OpenAI的員工可以查看這些數據,並將其用於培訓其模型。考慮到人們向ChatGPT提出的私人問題,例如將該機器人視為治療師或醫生,這意味著該公司正在收集各種敏感數據。
在這些資料中,可能包括未成年人的資訊。儘管OpenAI的政策規定,它“不會故意從13歲以下的兒童那裡收集個人資訊”,但沒有嚴格的年齡驗證門檻。這不符合歐盟的規定,該規定禁止從13歲以下未成年人收集數據,並且在某些國家要求蒐集16歲以下未成年人的信息需獲得其父母的同意。在產出方面,義大利資料保護局聲稱,ChatGPT缺乏年齡過濾器,使未成年人「在他們的發育程度和自我意識方面得到了絕對不合適的回應」。
OpenAI在使用這些資料方面擁有很大的自由度,這讓許多監管機構感到擔憂,而且儲存這些資料存在安全風險。三星和摩根大通等公司已經禁止員工使用AIGC工具,因為擔心他們會上傳敏感資料。實際上,在義大利發布禁令前,ChatGPT曾遭遇嚴重資料外洩事件,導致大量用戶的聊天歷史和電子郵件地址曝光。
此外,ChatGPT提供虛假資訊的傾向也可能帶來問題。 《一般資料保護條例》規定,所有個人資料必須準確,義大利資料保護局在公告中強調了這一點。這可能會給大多數人工智慧文字產生器帶來麻煩,因為這些工具很容易出現“幻覺”,即對查詢給出事實不正確或無關的回應。這在其他地方已經引起了一些現實問題,例如澳洲市長威脅要起訴OpenAI誹謗,因為ChatGPT謊稱他曾因賄賂而入獄。
專門的監管規則即將出台
ChatGPT因其受歡迎程度和人工智慧市場的主導地位,特別容易成為監管目標。但與Google的Bard和微軟與OpenAI支持的Azure AI等競爭對手和合作夥伴一樣,它沒有理由不接受審查。在ChatGPT之前,義大利已禁止聊天機器人平台Replika收集未成年資訊。到目前為止,該平台仍被禁止。
雖然《一般資料保護規範》是一套強大的法律,但它並不是為了解決人工智慧特有的問題而製定的。然而,專門的監管規則可能即將出台。 2021年,歐盟提交了其《人工智慧法案》(AIA)首個版本的草案,該法案將與《通用資料保護條例》一起實施。 《人工智慧法案》將根據人工智慧工具的風險大小對其進行監管,從「最小風險」(如垃圾郵件過濾器)到「高風險」(用於執法或教育的人工智慧工具)再到「不可接受風險」(如社會信用體系)。
在像ChatGPT這樣的大型語言模型爆炸式增長後,立法者現在正爭先恐後地為「基礎模型」和「通用人工智慧系統(GPAI)」增加規則。這兩個術語指的是包括LLM在內的大規模人工智慧系統,並可能將它們歸類為「高風險」服務。
《人工智慧法案》的規定超出了資料保護的範疇。最近提出的一項修正案將迫使公司揭露用於開發AIGC工具的任何受版權保護的資料。這可能會暴露曾被保密的資料集,並讓更多公司容易受到侵權訴訟的影響,這些訴訟已經對部分服務造成影響。
專門AI法律或到2024年底通過
目前來看,實施這項法案可能還需要一段時間。歐盟立法者已於4月27日達成了一項臨時人工智慧法案協議,但還需要一個委員會在5月11日對草案進行投票,最終提案預計將於6月中旬公佈。然後,歐洲理事會、歐盟議會和歐盟委員會將不得不在實施該法律之前解決任何剩餘的爭端。如果一切順利,它可能會在2024年下半年通過。
就目前而言,義大利和OpenAI之間的爭執讓我們初步了解了監管機構和人工智慧公司可能會如何談判。義大利資料保護局表示,如果OpenAI在4月30日之前滿足幾項提議的決議,它將解除禁令。
這些決議包括告知用戶ChatGPT如何儲存和使用他們的數據,要求徵得用戶明確同意才能使用這些數據,為糾正或刪除ChatGPT產生的虛假個人資訊提供便利,並要求義大利用戶在註冊帳戶時確認自己已超過18歲。儘管OpenAI沒有達到這些規定,但它已經滿足了義大利監管機構的要求,並恢復了在義大利的訪問權限。
OpenAI仍需滿足其他條件,包括在9月30日之前建立更嚴格的年齡門檻,過濾掉13歲以下的未成年人,並要求年齡較大的未成年青少年獲得父母同意。如果失敗,OpenAI可能會再次被封鎖。不過,OpenAI似乎已經做出了榜樣,顯示歐洲認為人工智慧公司的行為是可以接受的,至少在新法出台之前是這樣的。 (小小)
以上是在義大利恢復上線,但OpenAI的監管麻煩才剛開始的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

DALL-E 3 於 2023 年 9 月正式推出,是比其前身大幅改進的車型。它被認為是迄今為止最好的人工智慧圖像生成器之一,能夠創建具有複雜細節的圖像。然而,在推出時,它不包括

安裝步驟:1、在ChatGTP官網或手機商店下載ChatGTP軟體;2、開啟後在設定介面中,選擇語言為中文;3、在對局介面中,選擇人機對局並設定中文相譜;4 、開始後在聊天視窗中輸入指令,即可與軟體互動。

如果AI模型給的答案一點也看不懂,你敢用嗎?隨著機器學習系統在更重要的領域中得到應用,證明為什麼我們可以信任它們的輸出,並明確何時不應信任它們,變得越來越重要。獲得對複雜系統輸出結果信任的一個可行方法是,要求系統對其輸出產生一種解釋,這種解釋對人類或另一個受信任的系統來說是可讀的,即可以完全理解以至於任何可能的錯誤都可以被發現。例如,為了建立對司法系統的信任,我們要求法院提供清晰易讀的書面意見,解釋並支持其決策。對於大型語言模型來說,我們也可以採用類似的方法。不過,在採用這種方法時,確保語言模型生

Ollama是一款超實用的工具,讓你能夠在本地輕鬆運行Llama2、Mistral、Gemma等開源模型。本文我將介紹如何使用Ollama實現對文本的向量化處理。如果你本地還沒有安裝Ollama,可以閱讀這篇文章。本文我們將使用nomic-embed-text[2]模型。它是一種文字編碼器,在短的上下文和長的上下文任務上,效能超越了OpenAItext-embedding-ada-002和text-embedding-3-small。啟動nomic-embed-text服務當你已經成功安裝好o

不久前OpenAISora以其驚人的視訊生成效果迅速走紅,在一眾文生視訊模型中突顯重圍,成為全球矚目的焦點。繼2週前推出成本直降46%的Sora訓練推理復現流程後,Colossal-AI團隊全面開源全球首個類Sora架構視頻生成模型“Open-Sora1.0”,涵蓋了整個訓練流程,包括數據處理、所有訓練細節與模型權重,攜手全球AI熱愛者共同推動影片創作的新紀元。先睹為快,我們先看一段由Colossal-AI團隊發布的「Open-Sora1.0」模型生成的都市繁華掠影影片。 Open-Sora1.0

chatgpt在國內可以使用,但不能註冊,港澳也不行,用戶想要註冊的話,可以使用國外的手機號碼進行註冊,注意註冊過程中要將網路環境切換成國外ip。

突發! OpenAI開人了,理由:涉嫌資訊外洩。一位是失蹤的首席科學家Ilya盟友,超級對齊(Superalignment)團隊核心成員LeopoldAschenbrenner。另一位也不簡單,是LLM推理團隊研究員PavelIzmailov,曾經也在超級對齊團隊幹過。目前尚不清楚這倆到底洩漏了啥訊息。消息曝光後,不少網友表示「挺震驚」:不久前我還看過Aschenbrenner的貼文,感覺他正處於事業上升期,沒想到會有這樣的轉變。圖片還有網友認為:OpenAI失去Aschenbrenner,I

企業級SOTA大模型,Anthropic的Claude3釋放了哪些訊號?作者|宛辰編輯|靖宇作為OpenAIGPT3研發負責人的創業項目,Anthropic被視為最能與OpenAI抗衡的創業公司。 Anthropic在當地時間週一發布了一組Claude3系列大模型,聲稱其功能最強大的模型在各種基準測試中都勝過了OpenAI的GPT-4和Google的Gemini1.0Ultra。但是,能處理更複雜的推理任務、更聰明、更快反應,這些躋身大模型Top3的綜合能力只是Claude3的基本功。 Anth
