首頁 > 電腦教學 > 故障排查 > 選擇退出:AI時代的4個隱私問題

選擇退出:AI時代的4個隱私問題

Susan Sarandon
發布: 2025-02-24 15:03:07
原創
429 人瀏覽過

The Opt Out: 4 privacy concerns in the age of AI

您不僅僅是一個數據點。退出機制將幫助您奪回您的隱私。

人工智能發展的最新浪潮迫使我們許多人重新思考生活的關鍵方面。例如,數字藝術家現在需要專注於保護他們的作品免受圖像生成網站的侵害,而教師則需要應對一些學生可能將論文寫作外包給ChatGPT的情況。

但人工智能的湧現也帶來了每個人都應該了解的重要隱私風險——即使您不打算弄清楚這項技術認為您作為美人魚的樣子。

缺乏透明度

布魯金斯學會(一個位於華盛頓特區的非營利性機構,進行研究以解決各種各樣的國家和全球問題)人工智能和新興技術倡議政策主任傑西卡·布蘭特說: “我們常常很少了解誰在使用我們的個人信息,如何使用以及出於何種目的。”

廣義而言,機器學習——人工智能係統變得更精確的過程——需要大量數據。系統擁有的數據越多,其準確性就越高。像ChatGPT和谷歌的Bard這樣的生成式人工智能平台,以及圖像生成器Dall-E,通過一種稱為抓取的技術獲得部分訓練數據:它們掃描互聯網以收集有用的公共信息。

但是,有時由於人為錯誤或疏忽,本不應該公開的私人數據,如敏感的公司文件、圖像甚至登錄列表,可能會進入互聯網的可訪問部分,任何人都可以藉助谷歌搜索運算符找到它們。一旦這些信息被抓取並添加到人工智能的訓練數據集中,幾乎沒有人能夠將其刪除。

印度科技公司Wipro的全球首席隱私官伊万娜·巴托萊蒂(Ivana Bartoletti)兼弗吉尼亞理工大學帕姆普林商學院訪問網絡安全和隱私執行研究員說:“人們應該能夠自由地分享照片,而不用擔心它最終會用於訓練生成式人工智能工具,或者更糟糕的是——他們的圖像可能會被用來製作深度偽造。”“在互聯網上抓取個人數據破壞了人們對其數據的控制。”

數據抓取只是人工智能係統訓練數據的潛在問題來源之一。國際隱私專業人員協會的高級隱私工程研究員卡塔琳娜·科爾納(Katharina Koerner)表示,另一個來源是個人數據的二次使用。當您自願出於特定目的放棄部分信息,但它最終用於您未同意的其他目的時,就會發生這種情況。多年來,企業一直在積累客戶的信息,包括電子郵件地址、送貨詳情以及他們喜歡的產品類型,但在過去,他們能利用這些數據做的事情不多。如今,複雜的算法和人工智能平台提供了一種簡單的方法來處理這些信息,以便他們可以更多地了解人們的行為模式。這可以通過僅向您提供您可能真正關心的廣告和信息來使您受益,但它也可能會根據您的郵政編碼限制產品供應並提高價格。科爾納說,鑑於一些公司已經擁有大量其客戶提供的數據,企業這樣做非常誘人。

她解釋說:“人工智能使從可用數據中提取有價值的模式變得容易,這些模式可以支持未來的決策,因此,當數據並非為此目的而收集時,企業非常容易將個人數據用於機器學習。”

對於開發人員來說,從大型訓練數據集中選擇性地刪除您的個人信息極其複雜,這並沒有什麼幫助。當然,刪除具體信息(如您的出生日期或社會安全號碼(請勿向生成式人工智能平台提供個人詳細信息))可能很容易。但例如,執行符合歐洲《通用數據保護條例》的完整刪除請求是另一回事,也許是解決的最複雜挑戰,巴托萊蒂說。

[相關:如何阻止學校設備共享您家人的數據]

由於其複雜的微服務結構(每個部分都作為獨立單元工作),即使在傳統的IT系統中,選擇性內容刪除也很困難。但科爾納表示,在人工智能的背景下,這甚至更難,甚至目前是不可能的。

那是因為這不僅僅是點擊“ctrl F”並刪除所有帶有某人姓名的數據的問題——刪除一個人的數據需要從頭開始重新訓練整個模型的昂貴程序,她解釋說。

退出機制將越來越難

一個營養良好的AI系統可以提供令人難以置信的大量分析,包括幫助用戶了解人們行為的模式識別。但這不僅僅是由於技術的優勢——還因為人們傾向於以可預測的方式行事。人類天性的這一特殊方面允許人工智能係統在無需了解您的大量具體信息的情況下也能正常工作。因為當了解像您這樣的人就足夠時,了解您有什麼意義呢?

華盛頓特區專注於人工智能審計和風險的律師事務所BNH.AI的合夥人布倫達·梁(Brenda Leong)說:“我們已經到了只需要最少的幾條信息——只需三到五條關於一個人的相關數據,這很容易就能獲得——他們就會立即被吸收到預測系統中。”簡而言之:如今,要遠離這個系統越來越難,甚至是不可能的。

這讓我們幾乎沒有自由,因為即使是多年來一直努力保護自己隱私的人,也會有人工智能模型為他們做出決定和推薦。這可能會讓他們覺得他們所有的努力都白費了。

梁繼續說道:“即使這對我來說是一種有益的方式,比如為我提供符合我收入水平的貸款,或者我真正感興趣的機會,它也是在我無法以任何方式控制的情況下對我做的。”

使用大數據將整個人群歸類也留不下任何細微差別——對於異常值和例外情況——我們都知道生活充滿了這些。魔鬼在細節中,但也在將概括性的結論應用於特殊情況下,事情可能會變得非常糟糕。

數據的武器化

另一個關鍵的挑戰是如何在算法決策中灌輸公平性——尤其是在人工智能模型的結論可能基於錯誤的、過時的或不完整的數據時。目前眾所周知,人工智能係統可能會延續其人類創造者的偏見,有時會給整個社區帶來可怕的後果。

隨著越來越多的公司依賴算法來幫助他們填補職位或確定司機的風險狀況,我們的數據更有可能被用來反對我們自己的利益。您有一天可能會受到這些系統做出的自動化決策、建議或預測的損害,而幾乎沒有可用的追索權。

[相關:自主武器可能會在戰爭中犯下嚴重的錯誤]

當這些預測或標籤在無法區分真假的人工智能算法眼中成為事實時,這也是一個問題。對於現代人工智能來說,所有的一切都是數據,無論是個人數據、公共數據、事實數據還是完全虛構的數據。

更多集成意味著更少安全性

就像您的互聯網存在與您最弱的密碼一樣強大一樣,大型人工智能工具與其他平台的集成也為攻擊者提供了更多撬動點,以便在試圖訪問私人數據時進行嘗試。如果您發現其中一些在安全方面達不到標準,請不要感到驚訝。

這甚至還沒有考慮到所有在您不知情的情況下收集您數據的公司和政府機構。想想您家附近的監控攝像頭、在音樂會場地周圍跟踪您的面部識別軟件、在您當地的公園裡跑來跑去的戴著GoPro的孩子們,甚至試圖在TikTok上走紅的人們。

處理您數據的人和平台越多,出錯的可能性就越大。更大的出錯空間意味著您的信息洩露到互聯網上的可能性更高,在那裡它很容易被抓取到人工智能模型的訓練數據集中。如上所述,這非常難以撤銷。

您可以做什麼

壞消息是,目前您對此無能為力——既無法解決源於包含您信息的AI訓練數據集的潛在安全威脅,也無法解決可能阻止您獲得理想工作的預測系統。目前,我們最好的辦法是要求監管。

歐盟已經通過了《人工智能法案》的第一份草案,該法案將根據可接受的風險水平來規範公司和政府如何使用這項技術。與此同時,美國總統喬·拜登已通過行政命令為開發符合道德和公平的人工智能技術提供資金,但國會尚未通過任何法律來保護美國公民在人工智能平台方面的隱私。參議院一直在舉行聽證會以了解這項技術,但它還沒有接近制定一項聯邦法案。

在政府工作的過程中,您可以並且應該倡導包括人工智能平台在內的隱私法規,並保護用戶免受其數據被誤處理的侵害。與您周圍的人就人工智能的發展進行有意義的對話,確保您了解您的代表在聯邦隱私法規方面的立場,並投票給那些最關心您利益的人。

閱讀更多PopSci 故事。

以上是選擇退出:AI時代的4個隱私問題的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
作者最新文章
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板