研究顯示強化學習模式容易受到成員推理攻擊
譯者| 李睿
審校 | 孫淑娟
隨著機器學習成為人們每天都在使用的許多應用程式的一部分,人們越來越關注如何識別和解決機器學習模型的安全和隱私方面的威脅。
然而,不同機器學習範式面臨的安全威脅各不相同,機器學習安全的某些領域仍未被充分研究。尤其是強化學習演算法的安全性近年來並未受到太多關注。
加拿大的麥基爾大學、機器學習實驗室(MILA)和滑鐵盧大學的研究人員進行了一項新研究,主要著重於深度強化學習演算法的隱私威脅。研究人員提出了一個框架,用於測試強化學習模型對成員推理攻擊的脆弱性。
研究結果表明,攻擊者可以對深度強化學習(RL)系統進行有效攻擊,並可能獲得用於訓練模型的敏感資訊。他們的研究成果意義重大,因為強化學習技術目前正進入工業和消費者應用領域。
成員推理攻擊
成員推理攻擊可以觀察目標機器學習模型的行為,並預測用於訓練它的範例。
每個機器學習模型都在一組範例上進行訓練。在某些情況下,訓練範例包括敏感資訊,例如健康或財務資料或其他個人識別資訊。
成員推理攻擊是一系列試圖強制機器學習模式洩漏其訓練集資料的技術。雖然對抗性示例(針對機器學習的更廣為人知的攻擊類型)專注於改變機器學習模型的行為,並被視為安全威脅,但成員推理攻擊側重於從模型中提取信息,並且更多的是隱私威脅。
成員推理攻擊已經在有監督的機器學習演算法中進行了深入研究,其中模型是在標記範例上進行訓練的。
與監督學習不同的是,深度強化學習系統並不會使用標記範例。強化學習(RL)代理人從它與環境的互動中獲得獎勵或懲罰。它透過這些互動和強化訊號逐漸學習和發展自己的行為。
論文的作者在書面評論中說,「強化學習中的獎勵不一定代表標籤;因此,它們不能充當其他學習範式中成員推理攻擊設計中經常使用的預測標籤。」
研究人員在他們的論文中寫道,「目前還沒有關於直接用於訓練深度強化學習代理的資料的潛在成員洩漏的研究。」
而缺乏這種研究的部分原因是強化學習在現實世界中的應用有限。
研究論文的作者說,「儘管深度強化學習領域取得了重大進展,例如Alpha Go、Alpha Fold和GT Sophy,但深度強化學習模型仍未在工業規模上廣泛採用。另一方面,資料隱私是一個應用非常廣泛的研究領域,深度強化學習模型在實際工業應用中的缺乏極大地延遲了這一基礎和重要研究領域的研究,導致對強化學習系統的攻擊的研究不足。」
隨著在現實世界場景中工業規模應用強化學習演算法的需求不斷增長,從對抗性和演算法的角度對解決強化學習演算法隱私方面的框架的關注和嚴格要求變得越來越明顯和相關。
深度強化學習中成員推斷的挑戰
#研究論文的作者說,「我們正在開發第一代保護隱私的深度強化學習演算法方面所做出的努力,使我們意識到從隱私的角度來看,傳統機器學習演算法和強化學習演算法之間存在根本的結構差異。」
研究人員發現,更關鍵的是,考慮到潛在的隱私後果,深度強化學習與其他學習範式之間的根本差異在為實際應用部署深度強化學習模型方面提出了嚴峻挑戰。
他們說,「基於這個認識,對我們來說最大的問題是:深度強化學習演算法對隱私攻擊(如成員推斷攻擊)的脆弱性有多大?現有的成員推理攻擊攻擊模型是專門為其他學習範式設計的,因此深度強化學習演算法對這類攻擊的脆弱程度在很大程度上是未知的。鑑於在世界範圍內部署對隱私的嚴重影響,這種對未知事物的好奇心以及提高研究和工業界意識的必要性是這項研究的主要動機。」
在訓練過程中,強化學習模式經歷了多個階段,每個階段都由動作和狀態的軌跡或序列組成。因此,一個成功的用於強化學習的成員推理攻擊演算法必須學習用於訓練模型的資料點和軌跡。一方面,這使得針對強化學習系統設計成員推理演算法變得更加困難;而另一方面,也使得難以評估強化學習模式對此類攻擊的穩健性。
作者說,「與其他類型的機器學習相比,在強化學習中成員推理攻擊(MIA)很困難,因為在訓練過程中使用的資料點具有順序和時間相關的性質。訓練和預測資料點之間的多對多關係從根本上不同於其他學習範式。」
強化學習和其他機器學習範式之間的根本區別,使得在設計和評估用於深度強化學習的成員推理攻擊時以新的方式思考至關重要。
設計針對強化學習系統的成員推理攻擊
在他們的研究中,研究人員專注於非策略性強化學習演算法,其中資料收集和模型訓練過程是分開的。強化學習使用「重播緩衝區」來解相關輸入軌跡,並使強化學習代理人可以從同一組資料中探索許多不同的軌跡。
非策略性強化學習對於許多實際應用程式尤其重要,在這些應用程式中,訓練資料預先存在並提供給正在訓練強化學習模型的機器學習團隊。非策略性強化學習對於創建成員推理攻擊模型也至關重要。
非策略性強化學習使用「重播緩衝區」在模型訓練期間重複使用先前收集的資料
作者說,「探索和開發階段在真正的非策略強化學習模型中是分離的。因此,目標策略不會影響訓練軌跡。這種設定特別適合在黑盒子環境中設計成員推理攻擊框架時,因為攻擊者既不知道目標模型的內部結構,也不知道用於收集訓練軌蹟的探索策略。」
在黑盒成員推理攻擊中,攻擊者只能觀察訓練好的強化學習模型的行為。在這種特殊情況下,攻擊者假設目標模型已經從一組私有資料產生的軌跡上進行了訓練,這就是非策略強化學習的工作原理。
在研究中,研究人員選擇了「大量約束深度Q學習」(BCQ),這是一種先進的非策略強化學習演算法,在控制任務中表現出卓越的性能。然而他們表示,他們的成員推理攻擊技術可以擴展到其他非策略強化學習模式。
攻擊者進行成員推理攻擊的一種方法是發展「影子模型」。這是一個分類器機器學習模型,它已經在來自與目標模型的訓練資料和其他地方的相同分佈的資料混合上進行了訓練。在訓練之後,影子模型可以區分出屬於目標機器學習模型訓練集的資料點和模型以前未見過的新資料。由於目標模型訓練的順序性,為強化學習代理程式創建影子模型很棘手。研究人員透過幾個步驟實現了這一點。
#首先,他們為強化學習模型訓練器提供一組新的非私有資料軌跡,並觀察目標模型產生的軌跡。然後,攻擊訓練器使用訓練和輸出軌跡來訓練機器學習分類器,以偵測在目標強化學習模型訓練中使用的輸入軌跡。最後,為分類器提供了新的軌跡,將其分類為訓練成員或新的資料範例。
針對強化學習模型訓練成員推理攻擊的陰影模型
針對強化學習系統測試成員推理攻擊
研究人員以不同的模式測試了他們的成員推理攻擊,其中包括不同的軌跡長度、單軌跡與多軌跡,以及相關軌跡與去相關軌跡。
研究人員在他們的論文中指出:「研究結果表明,我們提出的攻擊框架在推斷強化學習模型訓練資料點方面非常有效…所獲得的結果表明,採用深度強化學習時存在很高的隱私風險。」
他們的研究結果表明,具有多條軌蹟的攻擊比單一軌蹟的攻擊更有效,並且隨著軌跡變長並且相互關聯,攻擊的準確性也會提高。
作者說,「自然設定當然是個體模型,攻擊者有興趣在用於訓練目標強化學習策略的訓練集中識別特定個體的存在(在強化學習中設定整個軌跡)。然而,成員推理攻擊(MIA)在集體模式下的更好表現表明,除了由訓練策略的特徵捕獲的時間相關性之外,攻擊者還可以利用目標策略的訓練軌跡之間的互相關性。」
研究人員表示,這也意味著攻擊者需要更複雜的學習架構和更複雜的超參數調整,以利用訓練軌跡之間的互相關和軌跡內的時間相關性。
研究人員說,「了解這些不同的攻擊模式,可以讓我們更深入地了解對資料安全和隱私的影響,因為它可以讓我們更好地了解可能發生攻擊的不同角度以及對隱私外洩的影響程度。」
現實世界中針對強化學習系統的成員推理攻擊
研究人員測試了他們對基於Open AIGym和MuJoCo物理引擎的三項任務訓練的強化學習模型的攻擊。
研究人員說,「我們目前的實驗涵蓋了三個高維度運動任務,Hopper、Half-Cheetah和Ant,這些任務都屬於機器人模擬任務,主要推動將實驗擴展到現實世界的機器人學習任務。」
該論文的研究人員表示,另一個應用成員推斷攻擊的令人興奮的方向是對話系統,例如亞馬遜Alexa、蘋果Siri和Google助理。在這些應用程式中,數據點由聊天機器人和最終用戶之間的完整互動軌跡呈現。在這一設定中,聊天機器人是經過訓練的強化學習策略,使用者與機器人的互動形成輸入軌跡。
作者說,「在這種情況下,集體模式就是自然環境。換句話說,當且僅當攻擊者正確推斷出代表訓練集中使用者的一批軌跡時,攻擊者才能推斷出使用者在訓練集中的存在。」
該團隊正在探索此類攻擊可能影響強化學習系統的其他實際應用程式。他們也可能會研究這些攻擊如何應用於其他環境中的強化學習。
作者說,「這一研究領域的一個有趣擴展是在白盒環境中針對深度強化學習模型研究成員推理攻擊,其中目標策略的內部結構也為攻擊者所知。」
研究人員希望他們的研究能夠闡明現實世界中強化學習應用程式的安全和隱私問題,並提高機器學習社群的意識,以便在該領域開展更多研究。
原文標題:#Reinforcement learning models are prone to membership inference attacks##,作者: Ben Dickson
以上是研究顯示強化學習模式容易受到成員推理攻擊的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

C++中機器學習演算法面臨的常見挑戰包括記憶體管理、多執行緒、效能最佳化和可維護性。解決方案包括使用智慧指標、現代線程庫、SIMD指令和第三方庫,並遵循程式碼風格指南和使用自動化工具。實作案例展示如何利用Eigen函式庫實現線性迴歸演算法,有效地管理記憶體和使用高效能矩陣操作。

機器學習是人工智慧的重要分支,它賦予電腦從數據中學習的能力,並能夠在無需明確編程的情況下改進自身能力。機器學習在各個領域都有廣泛的應用,從影像辨識和自然語言處理到推薦系統和詐欺偵測,它正在改變我們的生活方式。機器學習領域存在著多種不同的方法和理論,其中最具影響力的五種方法被稱為「機器學習五大派」。這五大派分別為符號派、聯結派、進化派、貝葉斯派和類推學派。 1.符號學派符號學(Symbolism),又稱符號主義,強調利用符號進行邏輯推理和表達知識。該學派認為學習是一種逆向演繹的過程,透過現有的

譯者|李睿審校|重樓人工智慧(AI)和機器學習(ML)模型如今變得越來越複雜,這些模型產生的產出是黑盒子-無法向利害關係人解釋。可解釋性人工智慧(XAI)致力於透過讓利害關係人理解這些模型的工作方式來解決這個問題,確保他們理解這些模型實際上是如何做出決策的,並確保人工智慧系統中的透明度、信任度和問責制來解決這個問題。本文探討了各種可解釋性人工智慧(XAI)技術,以闡明它們的基本原理。可解釋性人工智慧至關重要的幾個原因信任度和透明度:為了讓人工智慧系統被廣泛接受和信任,使用者需要了解決策是如何做出的

01前景概要目前,難以在檢測效率和檢測結果之間取得適當的平衡。我們研究了一種用於高解析度光學遙感影像中目標偵測的增強YOLOv5演算法,利用多層特徵金字塔、多重偵測頭策略和混合注意力模組來提高光學遙感影像的目標偵測網路的效果。根據SIMD資料集,新演算法的mAP比YOLOv5好2.2%,比YOLOX好8.48%,在偵測結果和速度之間達到了更好的平衡。 02背景&動機隨著遠感技術的快速發展,高解析度光學遠感影像已被用於描述地球表面的許多物體,包括飛機、汽車、建築物等。目標檢測在遠感影像的解釋中

在C++中,機器學習演算法的實作方式包括:線性迴歸:用於預測連續變量,步驟包括載入資料、計算權重和偏差、更新參數和預測。邏輯迴歸:用於預測離散變量,流程與線性迴歸類似,但使用sigmoid函數進行預測。支援向量機:一種強大的分類和回歸演算法,涉及計算支援向量和預測標籤。

Slim和Phalcon在PHP微框架的安全性比較中,Phalcon內建有CSRF和XSS防護、表單驗證等安全特性,而Slim缺乏開箱即用的安全特性,需手動實施安全措施。對於安全至關重要的應用程序,Phalcon提供了更全面的保護,是更好的選擇。

在Golang中使用機器學習來開發智慧演算法和資料驅動解決方案:安裝Gonum庫用於機器學習演算法和實用程式。使用Gonum的LinearRegression模型進行線性迴歸,一種監督學習演算法。用訓練資料訓練模型,訓練資料包含輸入變數和目標變數。根據新特徵預測房價,模型將從中提取線性關係。

一、整體框架主要任務可分為三類。首先是因果結構的發現,即從資料中辨識出變數之間的因果關係。其次是因果效應的估計,即從資料推斷一個變數對另一個變數的影響程度。需要注意的是,這種影響並非指相對性,而是指在對一個變數進行幹預時,另一個變數的數值或分佈如何變化。最後是校正偏差,因為在許多任務中,各種因素可能導致開發樣本和應用樣本的分佈不同。在這種情況下,因果推論可能有助於我們進行校正偏差。這些功能適用於多種場景,其中最典型的是決策場景。透過因果推斷,可以了解不同使用者對我們的決策行為的反應。其次,在工業
