目錄
企業正在慢慢意識到機器學習可以為他們開闢的途徑。但是,他們是否也密切關注網路安全?
攻擊者如何利用公開的機器學習輸入?
企業應該特別擔心哪些針對機器學習系統的威脅?
在部署機器學習驅動系統時,首席資訊安全長(CISO)應牢記哪些主要安全注意事項?
首頁 科技週邊 人工智慧 機器學習創造新的攻擊面,需要專門的防禦

機器學習創造新的攻擊面,需要專門的防禦

May 13, 2023 am 11:04 AM
機器學習 網路安全

機器學習創造新的攻擊面,需要專門的防禦

由於幾乎每個行業的企業都將人工智慧(AI)技術整合到他們的硬體和軟體產品中,機器學習(ML)輸入和輸出正變得越來越廣泛地可供客戶使用。這自然引起了惡意行為者的注意。

HiddenLayer的執行長ChristopherSestito談到了機器學習安全注意事項以及企業應該擔心的相關威脅。

企業正在慢慢意識到機器學習可以為他們開闢的途徑。但是,他們是否也密切關注網路安全?

很少有企業專注於保護他們的機器學習資產,更少的企業將資源分配給機器學習安全。造成這種情況的原因有很多,包括競爭的預算優先事項、人才稀缺,以及直到最近都缺乏針對此問題的安全產品。

在過去的十年中,我們看到每個行業都以前所未有的方式採用人工智慧/機器學習,以應對每個可用資料的用例。優勢已得到證實,但正如我們在其他新技術中看到的那樣,它們很快就成為惡意行為者的新攻擊面。

隨著機器學習操作的進步,資料科學團隊在有效性、效率、可靠性和可解釋性方面正在建立更成熟的人工智慧生態系統,但安全性尚未優先考慮。對於企業企業來說,這不再是一條可行的道路,因為攻擊機器學習L系統的動機很明確,攻擊工具可用且易於使用,並且潛在目標正以前所未有的速度增長。

攻擊者如何利用公開的機器學習輸入?

隨著機器學習模型被整合到越來越多的生產系統中,它們正在硬體和軟體產品、Web應用程式、行動應用程式等領域向客戶展示。這種趨勢通常被稱為“邊緣人工智慧”,它為我們每天使用的所有技術帶來了令人難以置信的決策能力和預測能力。向越來越多的最終用戶提供機器學習同時將這些相同的機器學習資產暴露給威脅參與者。

未透過網路公開的機器學習模型也面臨風險。可以透過傳統的網路攻擊技術存取這些模型,為對抗性機器學習機會鋪路。一旦威脅參與者獲得存取權限,他們就可以使用多種類型的攻擊。推理攻擊試圖映射或「反轉」模型,從而能夠利用模型的弱點、篡改整體產品的功能或複製和竊取模型本身。

人們已經看到了這種攻擊安全供應商繞過防毒或其他保護機制的真實例子。攻擊者還可以選擇毒化用於訓練模型的數據,以誤導系統學習不正確,並使決策有利於攻擊者。

企業應該特別擔心哪些針對機器學習系統的威脅?

雖然需要防禦所有對抗性機器學習攻擊類型,但不同的企業將有不同的優先順序。利用機器學習模型識別詐欺交易的金融機構將高度關注防禦推理攻擊。

如果攻擊者了解詐欺偵測系統的優勢和劣勢,他們可以使用它來改變他們的技術以不被發現,完全繞過模型。醫療保健企業可能對數據中毒更敏感。醫學領域是最早使用其海量歷史資料集透過機器學習預測結果的採用者。

資料中毒攻擊可能導致誤診、改變藥物試驗結果、歪曲患者群體等。安全企業本身目前正專注於機器學習繞過攻擊,這些攻擊被積極用於部署勒索軟體或後門網路。

在部署機器學習驅動系統時,首席資訊安全長(CISO)應牢記哪些主要安全注意事項?

如今能給首席資訊安全長(CISO)的最佳建議是接受我們已經在新興技術中學到的模式。就像我們在雲端基礎架構方面的進步一樣,機器學習部署代表了一個新的攻擊面,需要專門的防禦。使用Microsoft的Counterfit或IBM的Adversarial Robustness Toolbox等開源攻擊工具,進行對抗性機器學習攻擊的門檻每天都在降低。

另一個主要考慮因素是,其中許多攻擊並不明顯,如果不尋找它們,可能無法理解它們正在發生。作為安全從業者,已經習慣了勒索軟體,這清楚地表明一個企業受到了攻擊,資料被鎖定或被盜。對抗性機器學習攻擊可以客製化為在更長的時間內發生,並且有些攻擊(例如資料中毒)可能是一個較慢但具有永久性破壞性的過程。

以上是機器學習創造新的攻擊面,需要專門的防禦的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

一文帶您了解SHAP:機器學習的模型解釋 一文帶您了解SHAP:機器學習的模型解釋 Jun 01, 2024 am 10:58 AM

在機器學習和資料科學領域,模型的可解釋性一直是研究者和實踐者關注的焦點。隨著深度學習和整合方法等複雜模型的廣泛應用,理解模型的決策過程變得尤為重要。可解釋人工智慧(ExplainableAI|XAI)透過提高模型的透明度,幫助建立對機器學習模型的信任和信心。提高模型的透明度可以透過多種複雜模型的廣泛應用等方法來實現,以及用於解釋模型的決策過程。這些方法包括特徵重要性分析、模型預測區間估計、局部可解釋性演算法等。特徵重要性分析可以透過評估模型對輸入特徵的影響程度來解釋模型的決策過程。模型預測區間估計

透過學習曲線辨識過擬合和欠擬合 透過學習曲線辨識過擬合和欠擬合 Apr 29, 2024 pm 06:50 PM

本文將介紹如何透過學習曲線來有效辨識機器學習模型中的過度擬合和欠擬合。欠擬合和過擬合1、過擬合如果一個模型對資料進行了過度訓練,以至於它從中學習了噪聲,那麼這個模型就被稱為過擬合。過度擬合模型非常完美地學習了每一個例子,所以它會錯誤地分類一個看不見的/新的例子。對於一個過度擬合的模型,我們會得到一個完美/接近完美的訓練集分數和一個糟糕的驗證集/測試分數。略有修改:"過擬合的原因:用一個複雜的模型來解決一個簡單的問題,從資料中提取雜訊。因為小資料集作為訓練集可能無法代表所有資料的正確表示。"2、欠擬合如

人工智慧在太空探索和人居工程中的演變 人工智慧在太空探索和人居工程中的演變 Apr 29, 2024 pm 03:25 PM

1950年代,人工智慧(AI)誕生。當時研究人員發現機器可以執行類似人類的任務,例如思考。後來,在1960年代,美國國防部資助了人工智慧,並建立了實驗室進行進一步開發。研究人員發現人工智慧在許多領域都有用武之地,例如太空探索和極端環境中的生存。太空探索是對宇宙的研究,宇宙涵蓋了地球以外的整個宇宙空間。太空被歸類為極端環境,因為它的條件與地球不同。要在太空中生存,必須考慮許多因素,並採取預防措施。科學家和研究人員認為,探索太空並了解一切事物的現狀有助於理解宇宙的運作方式,並為潛在的環境危機

使用C++實現機器學習演算法:常見挑戰及解決方案 使用C++實現機器學習演算法:常見挑戰及解決方案 Jun 03, 2024 pm 01:25 PM

C++中機器學習演算法面臨的常見挑戰包括記憶體管理、多執行緒、效能最佳化和可維護性。解決方案包括使用智慧指標、現代線程庫、SIMD指令和第三方庫,並遵循程式碼風格指南和使用自動化工具。實作案例展示如何利用Eigen函式庫實現線性迴歸演算法,有效地管理記憶體和使用高效能矩陣操作。

你所不知道的機器學習五大學派 你所不知道的機器學習五大學派 Jun 05, 2024 pm 08:51 PM

機器學習是人工智慧的重要分支,它賦予電腦從數據中學習的能力,並能夠在無需明確編程的情況下改進自身能力。機器學習在各個領域都有廣泛的應用,從影像辨識和自然語言處理到推薦系統和詐欺偵測,它正在改變我們的生活方式。機器學習領域存在著多種不同的方法和理論,其中最具影響力的五種方法被稱為「機器學習五大派」。這五大派分別為符號派、聯結派、進化派、貝葉斯派和類推學派。 1.符號學派符號學(Symbolism),又稱符號主義,強調利用符號進行邏輯推理和表達知識。該學派認為學習是一種逆向演繹的過程,透過現有的

Flash Attention穩定嗎? Meta、哈佛發現其模型權重偏差呈現數量級波動 Flash Attention穩定嗎? Meta、哈佛發現其模型權重偏差呈現數量級波動 May 30, 2024 pm 01:24 PM

MetaFAIR聯合哈佛優化大規模機器學習時所產生的資料偏差,提供了新的研究架構。據所周知,大語言模型的訓練常常需要數月的時間,使用數百甚至上千個GPU。以LLaMA270B模型為例,其訓練總共需要1,720,320個GPU小時。由於這些工作負載的規模和複雜性,導致訓練大模型存在著獨特的系統性挑戰。最近,許多機構在訓練SOTA生成式AI模型時報告了訓練過程中的不穩定情況,它們通常以損失尖峰的形式出現,例如Google的PaLM模型訓練過程中出現了多達20次的損失尖峰。數值偏差是造成這種訓練不準確性的根因,

可解釋性人工智慧:解釋複雜的AI/ML模型 可解釋性人工智慧:解釋複雜的AI/ML模型 Jun 03, 2024 pm 10:08 PM

譯者|李睿審校|重樓人工智慧(AI)和機器學習(ML)模型如今變得越來越複雜,這些模型產生的產出是黑盒子-無法向利害關係人解釋。可解釋性人工智慧(XAI)致力於透過讓利害關係人理解這些模型的工作方式來解決這個問題,確保他們理解這些模型實際上是如何做出決策的,並確保人工智慧系統中的透明度、信任度和問責制來解決這個問題。本文探討了各種可解釋性人工智慧(XAI)技術,以闡明它們的基本原理。可解釋性人工智慧至關重要的幾個原因信任度和透明度:為了讓人工智慧系統被廣泛接受和信任,使用者需要了解決策是如何做出的

C++技術中的機器學習:使用C++實作常見機器學習演算法的指南 C++技術中的機器學習:使用C++實作常見機器學習演算法的指南 Jun 03, 2024 pm 07:33 PM

在C++中,機器學習演算法的實作方式包括:線性迴歸:用於預測連續變量,步驟包括載入資料、計算權重和偏差、更新參數和預測。邏輯迴歸:用於預測離散變量,流程與線性迴歸類似,但使用sigmoid函數進行預測。支援向量機:一種強大的分類和回歸演算法,涉及計算支援向量和預測標籤。

See all articles