機器學習用於安全是美麗的謊言?
譯者 | 布加迪
審校 | 孫淑娟
機器學習(ML)並不是神奇的技術。通常來說,ML適合在擁有龐大資料集的情況下解決範圍狹窄的問題,受關注的模式具有高度可重複性或可預測性。大多數安全性問題不需要ML,也不得益於ML。包括谷歌人員在內的許多專家建議,在解決複雜問題時,應該在用盡所有其他方法後再試一次ML。
ML結合一系列廣泛的統計技術:即使我們沒有提前為正確答案編好程,ML也讓我們可以訓練計算機來估計解決問題的答案。如果精心設計的ML系統用來處理合適類型的問題,可以發掘原本無法獲得的洞察力。
每家組織的IT環境有不一樣的用途、架構、優先順序和風險承受力。不可能創建在所有場景下廣泛支援安全用例的演算法、ML或其他產品。這就是為什麼ML在安全領域的大多數成功應用結合了多種方法來解決一個非常具體的問題。典型例子包括垃圾郵件過濾器、DDoS或殭屍程式(bot)緩解以及惡意軟體偵測。
1.垃圾進垃圾出
ML的最大挑戰是擁有相關的可用資料來解決實際問題。對於監督式ML而言,您需要一個正確標記的大型資料集。比如說,要建立一個識別貓照片的模型,需要拿許多標記為「貓」的貓照片和許多標記為「非貓」的非貓照片來訓練模型。如果您沒有足夠的照片或它們的標記不準確,模型的效果就不會很好。
在安全性方面,一個著名的監督式ML用例是無特徵惡意軟體偵測。許多端點保護平台 (EPP)供應商使用ML來標記大量惡意樣本和良性樣本來訓練模型,知道「惡意軟體是什麼樣子」。這些模型可以正確識別規避性變異惡意軟體及其他詭計(檔案被篡改後,可以規避特徵檢測方法,但仍然是惡意的)。 ML並不符合特徵,而是使用另一個特徵集預測惡意內容,常常可以逮捕基於特徵的方法所疏漏的惡意軟體。
由於ML模型是機率性的,因此需要取捨。 ML可以逮捕特徵方法所疏漏的惡意軟體,但也可能疏漏特徵方法逮捕的惡意軟體。這就是為什麼現代EPP工具使用混合方法,結合ML和基於特徵的技術,以實現最大保護範圍。
2.誤報問題
即使模型精心設計,ML在解釋輸出時也會帶來一些另外的挑戰,包括:
- 結果是機率。 ML 模型輸出的是可能性。如果您的模型旨在識別貓,則會得到類似「這東西80%的可能性是貓」的結果。這種不確定性是ML系統的固有特徵,可能會使結果難以解釋。 80%的可能性是貓咪夠準嗎?
- 模型無法調整,至少最終使用者無法調整。為了處理機率性結果,工具可能由供應商設定的閾值,將它們處理成二進位結果。比如說,貓辨識模型可能會報告任何可能性>90%的「貓」都是貓。貴企業在這方面的容忍度可能高於或低於供應商設定的容忍度。
- 漏報(FN),即未能偵測到真正的惡意內容,這是ML模型的一大弊端,尤其是調整欠佳的模型。我們不喜歡誤報(FP),因為它們浪費時間。但PF 率和FN率之間存在固有的取捨。調整ML模型以優化這種取捨,優先考慮FP率-FN率的「最佳」平衡。然而,「正確」的平衡因組織而異,取決於它們各自的威脅和風險評估。使用基於ML的產品時,必須信任供應商為您選擇適當的閾值。
- 沒有足夠的上下文進行警報分類。 ML的一部分魔力在於,從資料集提取顯著的預測性但任意性的「特徵」。想像一下,辨識一隻貓剛好與天氣高度相關。沒有人會這樣推理。但這就是ML的重點──找到我們原本無法找到的模式,而且大規模地這麼做。即使預測的原因可以暴露給用戶,它在警報分類或事件響應情況下常常毫無幫助。這是由於最終定義ML系統決策的「特徵」對預測能力進行了最佳化。
3.任何其他名稱的「統計」方法
聽起來都很美嗎?
除了ML的利弊外,還有一個地方要注意:並非所有的「ML」都是真正的ML。統計方法可以為您提供有關數據的一些結論。 ML根據您擁有的資料對您沒有的資料進行預測。行銷人員熱衷於蹭「ML」和「人工智慧」的熱度,號稱這是某種現代、創新、先進的科技產品。然而,人們常常很少考慮這項技術是否使用ML,更不用說ML是否是正確的方法。
4.ML能偵測出惡意內容嗎?
當「惡意內容」定義明確且範圍狹窄時,ML可以偵測出。它還可以檢測出與高度可預測的系統中的預期行為相偏差的情況。環境越穩定,ML越有可能正確識別異常。但並非每個異常都是惡意的,操作人員並不總是有足夠的上下文來回應。
ML的強大功能在於增強而不是取代現有方法、系統和團隊,以實現最佳覆蓋範圍和效率。
原文連結:https://www.darkreading.com/vulnerabilities-threats/the-beautiful-lies-of-machine-learning-in-security
以上是機器學習用於安全是美麗的謊言?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

在機器學習和資料科學領域,模型的可解釋性一直是研究者和實踐者關注的焦點。隨著深度學習和整合方法等複雜模型的廣泛應用,理解模型的決策過程變得尤為重要。可解釋人工智慧(ExplainableAI|XAI)透過提高模型的透明度,幫助建立對機器學習模型的信任和信心。提高模型的透明度可以透過多種複雜模型的廣泛應用等方法來實現,以及用於解釋模型的決策過程。這些方法包括特徵重要性分析、模型預測區間估計、局部可解釋性演算法等。特徵重要性分析可以透過評估模型對輸入特徵的影響程度來解釋模型的決策過程。模型預測區間估計

C++中機器學習演算法面臨的常見挑戰包括記憶體管理、多執行緒、效能最佳化和可維護性。解決方案包括使用智慧指標、現代線程庫、SIMD指令和第三方庫,並遵循程式碼風格指南和使用自動化工具。實作案例展示如何利用Eigen函式庫實現線性迴歸演算法,有效地管理記憶體和使用高效能矩陣操作。

機器學習是人工智慧的重要分支,它賦予電腦從數據中學習的能力,並能夠在無需明確編程的情況下改進自身能力。機器學習在各個領域都有廣泛的應用,從影像辨識和自然語言處理到推薦系統和詐欺偵測,它正在改變我們的生活方式。機器學習領域存在著多種不同的方法和理論,其中最具影響力的五種方法被稱為「機器學習五大派」。這五大派分別為符號派、聯結派、進化派、貝葉斯派和類推學派。 1.符號學派符號學(Symbolism),又稱符號主義,強調利用符號進行邏輯推理和表達知識。該學派認為學習是一種逆向演繹的過程,透過現有的

譯者|李睿審校|重樓人工智慧(AI)和機器學習(ML)模型如今變得越來越複雜,這些模型產生的產出是黑盒子-無法向利害關係人解釋。可解釋性人工智慧(XAI)致力於透過讓利害關係人理解這些模型的工作方式來解決這個問題,確保他們理解這些模型實際上是如何做出決策的,並確保人工智慧系統中的透明度、信任度和問責制來解決這個問題。本文探討了各種可解釋性人工智慧(XAI)技術,以闡明它們的基本原理。可解釋性人工智慧至關重要的幾個原因信任度和透明度:為了讓人工智慧系統被廣泛接受和信任,使用者需要了解決策是如何做出的

在C++中,機器學習演算法的實作方式包括:線性迴歸:用於預測連續變量,步驟包括載入資料、計算權重和偏差、更新參數和預測。邏輯迴歸:用於預測離散變量,流程與線性迴歸類似,但使用sigmoid函數進行預測。支援向量機:一種強大的分類和回歸演算法,涉及計算支援向量和預測標籤。

在使用C++實作機器學習演算法時,安全考量至關重要,包括資料隱私、模型篡改和輸入驗證。最佳實務包括採用安全庫、最小化權限、使用沙盒和持續監控。實戰案例中展示了使用Botan庫對CNN模型進行加密和解密,以確保安全訓練和預測。

在Golang中使用機器學習來開發智慧演算法和資料驅動解決方案:安裝Gonum庫用於機器學習演算法和實用程式。使用Gonum的LinearRegression模型進行線性迴歸,一種監督學習演算法。用訓練資料訓練模型,訓練資料包含輸入變數和目標變數。根據新特徵預測房價,模型將從中提取線性關係。

如何增強SpringBoot框架的安全性增強SpringBoot應用的安全至關重要,以保護使用者資料和防止攻擊。以下是增強SpringBoot安全性的幾個關鍵步驟:1.啟用HTTPS使用HTTPS在伺服器和客戶端之間建立安全的連接,防止資訊被竊聽或篡改。在SpringBoot中,可以透過在application.properties中配置以下內容來啟用HTTPS:server.ssl.key-store=path/to/keystore.jksserver.ssl.k
