目錄
OWASP對AI類型與威脅的定義
OWASP將AI安全威脅分為以下五種:
以下是OWASP大語言模型網路安全與治理清單:#​​
1.對手風險
2.威脅建模
3.人工智慧資產清單
4.人工智慧安全和隱私意識培訓
5.人工智慧專案的商業論證
6.治理
7.法律
8.監管
9.使用或實作大語言模型解決方案
10.測試、評估、驗證和確認(TEVV)
11.模型卡與風險卡
12RAG:大語言模型最佳化
13.AI紅隊
首頁 科技週邊 人工智慧 OWASP發布大語言模型網路安全與治理清單

OWASP發布大語言模型網路安全與治理清單

Apr 17, 2024 pm 07:31 PM
人工智慧 大語言模型

目前人工智慧技術面臨的最大風險是大語言模型(LLM)和生成式人工智慧技術的發展和應用速度已經遠遠超過了安全和治理的速度。

OWASP發布大語言模型網路安全與治理清單

OpenAI、Anthropic、Google和微軟等公司的生成式人工智慧和大語言模型產品的使用正呈指數級增長。同時,開源大語言模型方案也在高速成長,HuggingFace等開源人工智慧社群提供了大量開源模型、資料集和AI應用。

為了推動人工智慧的發展步伐,OWASP、OpenSSF、CISA等產業組織正在積極開發和提供人工智慧安全與治理關鍵資產,例如OWASP AI Exchange、AI安全和隱私指南以及大語言模型十大風險清單(LLMTop10)。

最近,OWASP發布了大語言模型網路安全與治理清單,填補了生成式人工智慧安全治理的空白,具體內容如下:

OWASP對AI類型與威脅的定義

OWASP的語言模型網路安全與治理清單對人工智慧、機器學習、生成式人工智慧和大語言模型之間的區別給出了定義。

例如,OWASP對生成式人工智慧的定義是:一種專注於創建新資料的機器學習,而大語言模型是一種用於處理和生成類人類產生的「自然內容」的人工智慧模型——它們根據所提供的輸入進行預測,並且輸出是類似人類產生的「自然內容」。

關於先前發布的“大語言模型十大威脅清單”,OWASP認為它可幫助網路安全從業者跟上快速發展的AI技術,識別關鍵威脅並確保企業擁有基本的安全控制措施來保護和支援使用生成式人工智慧和大語言模型的業務。然而OWASP認為清單並不詳盡,並且需要根據生成式人工智慧的發展不斷改進。

OWASP將AI安全威脅分為以下五種:

OWASP發布大語言模型網路安全與治理清單

#OWASP的大語言模型安全治理策略部署分為六個步驟:

OWASP發布大語言模型網路安全與治理清單

以下是OWASP大語言模型網路安全與治理清單:#​​

1.對手風險

大語言模型的對手風險不僅涉及競爭對手,也涉及攻擊者,其關注點不僅是攻擊態勢,還包括商業態勢。這包括了解競爭對手如何使用人工智慧來推動業務成果,以及更新內部流程和政策(例如事件回應計畫(IRP)),以應對生成式人工智慧攻擊和事件。

2.威脅建模

威脅建模是一種日益流行的安全技術,隨著安全設計系統理念的推廣而獲得越來越多的關注,得到了美國網絡安全和基礎設施安全局(CISA)等權威機構的認可。威脅建模需要思考攻擊者如何利用大型語言模型和生成式人工智慧來加速漏洞利用,企業偵測惡意大型語言模式的能力,以及組織是否能夠保護大型語言模型和生成式人工智慧平台與內部系統和環境的連接。

3.人工智慧資產清單

「你無法保護未知的資產」這句格言也適用於生成式人工智慧和大語言模型領域。 OWASP清單的這部分內容涉及對內部開發的人工智慧解決方案以及外部工具和平台進行人工智慧資產清單編制。

OWASP強調,企業不僅要了解內部使用了哪些工具和服務,還要了解其所有權,也就是誰對這些工具和服務的使用負責。清單還建議將人工智慧元件包含在軟體材料清單(SBOM)中,並記錄人工智慧資料來源及其各自的敏感度。

除了對現有人工智慧工具進行清單編制之外,企業還應該建立一個安全流程將未來的AI工具和服務添加到清單中。

4.人工智慧安全和隱私意識培訓

人們常說“人是最大的安全漏洞”,企業只有將人工智慧安全和隱私培訓合理整合到其生成式人工智慧和大語言模型的應用過程中,才能極大緩解人的風險。

這包括幫助員工了解現有生成式人工智慧/大語言模型計劃、技術及其功能,以及關鍵的安全注意事項,例如資料外洩。此外,建立信任和透明的安全文化至關重要。

企業內部的信任和透明文化也有助於避免影子AI威脅,否則,員工將「偷偷「使用影子AI而不告訴IT和安全團隊。

5.人工智慧專案的商業論證

就像雲端運算一樣,大多數企業其實並沒有為生成式人工智慧和大語言模型等新技術應用制定連貫的策略性商業論證,很容易盲目跟風,陷入炒作。沒有合理的商業論證,企業的人工智慧應用很可能會產生糟糕結果並增加風險。

6.治理

沒有治理,企業就無法建立人工智慧的責任機制和明確目標。 OWASP清單建議企業為人工智慧應用制定RACI圖表(責任分配矩陣),記錄並分配風險責任和治理任務,建立全企業範圍的人工智慧政策和流程。

7.法律

隨著人工智慧技術的快速發展,其法律影響不容低估,並可能在為企業帶來財務和聲譽的重大風險。

人工智慧法務涉及一系列活動,例如人工智慧產品保固、人工智慧最終用戶授權協議(EULA)、使用人工智慧工具開發的程式碼的所有權、智慧財產權風險和合約賠償條款等。簡而言之,請確保企業的法律團隊或專家了解企業使用生成式人工智慧和大語言模式時應該進行的各種配套法律活動。

8.監管

人工智慧監管法規也在迅速發展,例如歐盟的人工智慧法案,其他國家和地區的法規也將很快出台。企業應該了解所在國家的人工智慧合規要求,例如員工監控,並清楚了解其人工智慧供應商如何儲存和刪除資料以及如何監管其使用。

9.使用或實作大語言模型解決方案

使用大型語言模型解決方案需要考慮特定的風險和控制措施。 OWASP清單列出了諸如存取控制、訓練管道安全、映射資料工作流程以及了解大型語言模型模型和供應鏈中存在的或潛在的漏洞等項目。此外,還需要對供應商進行第三方審計、滲透測試甚至程式碼審查,這些工作既要初始進行,也要持續進行。

10.測試、評估、驗證和確認(TEVV)

TEVV流程是NIST在其人工智慧框架中特別推薦的流程。這涉及在整個人工智慧模型生命週期中建立持續的測試、評估、驗證和驗證,以及提供有關人工智慧模型功能、安全性和可靠性的執行指標。

11.模型卡與風險卡

為了合乎道德地部署大語言模型,OWASP清單要求企業使用模型和風險卡,這些卡可用於讓使用者理解和信任人工智慧系統,並公開解決偏見和隱私等潛在的負面後果。

這些卡片可以包含模型詳細資訊、架構、訓練資料方法和效能指標等項目。也強調考慮負責任的人工智慧所需考慮的因素以及對公平和透明度的關注。

12RAG:大語言模型最佳化

檢索增強生成(RAG)是一種最佳化大語言模型從特定來源檢索相關資料能力的方法。它是優化預訓練模型或根據新資料重新訓練現有模型來提高效能的方法之一。 OWASP建議企業實施RAG,以最大限度地提高大語言模式的價值和有效性。

13.AI紅隊

最後,OWASP清單強調了人工智慧紅隊的重要性,後者模擬人工智慧系統的對抗性攻擊,以識別漏洞並驗證現有的控制和防禦。 OWASP強調,紅隊應該是生成式人工智慧和大語言模式的全面安全解決方案不可或缺的一部分。

值得注意的是,企業還需要清楚地了解外部生成式人工智慧和大語言模型供應商的紅隊服務和系統要求與能力,以避免違反政策,甚至陷入法律麻煩。

#

以上是OWASP發布大語言模型網路安全與治理清單的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

AI Hentai Generator

AI Hentai Generator

免費產生 AI 無盡。

熱門文章

R.E.P.O.能量晶體解釋及其做什麼(黃色晶體)
3 週前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳圖形設置
3 週前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.如果您聽不到任何人,如何修復音頻
3 週前 By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25:如何解鎖Myrise中的所有內容
4 週前 By 尊渡假赌尊渡假赌尊渡假赌

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

位元組跳動剪映推出 SVIP 超級會員:連續包年 499 元,提供多種 AI 功能 位元組跳動剪映推出 SVIP 超級會員:連續包年 499 元,提供多種 AI 功能 Jun 28, 2024 am 03:51 AM

本站6月27日訊息,剪映是由位元組跳動旗下臉萌科技開發的一款影片剪輯軟體,依託於抖音平台且基本面向該平台用戶製作短影片內容,並相容於iOS、安卓、Windows 、MacOS等作業系統。剪映官方宣布會員體系升級,推出全新SVIP,包含多種AI黑科技,例如智慧翻譯、智慧劃重點、智慧包裝、數位人合成等。價格方面,剪映SVIP月費79元,年費599元(本站註:折合每月49.9元),連續包月則為59元每月,連續包年為499元每年(折合每月41.6元) 。此外,剪映官方也表示,為提升用戶體驗,向已訂閱了原版VIP

本地使用Groq Llama 3 70B的逐步指南 本地使用Groq Llama 3 70B的逐步指南 Jun 10, 2024 am 09:16 AM

譯者|布加迪審校|重樓本文介紹如何使用GroqLPU推理引擎在JanAI和VSCode中產生超快速反應。每個人都致力於建立更好的大語言模型(LLM),例如Groq專注於AI的基礎設施方面。這些大模型的快速響應是確保這些大模型更快捷響應的關鍵。本教學將介紹GroqLPU解析引擎以及如何在筆記型電腦上使用API​​和JanAI本地存取它。本文也將把它整合到VSCode中,以幫助我們產生程式碼、重構程式碼、輸入文件並產生測試單元。本文將免費創建我們自己的人工智慧程式設計助理。 GroqLPU推理引擎簡介Groq

使用Rag和Sem-Rag提供上下文增強AI編碼助手 使用Rag和Sem-Rag提供上下文增強AI編碼助手 Jun 10, 2024 am 11:08 AM

透過將檢索增強生成和語意記憶納入AI編碼助手,提升開發人員的生產力、效率和準確性。譯自EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG,作者JanakiramMSV。雖然基本AI程式設計助理自然有幫助,但由於依賴對軟體語言和編寫軟體最常見模式的整體理解,因此常常無法提供最相關和正確的程式碼建議。這些編碼助手產生的代碼適合解決他們負責解決的問題,但通常不符合各個團隊的編碼標準、慣例和風格。這通常會導致需要修改或完善其建議,以便將程式碼接受到應

微調真的能讓LLM學到新東西嗎:引入新知識可能讓模型產生更多的幻覺 微調真的能讓LLM學到新東西嗎:引入新知識可能讓模型產生更多的幻覺 Jun 11, 2024 pm 03:57 PM

大型語言模型(LLM)是在龐大的文字資料庫上訓練的,在那裡它們獲得了大量的實際知識。這些知識嵌入到它們的參數中,然後可以在需要時使用。這些模型的知識在訓練結束時被「具體化」。在預訓練結束時,模型實際上停止學習。對模型進行對齊或進行指令調優,讓模型學習如何充分利用這些知識,以及如何更自然地回應使用者的問題。但是有時模型知識是不夠的,儘管模型可以透過RAG存取外部內容,但透過微調使用模型適應新的領域被認為是有益的。這種微調是使用人工標註者或其他llm創建的輸入進行的,模型會遇到額外的實際知識並將其整合

七個很酷的GenAI & LLM技術性面試問題 七個很酷的GenAI & LLM技術性面試問題 Jun 07, 2024 am 10:06 AM

想了解更多AIGC的內容,請造訪:51CTOAI.x社群https://www.51cto.com/aigc/譯者|晶顏審校|重樓不同於網路上隨處可見的傳統問題庫,這些問題需要跳脫常規思維。大語言模型(LLM)在數據科學、生成式人工智慧(GenAI)和人工智慧領域越來越重要。這些複雜的演算法提升了人類的技能,並在許多產業中推動了效率和創新性的提升,成為企業保持競爭力的關鍵。 LLM的應用範圍非常廣泛,它可以用於自然語言處理、文字生成、語音辨識和推薦系統等領域。透過學習大量的數據,LLM能夠產生文本

在OpenHarmony本地部署大語言模型 在OpenHarmony本地部署大語言模型 Jun 07, 2024 am 10:02 AM

本文將第二屆OpenHarmony技術大會上展示的《在OpenHarmony本地部署大語言模型》成果開源,開源位址:https://gitee.com/openharmony-sig/tpc_c_cplusplus/blob/master/thirdparty/InferLLM/docs/ hap_integrate.md。實作思路與步驟移植輕量級LLM模型推理架構InferLLM到OpenHarmony標準系統,編譯出能在OpenHarmony運作的二進位產物。 InferLLM是個簡單又有效率的L

為大模型提供全新科學複雜問答基準與評估體系,UNSW、阿貢、芝加哥大學等多家機構共同推出SciQAG框架 為大模型提供全新科學複雜問答基準與評估體系,UNSW、阿貢、芝加哥大學等多家機構共同推出SciQAG框架 Jul 25, 2024 am 06:42 AM

編輯|ScienceAI問答(QA)資料集在推動自然語言處理(NLP)研究中發揮著至關重要的作用。高品質QA資料集不僅可以用於微調模型,也可以有效評估大語言模型(LLM)的能力,尤其是針對科學知識的理解和推理能力。儘管目前已有許多科學QA數據集,涵蓋了醫學、化學、生物等領域,但這些數據集仍有一些不足之處。其一,資料形式較為單一,大多數為多項選擇題(multiple-choicequestions),它們易於進行評估,但限制了模型的答案選擇範圍,無法充分測試模型的科學問題解答能力。相比之下,開放式問答

你所不知道的機器學習五大學派 你所不知道的機器學習五大學派 Jun 05, 2024 pm 08:51 PM

機器學習是人工智慧的重要分支,它賦予電腦從數據中學習的能力,並能夠在無需明確編程的情況下改進自身能力。機器學習在各個領域都有廣泛的應用,從影像辨識和自然語言處理到推薦系統和詐欺偵測,它正在改變我們的生活方式。機器學習領域存在著多種不同的方法和理論,其中最具影響力的五種方法被稱為「機器學習五大派」。這五大派分別為符號派、聯結派、進化派、貝葉斯派和類推學派。 1.符號學派符號學(Symbolism),又稱符號主義,強調利用符號進行邏輯推理和表達知識。該學派認為學習是一種逆向演繹的過程,透過現有的

See all articles