目前人工智慧技術面臨的最大風險是大語言模型(LLM)和生成式人工智慧技術的發展和應用速度已經遠遠超過了安全和治理的速度。
OpenAI、Anthropic、Google和微軟等公司的生成式人工智慧和大語言模型產品的使用正呈指數級增長。同時,開源大語言模型方案也在高速成長,HuggingFace等開源人工智慧社群提供了大量開源模型、資料集和AI應用。
為了推動人工智慧的發展步伐,OWASP、OpenSSF、CISA等產業組織正在積極開發和提供人工智慧安全與治理關鍵資產,例如OWASP AI Exchange、AI安全和隱私指南以及大語言模型十大風險清單(LLMTop10)。
最近,OWASP發布了大語言模型網路安全與治理清單,填補了生成式人工智慧安全治理的空白,具體內容如下:
OWASP的語言模型網路安全與治理清單對人工智慧、機器學習、生成式人工智慧和大語言模型之間的區別給出了定義。
例如,OWASP對生成式人工智慧的定義是:一種專注於創建新資料的機器學習,而大語言模型是一種用於處理和生成類人類產生的「自然內容」的人工智慧模型——它們根據所提供的輸入進行預測,並且輸出是類似人類產生的「自然內容」。
關於先前發布的“大語言模型十大威脅清單”,OWASP認為它可幫助網路安全從業者跟上快速發展的AI技術,識別關鍵威脅並確保企業擁有基本的安全控制措施來保護和支援使用生成式人工智慧和大語言模型的業務。然而OWASP認為清單並不詳盡,並且需要根據生成式人工智慧的發展不斷改進。
#OWASP的大語言模型安全治理策略部署分為六個步驟:
大語言模型的對手風險不僅涉及競爭對手,也涉及攻擊者,其關注點不僅是攻擊態勢,還包括商業態勢。這包括了解競爭對手如何使用人工智慧來推動業務成果,以及更新內部流程和政策(例如事件回應計畫(IRP)),以應對生成式人工智慧攻擊和事件。
威脅建模是一種日益流行的安全技術,隨著安全設計系統理念的推廣而獲得越來越多的關注,得到了美國網絡安全和基礎設施安全局(CISA)等權威機構的認可。威脅建模需要思考攻擊者如何利用大型語言模型和生成式人工智慧來加速漏洞利用,企業偵測惡意大型語言模式的能力,以及組織是否能夠保護大型語言模型和生成式人工智慧平台與內部系統和環境的連接。
「你無法保護未知的資產」這句格言也適用於生成式人工智慧和大語言模型領域。 OWASP清單的這部分內容涉及對內部開發的人工智慧解決方案以及外部工具和平台進行人工智慧資產清單編制。
OWASP強調,企業不僅要了解內部使用了哪些工具和服務,還要了解其所有權,也就是誰對這些工具和服務的使用負責。清單還建議將人工智慧元件包含在軟體材料清單(SBOM)中,並記錄人工智慧資料來源及其各自的敏感度。
除了對現有人工智慧工具進行清單編制之外,企業還應該建立一個安全流程將未來的AI工具和服務添加到清單中。
人們常說“人是最大的安全漏洞”,企業只有將人工智慧安全和隱私培訓合理整合到其生成式人工智慧和大語言模型的應用過程中,才能極大緩解人的風險。
這包括幫助員工了解現有生成式人工智慧/大語言模型計劃、技術及其功能,以及關鍵的安全注意事項,例如資料外洩。此外,建立信任和透明的安全文化至關重要。
企業內部的信任和透明文化也有助於避免影子AI威脅,否則,員工將「偷偷「使用影子AI而不告訴IT和安全團隊。
就像雲端運算一樣,大多數企業其實並沒有為生成式人工智慧和大語言模型等新技術應用制定連貫的策略性商業論證,很容易盲目跟風,陷入炒作。沒有合理的商業論證,企業的人工智慧應用很可能會產生糟糕結果並增加風險。
沒有治理,企業就無法建立人工智慧的責任機制和明確目標。 OWASP清單建議企業為人工智慧應用制定RACI圖表(責任分配矩陣),記錄並分配風險責任和治理任務,建立全企業範圍的人工智慧政策和流程。
隨著人工智慧技術的快速發展,其法律影響不容低估,並可能在為企業帶來財務和聲譽的重大風險。
人工智慧法務涉及一系列活動,例如人工智慧產品保固、人工智慧最終用戶授權協議(EULA)、使用人工智慧工具開發的程式碼的所有權、智慧財產權風險和合約賠償條款等。簡而言之,請確保企業的法律團隊或專家了解企業使用生成式人工智慧和大語言模式時應該進行的各種配套法律活動。
人工智慧監管法規也在迅速發展,例如歐盟的人工智慧法案,其他國家和地區的法規也將很快出台。企業應該了解所在國家的人工智慧合規要求,例如員工監控,並清楚了解其人工智慧供應商如何儲存和刪除資料以及如何監管其使用。
使用大型語言模型解決方案需要考慮特定的風險和控制措施。 OWASP清單列出了諸如存取控制、訓練管道安全、映射資料工作流程以及了解大型語言模型模型和供應鏈中存在的或潛在的漏洞等項目。此外,還需要對供應商進行第三方審計、滲透測試甚至程式碼審查,這些工作既要初始進行,也要持續進行。
TEVV流程是NIST在其人工智慧框架中特別推薦的流程。這涉及在整個人工智慧模型生命週期中建立持續的測試、評估、驗證和驗證,以及提供有關人工智慧模型功能、安全性和可靠性的執行指標。
為了合乎道德地部署大語言模型,OWASP清單要求企業使用模型和風險卡,這些卡可用於讓使用者理解和信任人工智慧系統,並公開解決偏見和隱私等潛在的負面後果。
這些卡片可以包含模型詳細資訊、架構、訓練資料方法和效能指標等項目。也強調考慮負責任的人工智慧所需考慮的因素以及對公平和透明度的關注。
檢索增強生成(RAG)是一種最佳化大語言模型從特定來源檢索相關資料能力的方法。它是優化預訓練模型或根據新資料重新訓練現有模型來提高效能的方法之一。 OWASP建議企業實施RAG,以最大限度地提高大語言模式的價值和有效性。
最後,OWASP清單強調了人工智慧紅隊的重要性,後者模擬人工智慧系統的對抗性攻擊,以識別漏洞並驗證現有的控制和防禦。 OWASP強調,紅隊應該是生成式人工智慧和大語言模式的全面安全解決方案不可或缺的一部分。
值得注意的是,企業還需要清楚地了解外部生成式人工智慧和大語言模型供應商的紅隊服務和系統要求與能力,以避免違反政策,甚至陷入法律麻煩。
以上是OWASP發布大語言模型網路安全與治理清單的詳細內容。更多資訊請關注PHP中文網其他相關文章!