在2023年RSA大會上接受採訪的網路安全供應商的CEO表示,他們的企業客戶認可ChatGPT在改善網路安全方面的價值,同時也表達了對機密資料和智慧財產權意外外洩風險的擔憂。雲端安全聯盟(CSA)在會議期間發布了有史以來第一份ChatGPT指導文件,呼籲業界改善人工智慧路線圖。
NextDLP的CEO Connie Stack介紹稱,她的公司調查了Next客戶對ChatGPT的使用情況,發現97%的大型企業都發現其員工使用該工具。 Next的Reveal平台上有10%的終端存取了ChatGPT。
在2023年RSA大會的一次訪談中,Stack表示,「這種程度的ChatGPT使用率是我們的一些客戶在評估這種新的資料遺失載體時十分關注的問題。一些Next的客戶選擇直接停用它,其中包括一家醫療保健公司,該公司無法接受向面向公眾的生成式大型語言模型洩露知識產權和商業秘密的任何風險。其他公司對潛在的好處持開放態度,並選擇謹慎地使用ChatGPT來支持諸如增強數據丟失'威脅搜索'和支持安全相關內容創建之類的事情。”
生成式AI技術有可能提高威脅分析師、威脅獵人和安全營運中心(SOC)員工的學習和工作效率,這是網路安全廠商爭先恐後採用ChatGPT等生成式AI工具的主要動力。持續的學習需要深入企業的威脅防禦中,這樣他們就可以依靠「肌肉記憶」來適應、回應並在入侵企圖開始之前消滅它。
2023年RSA大會上討論最多的話題當屬新發布的ChatGPT產品和整合。
在宣布推出新產品和整合的20家供應商中,最值得注意的是Airgap Networks、Google Security AI Workbench、Microsoft Security Copilot(在展會前推出)、Recorded Future、Security Scorecard和SentinelOne 。
其中Airgap的零信任防火牆(ZTFW)與ThreatGPT尤其值得關注。它被設計為透過在網路核心中添加專用的微分段和存取層來補充現有的外圍防火牆基礎設施。 Airgap的CEO Ritesh Agrawal表示,「憑藉高度準確的資產發現、無代理微分段和安全訪問,Airgap為應對不斷變化的威脅提供了豐富的情報。客戶現在需要的是一種無需任何編程即可輕鬆利用這種功能的方法。這就是ThreatGPT的美妙之處——人工智慧的純粹資料探勘智慧與簡單的自然語言介面相結合。這對安全團隊來說將是遊戲規則的改變者。」
在20家零信任新創公司中,Airgap被認為是「最具創新性的工程和產品開發團隊」之一。 Airgap的ThreatGPT結合了圖形資料庫和GPT-3模型,提供了以前無法獲得的網路安全洞察。該公司配置GPT-3模型來分析自然語言查詢並識別潛在的安全威脅,同時整合圖形資料庫以提供端點之間流量關係的上下文智慧。
生成式AI增強零信任的一種方法是識別和加強企業最脆弱的威脅表面。今年早些時候,零信任的創造者John Kindervag在接受采訪時建議,“你要從一個受保護的表面開始”,並談到了他所謂的“零信任學習曲線。你沒有從技術入手,這就是誤解。」
以下是生成式AI加強NIST 800-207標準中定義的零信任核心框架的潛在方法:
首席資訊安全長(CISO)們希望整合自己的技術堆疊,因為在威脅分析、事件回應和警報系統方面存在太多相互衝突的系統,而SOC分析師不確定什麼是最緊迫的。生成式AI和ChatGPT已經被證明是整合應用程式的強大工具。它們最終將為CISO提供跨基礎設施的威脅分析和事件回應的單一視圖。
零信任的核心是身分。生成式AI有可能快速識別給定身分的活動是否與其先前的歷史一致。
CISO們認為,需要阻止的最具挑戰性的入侵行為通常是從內部開始的,利用的是合法的身份和憑證。
LLM(大語言模型)的核心優勢之一是能夠根據小樣本量發現資料中的異常。這非常適合保護IAM、PAM和Active Directories。事實證明,LLM 在分析使用者存取日誌和偵測可疑活動方面是有效的。
正確進行微分段面臨的諸多挑戰可能會導致大型微分段專案拖延數月甚至數年。雖然網路微分段旨在隔離企業網路中定義的分段,但它很少是一勞永逸的任務。
生成式AI可以透過確定如何在不中斷系統和資源存取的情況下最好地引入微分段方案來提供幫助。最重要的是,它可以潛在地減少不良微分段專案在IT服務管理系統中創建的數以千計的故障單。
攻擊者一直在尋找端點安全性和身分管理之間的漏洞。生成式AI和ChatGPT可以幫助解決這個問題,為威脅獵人提供所需的情報,讓他們知道哪些端點最容易被攻破。
為了強化安全反應的“肌肉記憶”,特別是當涉及到端點時,生成式AI可以用來不斷學習攻擊者試圖滲透端點的方式、目標點以及他們試圖使用的身份。
將生成式AI應用於透過身分、系統和時間長度限制對資源的存取是最強大的零信任AI增強用例之一。根據資源和權限設定檔向ChatGPT查詢稽核資料可為系統管理員和SOC團隊每年節省數千小時。
最低權限存取的核心部分是刪除過時的帳戶。 Ivanti的《2023年安全準備狀況報告》發現,45%的企業懷疑前員工和承包商仍可主動存取公司的系統和文件。
Ivanti的首席產品長Srinivas Mukkamala博士指出,「大型企業往往沒有考慮到龐大的應用程式、平台和第三方服務生態系統,這些應用程式、平台和第三方服務授予的存取權遠遠超過員工的任期。我們稱這些為'殭屍憑證',數量驚人的安全專業人員,甚至是高層管理人員,仍然可以訪問前雇主的系統和數據。”
生成式AI和ChatGPT將使SOC分析師和團隊能夠更快地掌握行為分析和風險評分發現的異常情況。然後,他們可以立即阻止潛在攻擊者試圖進行的任何橫向移動。僅透過風險評分定義特權存取將過時,生成式AI會將請求置於上下文中,並向其演算法發送警報以識別潛在威脅。
大多數成功的零信任計劃都是建立在資料整合基礎之上的,後者匯總和報告即時分析、報告和可見性。企業可將這些資料用於訓練生成式AI模型,為SOC的威脅獵人和分析師提供前所未有的見解。
在阻止電子商務詐欺方面,其結果將是可以立即衡量的,因為攻擊者會以無法跟上攻擊步伐的電子商務系統為目標。具有ChatGPT存取歷史資料的威脅分析人員將立即知道標記的交易是否合法。
零信任的另一個核心元件是基於身分、資產和端點的存取控製粒度。尋求生成式AI來創建全新的工作流程,可以更準確地偵測網路流量模式、使用者行為和情境智慧的組合,從而根據身分、角色建議策略變更。威脅獵人、SOC分析師和詐欺分析師將在幾秒鐘內了解每個被濫用的特權存取憑證,並能夠透過簡單的ChatGPT命令限制所有存取。
ChatGPT所基於的LLM模型已被證明在改進異常檢測和簡化詐欺檢測方面是有效的。該領域的下一步是利用ChatGPT模型來自動化存取策略和使用者群組創建,並隨時了解模型產生的即時資料的合規性。 ChatGPT將大幅提高配置管理、風險治理和合規性報告的工作效率。
這是攻擊者賴以生存的威脅表面——用社交工程手段誘騙受害者支付大筆現金。 ChatGPT已被證明在自然語言處理(NLP)方面非常有效,並且與其LLM結合,可以有效地檢測電子郵件中的異常文字模式。這些模式通常是商業電子郵件入侵(BEC)詐欺的標誌。 ChatGPT還可以偵測識別AI產生的電子郵件並將其傳送到隔離區。生成式AI正被用於開發下一代網路彈性平台和檢測系統。
ChatGPT和生成式AI可以透過加強企業零信任安全的「肌肉記憶」來應對不斷變化的威脅情報和安全知識的挑戰。是時候將這些技術視為學習系統了,透過記錄和檢測所有網路流量、限制和控制存取以及驗證和保護網路資源,幫助企業不斷提高其網路安全自動化水平和人力技能,以抵禦外部和內部威脅。
以上是ChatGPT和生成式AI強化零信任的十種方式的詳細內容。更多資訊請關注PHP中文網其他相關文章!