分析師對ChatGPT安全在2023年發展狀況的八個預測
人工智慧開發商OpenAI公司最近發布的ChatGPT-4又震驚了世界,但它對資料安全領域意味著什麼,目前還沒有定論。一方面,產生惡意軟體和勒索軟體比以往任何時候都更容易。在另一方面,ChatGPT也可以提供一系列新的防禦措施用例。
人工智慧開發商OpenAI公司最近發布的ChatGPT-4又震驚了世界,但它對資料安全領域意味著什麼,目前還沒有定論。一方面,產生惡意軟體和勒索軟體比以往任何時候都更容易。在另一方面,ChatGPT也可以提供一系列新的防禦措施用例。
產業媒體最近採訪了一些世界頂尖的網路安全分析師,他們對2023年ChatGPT和生成式人工智慧的發展進行了以下預測:
- ChatGPT將降低網路犯罪的門檻。
- 製作令人信服的釣魚郵件將變得更容易。
- 企業將需要了解人工智慧技術的安全專業人員。
- 企業將需要驗證產生式人工智慧輸出的內容。
- 生成式人工智慧將升級現有的威脅。
- 企業將定義對ChatGPT使用的期望。
- 人工智慧將增強人類的能力。
- 企業仍將面臨同樣的原有威脅。
以下是網路安全分析師的一些預測。
1.ChatGPT將降低網路犯罪的門檻
McAfee公司高級副總裁兼首席技術長Steve Grobman表示,「ChatGPT降低了使用門檻,使在傳統上需要投入高技能人才和大量資金的一些技術對任何可以訪問互聯網的人來說都是可以採用的。技術不熟練的網路攻擊者現在有辦法批量生成惡意程式碼。
例如,他們可以要求程式編寫程式碼,產生發送給數百個人的短信,就像一個非犯罪的營銷團隊所做的工作那樣。它不是將收件人引導到安全的網站,而是將他們帶到一個帶有惡意威脅的網站。雖然其程式碼本身並不是惡意的,但它可以用來傳遞危險的內容。
與各有利弊的任何新興的技術或應用程式一樣,ChatGPT也會被好人和壞人使用,因此網絡安全社群必須對其被利用的方式保持警惕。」
2.製作令人信服的釣魚郵件將變得更容易
麥肯錫公司合夥人Justin Greis表示,「從廣義上來說,生成式人工智慧是一種工具,就像所有工具一樣,它可以用於美好的目的,也可以用於邪惡的目的。如今已經有許多用例被引用,威脅行為者和好奇的研究人員正在製作更有說服力的網路釣魚電子郵件,產生惡意程式碼和腳本來發起潛在的網路攻擊,甚至只是為了查詢更好、更快的情報。
但對於每一起濫用案件,都將繼續採取控制措施來對付它們。這就是網路安全的本質,這是一場永無止境的超越對手、超越防御者的競賽。
與任何可能被用於惡意傷害的工具一樣,企業必須設置護欄和保護措施,以保護公眾不被濫用。在實驗和利用之間有一條非常微妙的道德界限。」
3.企業將需要了解人工智慧的安全專業人員
SANS研究所的SANS研究員David Hoelzer表示,「ChatGPT目前風靡全球,但就其對網路安全格局的影響而言,我們還僅僅處於起步階段。這標誌著分界線兩邊採用人工智慧/機器學習的新時代的開始,與其說是因為ChatGPT可以做什麼,不如說是因為它促使人工智慧/機器學習成為公眾關注的焦點。
一方面,ChatGPT可以潛在地用於社交工程的民主化,給予缺乏經驗的威脅行動者新的能力,快速輕鬆地生成藉口或騙局,並大規模部署複雜的網絡釣魚攻擊。
另一方面,當涉及到創建新穎的攻擊或防禦時,ChatGPT的能力要弱得多。這並不是它的失敗,而是因為人們要求它做一些沒有接受過訓練的事情。
這對安全專業人員意味著什麼?我們可以安全地忽略ChatGPT嗎?不能。身為安全專業人員,我們中的許多人已經測試過ChatGPT,看看它執行基本功能的效果。它能寫出Pen測試方案嗎?能寫出網路釣魚的藉口嗎? 如何幫助建立攻擊基礎設施和C2?到目前為止,其測試結果喜憂參半。
然而,更大的安全對話並不與ChatGPT有關。這是關於我們目前是否有了解如何建構、使用和解釋人工智慧/機器學習技術的安全角色。 」
4.企業將需要驗證生成式人工智慧輸出的內容
Gartner公司分析師Avivah Litan表示,「在某些情況下,當安全人員不能驗證其輸出的內容時,ChatGPT造成的問題將比它解決的問題更多。例如,它將不可避免地錯過一些漏洞的檢測,並給企業帶來一種虛假的安全感。
同樣,它也會錯過被告知的對網路釣魚攻擊的偵測,並提供不正確或過時的威脅情報。
因此,我們肯定會在2023年看到,ChatGPT將為遺漏的網路攻擊和導致使用它的企業資料外洩的漏洞負責。 」
5.生成式人工智慧將升級現有的威脅
RSA公司首席資訊安全長Rob Hughes表示,「就像許多新技術一樣,我不認為ChatGPT會帶來新的威脅。我認為它對安全格局的最大改變是擴大、加速和增強現有的威脅,特別是網路釣魚。
在基本層面上,ChatGPT可以為網路攻擊者提供語法正確的釣魚郵件,這是我們現在不經常看到的情況。
雖然ChatGPT仍然是一種離線服務,但網路威脅行為者開始結合網路存取、自動化和人工智慧來製造持續的進階攻擊只是一個時間問題。
有了聊天機器人,人類就不需要為垃圾郵件寫誘餌。與其相反,他們可以編寫一個腳本,上面寫著「使用網路資料來熟悉某某人,並不斷向他們發送訊息,直到他們點擊連結。」
網路釣魚仍然是網路安全漏洞的主要原因之一。讓一個自然語言機器人使用分散式魚叉式網路釣魚工具,同時在數百個用戶的機器上大規模工作,將使安全團隊更難完成他們的安全防護工作。 」
6.企業將定義對ChatGPT使用的期望
畢馬威公司網路安全服務負責人Matt Miller表示,隨著越來越多的企業探索和採用ChatGPT,安全性將是首要考慮的問題。以下是一些幫助企業將在2023年搶佔先機的步驟:
(1)設定ChatGPT和類似解決方案在企業環境中應該如何使用的期望。制定可接受的使用政策;定義所有批准的解決方案、用例和員工可以依賴的數據的列表;並要求進行檢查以驗證響應的準確性。
(2)建立內部流程,審查有關使用認知自動化解決方案的法規的影響和演變,特別是知識產權、個人資料的管理,以及適當的包容性和多樣性。
(3)實施技術網路控制,特別注意測試程式碼的操作彈性和掃描惡意有效載荷。其他控制包括但不限於:多因素身份驗證和只允許授權用戶訪問;數據丟失預防方案的應用確保工俱生成的所有代碼都經過標準審查的過程,並且不能直接複製到生產環境中;以及配置網路過濾,以便在員工訪問未經批准的解決方案時發出警報。
7.人工智慧將增強人類的能力
ESG公司分析師服務高級副總裁和高級分析師Doug Cahill表示, “與大多數新技術一樣,ChatGPT將成為網絡攻擊者和防御者的資源,對抗性用例包括偵察和防御者尋求最佳實踐以及威脅情報市場。與其他ChatGPT用例一樣,隨著人工智慧系統在已經很大且不斷增長的資料語料庫上進行訓練,使用者測試回應的保真度也會有所不同。
雖然ChatGPT用例得到廣泛應用,但在團隊成員之間共享威脅情報以進行威脅狩獵和更新規則和防禦模型是很有前途的。然而,ChatGPT是人工智慧增強(而不是取代)在任何類型的威脅調查中應用場景所需的人為因素的另一個例子。 」
8.企業仍將面臨同樣的原有威脅
Acronis公司全球研究副總裁Candid Wuest表示,「雖然ChatGPT是一個強大的語言生成模型,但這項技術不是一個獨立的工具,不能獨立運作。它依賴使用者輸入,並且受限於它所訓練的資料。
例如,該模型產生的釣魚文字仍然需要從電子郵件帳戶發送,並指向一個網站。這些都是可以透過分析來幫助檢測的傳統指標。
雖然ChatGPT有能力編寫漏洞和有效負載,但測試表明,這些功能並不像最初建議的那麼好。該平台還可以編寫惡意軟體,雖然這些程式碼已經可以在網路上和各種論壇上找到,但ChatGPT使它更容易為大眾所接受。
然而,其變化仍然有限,這使得基於行為的檢測和其他方法很容易檢測到這種惡意軟體。 ChatGPT並不是專門針對或利用漏洞而設計的,但是它可能會增加自動或類比訊息的頻率。它降低了網路犯罪分子的進入門檻,但不會為已經成立的企業帶來全新的攻擊方法。 ”
以上是分析師對ChatGPT安全在2023年發展狀況的八個預測的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

熱門話題

DALL-E 3 於 2023 年 9 月正式推出,是比其前身大幅改進的車型。它被認為是迄今為止最好的人工智慧圖像生成器之一,能夠創建具有複雜細節的圖像。然而,在推出時,它不包括

本站6月27日訊息,剪映是由位元組跳動旗下臉萌科技開發的一款影片剪輯軟體,依託於抖音平台且基本面向該平台用戶製作短影片內容,並相容於iOS、安卓、Windows 、MacOS等作業系統。剪映官方宣布會員體系升級,推出全新SVIP,包含多種AI黑科技,例如智慧翻譯、智慧劃重點、智慧包裝、數位人合成等。價格方面,剪映SVIP月費79元,年費599元(本站註:折合每月49.9元),連續包月則為59元每月,連續包年為499元每年(折合每月41.6元) 。此外,剪映官方也表示,為提升用戶體驗,向已訂閱了原版VIP

大型語言模型(LLM)是在龐大的文字資料庫上訓練的,在那裡它們獲得了大量的實際知識。這些知識嵌入到它們的參數中,然後可以在需要時使用。這些模型的知識在訓練結束時被「具體化」。在預訓練結束時,模型實際上停止學習。對模型進行對齊或進行指令調優,讓模型學習如何充分利用這些知識,以及如何更自然地回應使用者的問題。但是有時模型知識是不夠的,儘管模型可以透過RAG存取外部內容,但透過微調使用模型適應新的領域被認為是有益的。這種微調是使用人工標註者或其他llm創建的輸入進行的,模型會遇到額外的實際知識並將其整合

編輯|ScienceAI問答(QA)資料集在推動自然語言處理(NLP)研究中發揮著至關重要的作用。高品質QA資料集不僅可以用於微調模型,也可以有效評估大語言模型(LLM)的能力,尤其是針對科學知識的理解和推理能力。儘管目前已有許多科學QA數據集,涵蓋了醫學、化學、生物等領域,但這些數據集仍有一些不足之處。其一,資料形式較為單一,大多數為多項選擇題(multiple-choicequestions),它們易於進行評估,但限制了模型的答案選擇範圍,無法充分測試模型的科學問題解答能力。相比之下,開放式問答

編輯|KX在藥物研發領域,準確有效地預測蛋白質與配體的結合親和力對於藥物篩選和優化至關重要。然而,目前的研究並沒有考慮到分子表面訊息在蛋白質-配體相互作用中的重要作用。基於此,來自廈門大學的研究人員提出了一種新穎的多模態特徵提取(MFE)框架,該框架首次結合了蛋白質表面、3D結構和序列的信息,並使用交叉注意機制進行不同模態之間的特徵對齊。實驗結果表明,該方法在預測蛋白質-配體結合親和力方面取得了最先進的性能。此外,消融研究證明了該框架內蛋白質表面資訊和多模態特徵對齊的有效性和必要性。相關研究以「S

本站7月5日消息,格芯(GlobalFoundries)於今年7月1日發布新聞稿,宣布收購泰戈爾科技(TagoreTechnology)的功率氮化鎵(GaN)技術及智慧財產權組合,希望在汽車、物聯網和人工智慧資料中心應用領域探索更高的效率和更好的效能。隨著生成式人工智慧(GenerativeAI)等技術在數位世界的不斷發展,氮化鎵(GaN)已成為永續高效電源管理(尤其是在資料中心)的關鍵解決方案。本站引述官方公告內容,在本次收購過程中,泰戈爾科技公司工程師團隊將加入格芯,進一步開發氮化鎵技術。 G

本站8月1日消息,SK海力士今天(8月1日)發布博文,宣布將出席8月6日至8日,在美國加州聖克拉拉舉行的全球半導體記憶體峰會FMS2024,展示諸多新一代產品。未來記憶體和儲存高峰會(FutureMemoryandStorage)簡介前身是主要面向NAND供應商的快閃記憶體高峰會(FlashMemorySummit),在人工智慧技術日益受到關注的背景下,今年重新命名為未來記憶體和儲存高峰會(FutureMemoryandStorage),以邀請DRAM和儲存供應商等更多參與者。新產品SK海力士去年在

開放人工智慧終於進軍搜尋領域。這家舊金山公司最近宣布了一款具有搜尋功能的新人工智慧工具。 The Information 於今年 2 月首次報導,該新工具被恰當地稱為 SearchGPT,並具有 c
