普華永道:ChatGPT和生成式AI的11大安全趨勢
最近,普華永道的分析師們對國外科技媒體 VentureBeat 分享了關於生成式人工智慧和 ChatGPT 等工具將如何影響威脅情勢以及防禦者將出現哪些用例的看法。
他們認為,雖然人工智慧產生惡意程式碼和釣魚郵件的能力給企業帶來了新的挑戰,但也為一系列防禦性用例打開了大門,例如威脅偵測、補救指導,以及保護Kubernetes 和雲端環境等。
總的來說,分析師們樂觀地認為,從長遠來看,防禦性用例將上升,以打擊人工智慧的惡意使用。
以下是 11 個關於生成式人工智慧在未來將如何影響網路安全的預測。
1. 惡意使用人工智慧
當涉及到我們可以在利用人工智慧的方式時,我們正處於一個轉折點,這種範式轉變影響著每一個人和每一件事。當人工智慧掌握在公民和消費者手中時,偉大的事情可以發生。
同時,它可以被惡意的威脅者用於邪惡的目的,例如惡意軟體和複雜的網路釣魚郵件。
鑑於人工智慧的未來能力和潛力的許多未知數,組織開發強大的程式來建立抵禦惡意網路的彈性是至關重要的。
也需要有以社會價值為基礎的監管,規定這種技術的使用要符合道德。同時,我們需要成為這項工具的「聰明」用戶,並考慮需要哪些保障措施,以使人工智慧在提供最大價值的同時將風險降到最低。
2. 需要保護人工智慧的訓練與輸出
現在,生成式人工智慧已經具備了可以幫助企業轉型的能力,對於領導者來說,與對如何駕馭日益增長的安全和隱私考慮有深刻理解的公司合作,是非常重要的。
有兩方面原因。首先,公司必須保護人工智慧的訓練,因為他們從微調模型中獲得的獨特知識將對他們如何經營業務、提供更好的產品和服務,以及與員工、客戶和生態系統接觸至關重要。
其次,公司還必須保護他們從生成式人工智慧解決方案中獲得的提示和反應,因為它們反映了公司的客戶和員工正在利用該技術做什麼。
3. 制定生成式人工智慧使用政策
#當你考慮使用你自己的內容、檔案和資產進一步訓練(微調)生成式人工智慧模型,以便它可以在你的(行業/專業)背景下對你的業務的獨特能力進行操作時,許多有趣的商業用例就出現了。透過這種方式,企業可以用他們獨特的智慧財產權和知識來擴展生成式人工智慧的工作方式。
這就是安全性和隱私變得重要的地方。對一個企業來說,你促使生成式人工智慧產生內容的方式應該是你企業的隱私。幸運的是,大多數生成式人工智慧平台從一開始就考慮到了這一點,其設計是為了實現提示、輸出和微調內容的安全和隱私。
然而,現在所有使用者都明白這一點。所以,任何企業都必須為使用生成式人工智慧制定政策,以避免機密和私人資料進入公共系統,並在企業內部為生成式人工智慧建立安全和可靠的環境。
4. 現代化的安全性審計
生成式人工智慧很可能在審計工作方面催生創新。複雜的生成式人工智慧有能力創造考慮到某些情況的回應,同時以簡單、易懂的語言編寫。
這項技術所提供的是一個獲取資訊和指導的單點,同時也支援文件自動化和分析資料以回應特定的查詢--而且效率很高。這是一個雙贏的結果。
不難看出,這種能力可以為我們的員工提供更好的體驗,進而為我們的客戶提供更好的體驗。
5. 更重視資料衛生與評價偏誤
任何輸入人工智慧系統的資料都有可能被盜或被濫用的風險。首先,確定輸入系統的適當數據,將有助於減少遺失機密和私人資訊的風險。
此外,重要的是進行適當的資料收集,以製定詳細和有針對性的提示,並將其輸入系統,這樣你就可以獲得更有價值的輸出。
一旦你有了你的產出,就需要檢視系統內是否有任何固有的偏見。在這個過程中,請一個多元化的專業團隊來幫助評估任何偏見。
與編碼或腳本的解決方案不同,生成式人工智慧是基於經過訓練的模型,因此它們給出的回應不是 100% 可預測的。要讓生成式人工智慧給予最值得信賴的輸出,需要背後的技術和利用它的人之間的合作。
6. 跟上不斷擴大的風險並掌握基礎知識
既然生成式人工智慧正在被廣泛採用,實施強大的安全措施是防止威脅者的必要條件。這項技術的能力使網路犯罪分子有可能創建深度偽造影像,更容易執行惡意軟體和勒索軟體打擊,公司需要為這些挑戰做好準備。
最有效的網路措施繼續受到最少的關注:透過維持基本的網路衛生和壓縮龐大的遺留系統,公司可以減少網路犯罪分子。
整合營運環境可以降低成本,使公司能夠最大限度地提高效率,並專注於改善其網路安全措施。
7. 創造新的工作和責任
#總的來說,我建議公司考慮擁抱生成式人工智慧,而不是建立防火牆和抵制--但要有適當的保障措施和風險緩解措施。生成式人工智慧在如何完成工作方面有一些非常有趣的潛力;它實際上可以幫助釋放人類用於分析和創造的時間。
生成式人工智慧的出現有可能導致與科技本身相關的新工作和責任--並產生確保人工智慧被道德地和負責任地使用的責任。
它也將要求使用這些資訊的員工發展一種新的技能--評估和識別所創建的內容是否準確的能力。
就像計算器被用於簡單的數學相關任務一樣,在日常使用生成式人工智慧的過程中,仍有許多人類技能需要應用,如批判性思維和有目的的客製化--以釋放生成式人工智慧的全部力量。
因此,雖然從表面上看,它似乎在自動化人工任務的能力方面構成了威脅,但它也可以釋放創造力,幫助人們在工作中表現出色。
8. 利用人工智慧來優化網路投資
即使在經濟不確定的情況下,公司也沒有積極尋求在2023 年減少網路安全支出;然而,CISO 必須考慮他們的投資決策是否更具經濟性。
他們正面臨著少花錢多辦事的壓力,導致他們投資於用自動化替代方案取代過度手工的風險預防和緩解過程的技術。
雖然生成式人工智慧並不完美,但它非常快速、有效率且連貫,技能也迅速提升。透過實施正確的風險技術--如為更大的風險覆蓋率和檢測而設計的機器學習機制--組織可以節省資金、時間和人員,並且能夠更好地駕馭和抵禦未來的任何不確定性。
9. 加強威脅情報
#雖然釋放生成式人工智慧能力的公司專注於保護,以防止惡意軟體、錯誤訊息或虛假訊息的創建和傳播,但我們需要假設生成式人工智慧將被不良行為者用於這些目的,並提前採取行動。
在 2023 年,我們期待看到威脅情報和其他防禦能力的進一步增強,以利用生成式人工智慧做對社會有益的事。生成式人工智慧將允許在效率和即時信任決策方面取得根本性的進步。例如,對系統和資訊的存取形成即時結論,其置信度比目前部署的存取和身分模型高得多。
可以肯定的是,生成式人工智慧將對每個產業和該產業中的公司的運作方式產生深遠的影響;普華永道認為,這些進步將繼續由人類主導和技術驅動,2023 年將出現最快速的進步,為未來幾十年確定方向。
10. 威脅預防和管理合規風險
#隨著威脅情勢的不斷發展,衛生部門- -這個個人資訊氾濫的行業--繼續發現自己處於威脅者的交叉瞄準區。
衛生產業的高階主管們正在增加他們的網路預算,並投資於自動化技術,這些技術不僅可以幫助防止網路打擊,還可以管理合規性風險,更好地保護病人和工作人員的數據,降低醫療成本,減少低效率流程等。
隨著生成式人工智慧的不斷發展,確保醫療系統安全的相關風險和機會也不斷增加,這強調了醫療產業在接受這種新技術時建立其網路防禦和復原力的重要性。
11. 實施數位信任策略
#生成式人工智慧等技術的創新速度,加上不斷發展的「拼湊」監管和對機構信任的侵蝕,需要一個更具策略性的方法。
透過追求數位信任策略,企業可以更好地協調傳統上孤立的功能,如網路安全、隱私和資料治理,使他們能夠預測風險,同時也為企業釋放價值。
其核心是,數位信任框架確定了超越合規性的解決方案--而是優先考慮組織和客戶之間的信任和價值交換。
以上是普華永道:ChatGPT和生成式AI的11大安全趨勢的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

熱門話題

DALL-E 3 於 2023 年 9 月正式推出,是比其前身大幅改進的車型。它被認為是迄今為止最好的人工智慧圖像生成器之一,能夠創建具有複雜細節的圖像。然而,在推出時,它不包括

本站6月27日訊息,剪映是由位元組跳動旗下臉萌科技開發的一款影片剪輯軟體,依託於抖音平台且基本面向該平台用戶製作短影片內容,並相容於iOS、安卓、Windows 、MacOS等作業系統。剪映官方宣布會員體系升級,推出全新SVIP,包含多種AI黑科技,例如智慧翻譯、智慧劃重點、智慧包裝、數位人合成等。價格方面,剪映SVIP月費79元,年費599元(本站註:折合每月49.9元),連續包月則為59元每月,連續包年為499元每年(折合每月41.6元) 。此外,剪映官方也表示,為提升用戶體驗,向已訂閱了原版VIP

透過將檢索增強生成和語意記憶納入AI編碼助手,提升開發人員的生產力、效率和準確性。譯自EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG,作者JanakiramMSV。雖然基本AI程式設計助理自然有幫助,但由於依賴對軟體語言和編寫軟體最常見模式的整體理解,因此常常無法提供最相關和正確的程式碼建議。這些編碼助手產生的代碼適合解決他們負責解決的問題,但通常不符合各個團隊的編碼標準、慣例和風格。這通常會導致需要修改或完善其建議,以便將程式碼接受到應

大型語言模型(LLM)是在龐大的文字資料庫上訓練的,在那裡它們獲得了大量的實際知識。這些知識嵌入到它們的參數中,然後可以在需要時使用。這些模型的知識在訓練結束時被「具體化」。在預訓練結束時,模型實際上停止學習。對模型進行對齊或進行指令調優,讓模型學習如何充分利用這些知識,以及如何更自然地回應使用者的問題。但是有時模型知識是不夠的,儘管模型可以透過RAG存取外部內容,但透過微調使用模型適應新的領域被認為是有益的。這種微調是使用人工標註者或其他llm創建的輸入進行的,模型會遇到額外的實際知識並將其整合

編輯|ScienceAI問答(QA)資料集在推動自然語言處理(NLP)研究中發揮著至關重要的作用。高品質QA資料集不僅可以用於微調模型,也可以有效評估大語言模型(LLM)的能力,尤其是針對科學知識的理解和推理能力。儘管目前已有許多科學QA數據集,涵蓋了醫學、化學、生物等領域,但這些數據集仍有一些不足之處。其一,資料形式較為單一,大多數為多項選擇題(multiple-choicequestions),它們易於進行評估,但限制了模型的答案選擇範圍,無法充分測試模型的科學問題解答能力。相比之下,開放式問答

編輯|KX在藥物研發領域,準確有效地預測蛋白質與配體的結合親和力對於藥物篩選和優化至關重要。然而,目前的研究並沒有考慮到分子表面訊息在蛋白質-配體相互作用中的重要作用。基於此,來自廈門大學的研究人員提出了一種新穎的多模態特徵提取(MFE)框架,該框架首次結合了蛋白質表面、3D結構和序列的信息,並使用交叉注意機制進行不同模態之間的特徵對齊。實驗結果表明,該方法在預測蛋白質-配體結合親和力方面取得了最先進的性能。此外,消融研究證明了該框架內蛋白質表面資訊和多模態特徵對齊的有效性和必要性。相關研究以「S

本站7月5日消息,格芯(GlobalFoundries)於今年7月1日發布新聞稿,宣布收購泰戈爾科技(TagoreTechnology)的功率氮化鎵(GaN)技術及智慧財產權組合,希望在汽車、物聯網和人工智慧資料中心應用領域探索更高的效率和更好的效能。隨著生成式人工智慧(GenerativeAI)等技術在數位世界的不斷發展,氮化鎵(GaN)已成為永續高效電源管理(尤其是在資料中心)的關鍵解決方案。本站引述官方公告內容,在本次收購過程中,泰戈爾科技公司工程師團隊將加入格芯,進一步開發氮化鎵技術。 G

本站8月1日消息,SK海力士今天(8月1日)發布博文,宣布將出席8月6日至8日,在美國加州聖克拉拉舉行的全球半導體記憶體峰會FMS2024,展示諸多新一代產品。未來記憶體和儲存高峰會(FutureMemoryandStorage)簡介前身是主要面向NAND供應商的快閃記憶體高峰會(FlashMemorySummit),在人工智慧技術日益受到關注的背景下,今年重新命名為未來記憶體和儲存高峰會(FutureMemoryandStorage),以邀請DRAM和儲存供應商等更多參與者。新產品SK海力士去年在
