最新調查報告顯示,在部署生成式AI方面,70%以上的企業仍處於「探索」 階段。這意味著,開發大型語言模型的AI開發人員需要確保他們的產品具有適當的資料安全機制,才能讓使企業用戶感到滿意。
近日,三星等大型企業因對資料安全的擔憂,開始禁止員工使用ChatGPT等AI工具。一位分析師表示,像微軟這樣的供應商如果希望這項技術能成功,就需要設計和提供為企業量身訂製的解決方案。
三星禁止員工使用ChatGPT,生成式AI存在資料外洩風險
由於原始碼在上個月洩露,三星已經命令該公司員工避免使用聊天GPT、必應和Google的Bard等AI工具。而在此之前,其他科技公司也發表了類似的聲明,表達了對使用生成式AI的資料安全的擔憂。
OpenAI日前證實,正在為企業用戶開發特定版本的ChatGPT平台,該平台預設禁止企業用戶在ChatGPT再訓練中使用對話。目前尚不清楚這是否足以解決大型企業客戶擔憂的安全問題,但這些企業的高階主管顯然渴望採用這項技術。
根據Gartner對2500名行業高管進行的一項調查,45%的受訪者認為ChatGPT促進了AI投資,70%的受訪者表示他們的組織正在研究部署生成式AI的方法,19%的受訪者已經處於試驗或生產階段。
Gartner副總裁分析師Frances Karamouzis表示:「用戶對於採用生成式AI的迷戀並沒有減弱的跡象。許多產業組織都在爭先恐後地決定投入多少資金使用生成式AI解決方案,哪些產品值得投資,何時開始以及如何降低這種新興技術帶來的風險。」
最能說明問題的是,68%的受訪者認為生成式AI的好處大於風險,只有5%的受訪者認為使用這種技術的風險大於好處。
隨著對生成式AI投資的深化,以及資料安全的影響變得更加明顯,這些情況可能會發生變化,就像三星面臨的安全困境情況一樣(該公司正在建立自己的AI模型)。
大勢所趨,避免採用生成式AI可能比部署AI更難
儘管全球經濟放緩,科技業大規模裁員,但只有17%的受訪者表示成本優化是投資AI的主要原因,而客戶體驗是最重要的焦點。
隨著微軟等公司透過Copilot在其CRM和Office 365套件中部署AI,Salesforce也在其全套產品中添加了聊天機器人技術,避免採用生成式AI可能比部署AI更難。
Gartner副總裁兼分析師Avivah Litan表示,企業在使用公共大型語言模型時面臨多重風險,但有一些方法可以減輕風險,包括確保他們有能力自動過濾輸出的錯誤訊息、幻覺和不需要的事實資訊。
她表示,企業還需要確保大型語言模式供應商提供可驗證的資料治理和安全保證,以確保傳輸給大型語言模式的企業機密資訊不會受到損害。透明度方面也需要確保任何使用都符合GDPR法規和歐盟AI法案等立法。
她解釋說:「在滿足這些要求之前,我們看到的是,謹慎的企業或限制員工對聊天的存取權限(由於個人設備的存在,這是不可能執行的),或者允許有節制的嘗試性使用,從而避免向大型語言模型發送機密數據。」
人們對部署生成式AI這項技術的興趣在於其潛在的好處,特別是從昂貴而廣泛的數據集訓練的公共模型中獲益。 Litan說,「OpenAI和第三方開發的大型語言模型的巨大價值在於訓練它們的大量數據,以及運行它們所需的巨大複雜的超級電腦功能。企業根本沒有資源來重建這些有價值的模型。」
對於OpenAI、微軟和任何想要部署這種技術的供應商來說,其解決方案是透過共享安全責任協議來創建技術工具。如果機密資料洩露,供應商應該承擔責任,這也是他們前進的方向。
以上是重視企業安全:三星禁止員工使用ChatGPT生成式AI,提醒企業應注意安全問題。的詳細內容。更多資訊請關注PHP中文網其他相關文章!