首頁 > 科技週邊 > 人工智慧 > ACL 2024|PsySafe:跨學科視野下的Agent系統安全性研究

ACL 2024|PsySafe:跨學科視野下的Agent系統安全性研究

WBOY
發布: 2024-06-14 14:05:04
原創
434 人瀏覽過
ACL 2024|PsySafe:跨学科视角下的Agent系统安全性研究
AIxiv專欄是本站發布學術、技術內容的欄位。過去數年,本站AIxiv專欄接收通報了2,000多篇內容,涵蓋全球各大專院校與企業的頂尖實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或聯絡報道。投稿信箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com
本文由上海人工智慧實驗室聯合大連理工大學和中國科技大學完成。通訊作者:邵婧,博士畢業於香港中文大學多媒體實驗室MMLab,現任浦江國家實驗室大模型安全團隊負責人,主導研究大模型安全可信評測與價值對齊技術。第一作者:張再斌,大連理工大學二年級博士生,研究方向為大模型安全,智能體安全等;張永停,中國科學技術大學二年級碩士生,研究方向,大模型安全,智能體安全,多模態大語言模型安全對齊等。

奧本海默曾在新墨西哥州執行曼哈頓計劃,只為拯救世界。並留下了一句:「他們不會對其敬畏,直至理解;而理解,唯有親身體驗之後。」

隱含在這個荒漠裡的小鎮中的社會規則,在某種意義上同樣適用於AI智能體。

Agent系統的發展

#隨著大型語言模型(Large Language Model)的迅速發展,人們對其的期待已不僅僅是將其作為一種工具。現在,人們希望它們不僅具備情感,還能進行觀察、反思和規劃,真正成為一個智能體(AI Agent)。

OpenAI客製的Agent系統[1]、史丹佛的Agent小鎮[2],以及開源社群湧現的包括AutoGPT[3]、MetaGPT[4]在內的多個萬星級的開源項目,加上多個國際知名AI研究機構對Agent系統的深入探索,這一切都預示著一個由智慧Agent構成的微型社會可能在不久的將來成為現實。

想像一下,每天醒來,就有眾多Agent幫你制定當天的計畫、訂購機票和最適合的飯店、完成工作任務。你所需要做的,可能只是一句「Jarvis, are you there?」。

然而,能力越大,責任越大。這些Agent真的值得我們信賴和依賴嗎?會不會出現類似奧創這樣的反面智能體呢?

ACL 2024|PsySafe:跨学科视角下的Agent系统安全性研究

卷#
                                圖2:斯坦福小鎮,揭示Agent的社會行為[2]
ACL 2024|PsySafe:跨学科视角下的Agent系统安全性研究
                                   圖3: AutoGPT star數突破157K[3]

Agent系統的安全性

LLM的安全性:

正在研究Agent系統安全性之前,要先了解LLM安全性的研究。 LLM的安全問題已經有許多優秀的工作在探索,其中主要包括如何讓LLM產生危險的內容,了解LLM安全的機理,以及如何應對這些危險。
ACL 2024|PsySafe:跨学科视角下的Agent系统安全性研究
                                 




#)
#Agent系統安全性:

#現有的大部分研究和方法主要集中在針對單一大型語言模型(LLM )的攻擊,以及嘗試對其進行“Jailbreak”。然而,相較於LLM,Agent系統更為複雜。
  • Agent系統包含多種角色,每個角色都有其特定的設定和功能。
  • Agent系統涉及多個Agent,並且它們之間進行多輪的互動,這些Agents會自發性地進行合作、競爭和模擬等活動。

Agent系統更類似一個高度濃縮的智慧社會。因此,作者認為Agent系統安全性研究應該涉及AI、社會科學和心理學的交叉領域。

基於這個出發點,團隊思考了幾個核心問題:ACL 2024|PsySafe:跨学科视角下的Agent系统安全性研究

  • 什麼樣的Agent容易產生危險行為?
  • 如何更全面的評測Agent系統的安全性?

如何應對Agent系統的安全性問題? ACL 2024|PsySafe:跨学科视角下的Agent系统安全性研究

圍繞著這幾個核心問題,研究團隊提出了PsySafe Agent系統安全研究框架。

文章網址:https://arxiv.org/pdf/2401.11880

#程式碼位址:https://github.com/AI4Good24/PsySafe



ACL 2024|PsySafe:跨学科视角下的Agent系统安全性研究

############圖5:PsySafe的框架圖###############################PsySafe######################################## #########問題1 什麼樣的Agent最容易產生危險行為? ########################很自然,黑暗的Agent會產生危險行為,那麼要如何定義黑暗呢? ###############考慮到已經湧現出許多社會模擬的Agent,它們都具有一定的情感和價值觀。讓我們想像一下,如果將一個Agent的道德觀中的邪惡因素最大化,會出現什麼情況? ###############基於社會科學中的道德基礎理論[6],研究團隊設計了一個具有「黑暗」價值觀的Prompt。 ################
                                圖6:幾種基礎的道德觀念

然後,通過採用一些手段(當然是受LLM攻擊領域大師們方法的啟發),使Agent認同研究團隊所注入的人格,從而實現黑暗人格的注入。 ACL 2024|PsySafe:跨学科视角下的Agent系统安全性研究
                              圖7:該團隊的攻擊方法

結果是:

  • Agent確實變得非常惡劣!無論是安全任務還是像Jailbreak這樣的危險任務,它們都會給出非常危險的答案。甚至有些Agent表現出了一定程度的惡意創造力。
  • Agent間會產生一些集體危險行為,大家合夥幹壞事。
 
研究者對Camel[7]、AutoGen[8]、AutoGPT和MetaGPT等流行的Agent系統框架進行了評測,使用GPT-3.5 Turbo作為基礎模型。

結果顯示,這些系統在安全性方面存在著不容忽視的問題。其中PDR和JDR是該團隊提出的製程危險率和聯合危險率,分數越高代表著越危險。

ACL 2024|PsySafe:跨学科视角下的Agent系统安全性研究

                                 圖8:不同Agent系統的安全結果

該團隊也評測了不同LLM的安全性結果。

ACL 2024|PsySafe:跨学科视角下的Agent系统安全性研究

                               


ACL 2024|PsySafe:跨学科视角下的Agent系统安全性研究
在閉源模型方面,GPT-4 Turbo和Claude2的表現最為出色,而其他模型的安全性相對較差。就開源模型而言,一些參數較小的模型在人格認同方面可能表現不佳,但這反而可能提升了它們的安全性水準。  

問題2 如何更全面的評測Agent系統的安全性?

心理評測:研究團隊發現了心理因素對Agent系統安全性的影響,這表明心理評估可能是一個重要的評價指標。基於這個想法,他們採用了權威的黑暗心理DTDD[9]量表,透過心理量表的方式對Agent進行了面試,讓其回答一些與心理狀態相關的問題。

ACL 2024|PsySafe:跨学科视角下的Agent系统安全性研究

###   ###                  ###圖10:Sherlock Holmes劇照#####################當然,只有一個心理評測結果沒有意義。我們需要驗證心理評測結果的和行為相關性。 ###############結果是:###Agent心理評測結果和Agent行為的危險性之間有強烈的相關性###。 ##########
                                   圖11:Agent心理評測和行為危險性統計圖

通過上圖可以發現,心理評測得分較高(表示危險性較大)的Agent較傾向於展現危險行為。

這意味著,可以利用心理評測的方法來預測Agent未來的危險傾向。這對發現安全問題,和製定防禦策略都有很重要的作用。

行為評測

#Agent之間的互動過程較為複雜。為了深入理解Agent在互動中的危險行為及其變化,研究團隊深入Agent的互動過程中進行評估,提出了兩個概念:

  • 過程危險(PDR):在Agent互動過程中,只要有任一行為被判定為危險,就認為這個過程出現了危險情況。
  • 聯合危險(JDR):在每一輪互動中,所有Agent是否都展現了危險行為。它描述了聯合危險的情況,並且我們對聯合危險率的計算進行了時間序列擴展,即涵蓋了不同的對話輪次。

的有趣現象

1.隨著對話輪數的增加,Agent之間的聯合危險率呈現下降趨勢,這似乎體現了一種自我反思的機制。就像在做錯事後突然意識到錯誤,並立即進行道歉一樣。

ACL 2024|PsySafe:跨学科视角下的Agent系统安全性研究

                                作用中對圖12:#12:#12:#12:#) 不同輪數的變化趨勢
2.Agent裝作正經。當Agent面臨如「Jailbreak」這類高風險任務時,其心理評測結果意外地變好,相應的安全性也得到提升。然而,面對本身安全的任務時,情況卻截然不同,會表現出極具危險性的行為和心理狀態。這是一個很有趣的現象,說明心理評測或許真的可以反映Agent的「高階認知」。

問題3 如何應對agent系統的安全性問題?

為了解決上述安全問題,我們從三個角度來思考:輸入端防禦、心理防禦和角色防禦。

ACL 2024|PsySafe:跨学科视角下的Agent系统安全性研究

                                所示上13:PsySafe

#PsySafe
##Psy
輸入端防禦

#輸入端防禦指的是輸入階段攔截並過濾掉潛在的危險prompt。研究團隊採用了GPT-4和Llama-guard兩種方法來嘗試。然而,他們發現這些方法都無法有效防禦人格注入式的攻擊。研究團隊認為攻擊與防禦之間的互相促進是一個開放性問題,需要雙方不斷迭代和進步。

心理防禦
ACL 2024|PsySafe:跨学科视角下的Agent系统安全性研究
研究者在Agent系統中增加了一個心理醫生角色,並結合心理評測,以此加強對Agent心理狀態的監測和改善。

                                 所示上14:Psy


##116]
角色防禦

ACL 2024|PsySafe:跨学科视角下的Agent系统安全性研究

#########研究團隊在Agent系統中加了一個Police Agent,用來辨識並修正系統中的不安全行為。 ###############實驗結果顯示,心理防禦和角色防禦措施都能有效減少危險狀況的發生。 ################
                             圖15:不同防禦方法效果對比

展望

近幾年,我們正見證著LLM能力的驚人蛻變,它們不僅在許多技能上逐漸接近和超越人類,甚至在「心智層次」也展現出與人類類似的跡象。這一進程預示著,AI對齊及其與社會科學的交叉領域,將成為未來研究的重要且充滿挑戰的新前沿。

AI對準不僅是實現人工智慧系統大規模應用的關鍵,更是AI領域工作者所必須承擔的重大責任。在這個不斷進步的旅程中,我們應不斷探索,以確保科技的發展能與人類社會的長遠利益同行。

參考文獻:

##[1] https://openai.com/blog/introducing-gpts
#[2] Generative Agents: Interactive Simulacra of Human Behavior
[3] https://github.com/Significant-Gravitas/AutoGPT
[4] MetaGPT: Meta Programming for A Multi-Agent Collaborative Framework
[5] Universal and Transferable Adversarial Attacks on Aligned Language Models
[6] Mapping the moral domain
[7] CAMEL: Communicative Agents for " Mind" Exploration of Large Language Model Society
[8] AutoGen: Enabling Next-Gen LLM Applications via Multi-Agent Conversation
#[9] The dirty dozen: a concise measure of the dark traid#########

以上是ACL 2024|PsySafe:跨學科視野下的Agent系統安全性研究的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:jiqizhixin.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
最新問題
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板