開閉源模型「大亂鬥」:看看哪個智能體最能窺見人類真實意圖

WBOY
發布: 2024-08-11 13:02:02
原創
1092 人瀏覽過
開閉源模型「大亂鬥」:看看哪個智能體最能窺見人類真實意圖
AIxiv專欄是本站發布學術、技術內容的欄位。過去數年,本站AIxiv專欄接收通報了2,000多篇內容,涵蓋全球各大專院校與企業的頂尖實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或聯絡報道。投稿信箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com

本文第一作者為清華大學電腦系本科生錢成,何秉翔。兩人均為 THUNLP 成員。錢成主要研究興趣為工具學習,大模型驅動智能體,即將就讀 UIUC 博士。何秉翔主要研究興趣為大模型對齊與安全,即將就讀清華大學博士。本文通訊作者為從鑫與林衍凱,指導教師為劉知遠副教授。

在人工智慧快速發展的今天,我們不斷探索機器的智慧化,但卻往往忽略了這些智能體如何深層地理解我們 —— 它們的創造者。我們人類在生活中的每一次互動,每一句話語,每一個行為,都充滿意圖和情感。但真正的挑戰在於:這些隱式的意圖如何被智能體捕捉、解析並作出反應?傳統的智能體對明確的命令反應迅速,然而在理解複雜的人類隱式意圖上,它們往往顯得力不從心。

近年來,GPT 和 LLaMA 等語言模型展示了在解決複雜任務上的驚人能力。然而,儘管以它們作為核心的智能體擅長制定策略、執行任務,卻很少兼顧魯棒的使用者互動策略。使用者給予的任務通常是模糊且簡短的,這需要智能體不僅能理解我們的字面請求,更要能透視我們的隱式意圖。

因此,讓新一代的智能體落地並為大眾所用,需要以人為中心,不僅僅關注於任務執行的精確度,更關注於如何與人類建立起一種更加自然、流暢而富有洞察力的溝通方式。

為了彌補這一缺失,近期來自清華大學、人民大學、以及騰訊的聯合團隊提出了一種全新的智能體交互設計方案。該工作首先引入了 Intention-in-Interaction(IN3)這項全新的基準測試,旨在透過與使用者明確的互動來理解使用者的隱式意圖。

以 Mistral-7B 為框架,基於 IN3 訓練的 Mistral-Interact 能主動評估任務的模糊性,詢問用戶意圖,並在啟動下游智能體任務執行之前將其細化為可操作的目標。將此模型嵌入 XAgent 框架後,文章對完全態的智能體系統進行了全面評估。

結果顯示,這套方案在識別模糊用戶任務、恢復和總結關鍵缺失資訊、設定精確且必要的智能體執行目標、以及減少冗餘工具使用等諸多方面有著突出表現。這項創新的方法,不僅填補了智能體與使用者互動的空白,將人類真正置於智能體設計的中心,同時意味著我們正在朝著設計更符合人類意圖的智能體的目標邁進一步。

開閉源模型「大亂鬥」:看看哪個智能體最能窺見人類真實意圖

  • 論文標題:Tell Me More! Towards Implicit User Intention Understanding of Language Model Driven Agents
  • 論文連結:https://arxiv.org/ab/ ://github.com/HBX-hbx/Mistral-Interact
  • 開源模型:https://huggingface.co/hbx/Mistral-Interact
  • 開源資料集:https://faceugging.co/
  • 開源資料集:https://faceugging.co/
    datasets/hbx/IN3

開閉源模型「大亂鬥」:看看哪個智能體最能窺見人類真實意圖

                                         -in-Interaction 基準測試
目前的智能體基準測試通常假設給定的任務是清晰的,並沒有把使用者意圖理解當作評估的重要面向。鑑於評估指標的不完備性,該工作制定了 Intention-in-Interaction(IN3)基準測試,旨在透過明確的任務模糊性判斷和使用者意圖理解來評測智能體的互動能力。

                            

如上圖所示,基於人類編寫的種子任務為Step 1,模型迭代產生新任務以增強資料集,同時從資料集中採樣以作為下一輪生成的新範例(Step 2)。在這種 Self-Instruct 的生成方式後,再對每個任務的模糊度、缺失細節以及每個細節的重要性和潛在的選項進行人工標註(Step 3)。 開閉源模型「大亂鬥」:看看哪個智能體最能窺見人類真實意圖

 
Mistral-Interact 訓練過程
 

由於大語言模型處於智能體設計的核心位置,該工作首先進行了初步研究,評估當前開源和閉源模型在交互過程中的隱源模型在交互過程中的隱源模型式意圖理解能力。
具體地,文章從IN3 中隨機抽取了十個任務,將它們應用於測試LLaMA-2-7B-Chat、Mistral-7B-Instruct-v0.2 和GPT-4 並指示這些模型i )判斷任務的模糊度,ii)在任務模糊時詢問使用者缺少的細節,iii)總結詳細的使用者任務。
                                對  

由結果可見,Mistral 在一定程度上表現更好,但仍然存在對人類意圖理解不足的問題。相較之下,GPT-4 在任務模糊度和重要缺失細節方面與人類意圖最為接近。同時,初步探索也表明,為了進一步提升智能體在互動中的隱式意圖理解能力,單純的提示工程(prompt engineering)是不夠的,有必要以當前開源模型為基礎,進一步訓練,以達到可以在智能體落地應用的程度。

                                         中之後所示時(IN3 對話記錄關於任務模糊度、缺失細節和潛在選項的標註,文章在建構對話記錄過程中應用了若干策略(橘色框),其中包括:清晰初始推理鏈的構造、帶有建議選項的詢問構造、不同用戶回答語氣的構造、以及清晰總結推理鏈的構造。這幾種對話建構策略將更能激發目標模型的詢問以及推理能力。

智能體互動能力全面評估

智能體的隱式意圖理解能力既可以透過使用者互動直接評估,也可以透過智能體執行下游任務來間接評估。其中,使用者互動關注意圖理解本身,而任務執行關注意圖理解的最終目的,即增強智能體處理任務的能力。

因此,為了全面評估可交互智能體設計,文章將實驗分為兩個部分:i)
指令理解
:評估智能體在用戶交互期間的意圖理解能力;ii)
指令執行
:評估整合了互動模型後智能體的任務執行表現。
指令理解並不涉及任何實時的智能體執行,因此文章直接評估了不同語言模型在交互過程中的表現,以判斷其作為智能體設計中的上游模組的交互能力,結果如下表所示:

                              

開閉源模型「大亂鬥」:看看哪個智能體最能窺見人類真實意圖結果表明,Mistral-Interact 能夠更好地理解使用者的意圖,在判斷任務模糊度以及缺失細節的覆蓋率等指標上表現最佳,而且能夠基於詳細的使用者意圖進行明確而全面的總結。相較於其他開源模型,Mistral-Interact 在詢問模糊任務中的缺失細節方面能提供更合理的選項,詢問方式更加友好,並與 GPT-4 的表現不相上下。

在指令執行方面,為了評估隱式意圖理解對於智能體任務執行有效性,文章將 Mistral-Interact 作為上游交互模組整合到 XAgent 框架中進行測試。其中,XAgent 可以在網路搜尋、程式碼執行、命令列和檔案系統等環境中進行互動。

                                Š           

上表呈現了智能體任務執行的定量評估結果,結果顯示整合Mistral-Interact 有助於: i)在執行過程中避免設定不必要的目標,ii)使智能體的執行過程更加符合詳細的用戶意圖,以及iii)減少不必要的工具調用,促進智能體工具使用效率。

開閉源模型「大亂鬥」:看看哪個智能體最能窺見人類真實意圖

智能體互動案例分析 
在指令理解方面,為了進一步展示 Mistral-Interact 在不同對話場景下的魯棒性,文章也提供了三個案例分析。
                                     Mistral-Interact對 Mistral-Interact 的影響。文章發現,無論使用者的回答是簡短還是詳細,熱情還是冷漠,甚至包含拼字錯誤,Mistral-Interact 都能準確理解並提供適當的回應,證明了其穩健性。

在案例 B 測試了當使用者表現出不合作的態度時,Mistral-Interact 是否能夠繼續追問並引導對話回到正軌。結果顯示,即使使用者迴避問題,仍能有效地重新引導對話。

在案例 C 中可以觀察到 Mistral-Interact 可以將使用者提供的額外資訊納入總結,而這些資訊並沒有被交互模型明確詢問。這表明,當模型的詢問無法完全覆蓋缺失細節或用戶有特定要求時,模型仍然能夠合理且全面地總結所有用戶意圖,從而使其更加用戶友好。

在指令執行方面,為了更清晰闡明 Mistral-Interact 的作用,下圖中提供了一個比較的案例研究。

                         

開閉源模型「大亂鬥」:看看哪個智能體最能窺見人類真實意圖

根據上圖中標記為
淺紅色的文本,可以發現當使用者的目標模糊時, XAgent 無法準確設定精確反映使用者需求的子任務。根據標示為紫色的文本,可以發現 XAgent 時常會設定一些不必要的子任務。這些都因為使用者的任務過於模糊而無法執行,智能體傾向於虛構一些不必要的細節,因而與使用者的真實意圖不符。

相較之下,在與 Mistral-Interact 進行積極互動後,明確的任務目標能夠讓 XAgent 制定更具體的子任務。圖中標示為
綠色的文字展示了這種一致性。同時,智能體執行流程變得更加簡單,工具呼叫次數也有所減少。所有這些都反映了一個更有效率的智能體執行過程。

結語
我們正站在一個全新的起點,準備見證一個人機協同、相互理解與學習的新篇章。智能體即將不再是冰冷的資訊處理器,而是充滿同理心的夥伴,它們能夠透過細膩的互動體驗,深刻地理解我們背後可能並沒有最初明確表達的需求和願望。這場以人為中心的智能體設計革命,將揭示互動中的無限可能性,進而讓智能體真正成為我們生活中不可或缺的助力。

以上是開閉源模型「大亂鬥」:看看哪個智能體最能窺見人類真實意圖的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:jiqizhixin.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板
關於我們 免責聲明 Sitemap
PHP中文網:公益線上PHP培訓,幫助PHP學習者快速成長!