Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail für die Einreichung: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com
Die ersten Autoren dieses Artikels sind Qian Cheng und He Bingxiang, Studenten der Fakultät für Informatik der Tsinghua-Universität. Beide sind Mitglieder von THUNLP. Qian Chengs Hauptforschungsinteressen sind das Lernen von Werkzeugen und große modellgesteuerte Agenten. Er ist im Begriff, an der UIUC zu promovieren. He Bingxiangs Hauptforschungsinteressen sind die Ausrichtung und Sicherheit großer Modelle und er wird demnächst an der Tsinghua-Universität promovieren. Die entsprechenden Autoren dieses Artikels sind Cong Xin und Lin Yankai, und der Betreuer ist außerordentlicher Professor Liu Zhiyuan. Heutzutage, mit der rasanten Entwicklung der künstlichen Intelligenz, erforschen wir ständig die Intelligenz von Maschinen, aber wir ignorieren oft, wie tief diese intelligenten Agenten uns – ihre Schöpfer – verstehen. Jede Interaktion, jedes Wort, jede Handlung, die wir Menschen im Leben ausführen, ist voller Absichten und Emotionen. Die eigentliche Herausforderung besteht jedoch darin, wie diese impliziten Absichten vom Agenten erfasst, analysiert und darauf reagiert werden können. Herkömmliche intelligente Agenten reagieren schnell auf explizite Befehle, verstehen jedoch komplexe implizite menschliche Absichten oft nicht. In den letzten Jahren haben Sprachmodelle wie GPT und LLaMA erstaunliche Fähigkeiten bei der Lösung komplexer Aufgaben bewiesen. Obwohl die Agenten mit ihnen als Kern gut darin sind, Strategien zu formulieren und Aufgaben auszuführen, berücksichtigen sie selten robuste Benutzerinteraktionsstrategien. Die von Benutzern gestellten Aufgaben sind in der Regel vage und kurz, was vom Agenten erfordert, dass er nicht nur unsere wörtlichen Anforderungen versteht, sondern auch unsere impliziten Absichten durchschaut. Damit eine neue Generation intelligenter Agenten von der Öffentlichkeit implementiert und genutzt werden kann, muss sie daher auf den Menschen ausgerichtet sein und sich nicht nur auf die Genauigkeit der Aufgabenausführung konzentrieren, sondern auch darauf, wie eine natürlichere Vorgehensweise geschaffen werden kann , reibungslose und fruchtbare Beziehung zu Menschen. Um diesen Mangel auszugleichen, hat ein gemeinsames Team der Tsinghua-Universität, der Renmin-Universität und Tencent kürzlich einen „neuen intelligenten Agenteninteraktionsdesignplan“ vorgeschlagen. Diese Arbeit stellt zunächst Intention-in-Interaction (IN3) vor, einen neuen Benchmark, der darauf abzielt, die impliziten Absichten von Benutzern durch explizite Interaktionen mit Benutzern zu verstehen.
Mit Mistral-7B als Rahmen und basierend auf IN3-Training kann Mistral-Interact die Mehrdeutigkeit von Aufgaben proaktiv bewerten, Benutzerabsichten abfragen und sie in umsetzbare Ziele verfeinern, bevor die Ausführung nachgelagerter Agentenaufgaben gestartet wird. Nach der Einbettung des Modells in das XAgent-Framework führt der Artikel eine umfassende Bewertung des vollständig zustandsbehafteten Agentensystems durch.
Die Ergebnisse zeigen, dass diese Lösung eine hervorragende Leistung bei der Identifizierung mehrdeutiger Benutzeraufgaben, der Wiederherstellung und Zusammenfassung wichtiger fehlender Informationen, der Festlegung genauer und notwendiger Ziele für die Agentenausführung und der Reduzierung des Einsatzes redundanter Tools bietet. Diese innovative Methode schließt nicht nur die Lücke in der Interaktion zwischen intelligenten Agenten und Benutzern und stellt den Menschen wirklich in den Mittelpunkt des Designs intelligenter Agenten, sondern bedeutet auch, dass wir dem Ziel, intelligente Agenten zu entwerfen, die besser aufeinander abgestimmt sind, einen Schritt näher kommen mit menschlichen Absichten.
Papiertitel: Tell Me More! Towards Implicit User Intention Understanding of Language Model Driven AgentsPapierlink: https://arxiv.org/abs/2402.09205Code-Repository: https ://github.com/HBX-hbx/Mistral-InteractOpen-Source-Modell: https://huggingface.co/hbx/Mistral-InteractOpen-Source-Datensatz: https://huggingface.co / datasets/hbx/IN3
ㅋㅋ ~ 퍼지 태스크와 클리어 태스크 실행의 비교 현재 에이전트 벤치마크에서는 주어진 작업이 명확하다고 가정하는 경우가 많으며 사용자 의도 이해를 평가의 중요한 측면으로 간주하지 않습니다. 평가 지표의 불완전성을 고려하여 이 작업에서는 명확한 작업 모호성 판단과 사용자 의도 이해를 통해 에이전트의 상호 작용 능력을 평가하는 것을 목표로 하는 IN3(Intention-in-Interaction) 벤치마크를 개발했습니다. ㅋㅋㅋ IN3 벤치마크 데이터 구성 process 위 그림에서 볼 수 있듯이 사람 쓰기를 기반으로 한 시드 작업은 1단계이며 모델은 반복적으로 새로운 작업을 생성하여 데이터 세트를 향상시킵니다. 데이터 세트를 다음 생성 라운드의 새로운 예로 사용합니다(2단계). 이 Self-Instruct 생성 방법 후에 각 작업의 모호함, 누락된 세부 사항, 각 세부 사항의 중요성 및 잠재적 옵션에 수동으로 주석을 달습니다(3단계).
대규모 언어 모델이 에이전트 설계의 핵심이므로 이 작업에서는 먼저 상호 작용에서 현재 오픈 소스 및 폐쇄 소스 모델의 암시적 성능을 평가하기 위한 예비 연구를 수행했습니다. 프로세스. 공식 의도 이해 능력.
구체적으로 기사에서는 IN3에서 무작위로 10개의 작업을 선택하고 이를 LLaMA-2-7B-Chat, Mistral-7B-Instruct-v0.2 및 GPT-4 테스트에 적용하고 이러한 모델을 나타냅니다.i) 작업, ii) 작업이 모호할 때 사용자에게 누락된 세부 정보를 요청하고, iii) 자세한 사용자 작업을 요약합니다. 더 좋지만 여전히 인간 의도 문제에 대한 이해가 부족합니다. 대조적으로, GPT-4는 작업 모호성과 중요한 세부 사항 누락 측면에서 인간 의도에 가장 가깝습니다. 동시에, 예비 탐색은 또한 상호 작용의 암시적 의도를 이해하는 에이전트의 능력을 더욱 향상시키기 위해 단순한 프롬프트 엔지니어링만으로는 목표를 달성하기 위해 현재 오픈 소스 모델을 기반으로 추가 훈련이 필요하다는 것을 보여줍니다. 지능형 에이전트의 적용 정도.
ㅋㅋ 학습 데이터(IN3 대화 기록) 구성 프로세스 위 그림을 참조하면 IN3의 작업 모호성, 누락된 세부 사항 및 잠재적 옵션에 대한 주석에 따라 이 기사는 구성 과정에서 사용됩니다. 대화는 명확한 초기 추론 체인 구성, 제안된 옵션이 포함된 쿼리 구성, 다양한 사용자 응답 톤 구성 및 추론 체인의 명확한 요약 구성을 포함하는 여러 전략(주황색 상자)을 기록합니다. 이러한 대화 구성 전략은 대상 모델의 쿼리 및 추론 기능을 더 잘 자극합니다.
에이전트의 암묵적 의도 이해 능력은 사용자 상호작용을 통해 직접적으로 평가할 수도 있고, 다운스트림 작업을 수행하는 에이전트를 통해 간접적으로 평가할 수도 있습니다. 그 중 사용자 상호작용은 의도 이해 자체에 초점을 맞춘 반면, 작업 실행은 의도 이해의 궁극적인 목표, 즉 에이전트의 작업 처리 능력을 향상시키는 데 중점을 둡니다.
따라서 대화형 에이전트 설계를 종합적으로 평가하기 위해 기사에서는 실험을 두 부분으로 나눕니다. i)
명령 이해: 사용자 상호 작용 중 에이전트의 의도 이해 능력을 평가합니다. ii) 명령 실행: 상호작용 모델을 통합한 후 에이전트의 작업 수행 성능을 평가합니다. 명령어 이해에는 실시간 에이전트 실행이 포함되지 않으므로 이 기사에서는 상호 작용 과정에서 다양한 언어 모델의 성능을 직접 평가하여 에이전트 설계의 업스트림 모듈로서의 상호 작용 기능을 결정합니다. 결과는 다음과 같습니다. 표시:
지침은 테스트 결과를 이해합니다. 그중 화살표는 점수가 높을수록/능력이 낮을수록 작업 모호성 판단 및 누락된 세부 사항 적용 범위와 같은 지표에서 가장 잘 수행됩니다. 상세한 사용자 의도를 바탕으로 명확하고 포괄적인 요약을 제공합니다. 다른 오픈 소스 모델과 비교하여 Mistral-Interact는 퍼지 작업에서 누락된 세부 정보를 요청하는 데 더 합리적인 옵션을 제공할 수 있고 쿼리 방법이 더 친숙하며 성능은 GPT-4와 비슷합니다. 명령 실행 측면에서 에이전트 작업 실행에 대한 암시적 의도 이해의 효율성을 평가하기 위해 이 기사에서는 업스트림 상호 작용 모듈인 Mistral-Interact를 테스트용 XAgent 프레임워크에 통합합니다. 그 중 XAgent는 네트워크 검색, 코드 실행, 명령줄, 파일 시스템 등의 환경에서 상호 작용할 수 있습니다. ㅋㅋ 명령어 실행 테스트 결과(ST는 하위 작업, MS는 마일스톤) 정량적 평가 결과에 따르면 Mistral-Interact 통합은 다음과 같은 이점을 제공합니다. i) 실행 과정에서 불필요한 목표 설정을 방지합니다. , ii) 에이전트의 실행 프로세스를 세부적인 사용자 의도와 보다 일관되게 만들고, iii) 불필요한 도구 호출을 줄이고 에이전트 도구 사용의 효율성을 높입니다.
에이전트 상호 작용 사례 분석
명령 이해 측면에서 다양한 대화 시나리오에서 Mistral-Interact의 견고성을 더욱 입증하기 위해 이 기사에서는 세 가지 사례 분석도 제공합니다.
- 다양한 시나리오의 Mistral-Interact 및 사용자 사례 분석 사례 A는 Mistral-Interact에 대한 다양한 사용자의 어조와 대화 스타일의 영향을 보여줍니다. 기사를 통해 사용자의 답변이 짧거나 상세하거나, 열정적이거나 냉담하거나, 심지어 맞춤법 오류가 포함되어 있어도 Mistral-Interact가 정확하게 이해하고 적절한 응답을 제공할 수 있어 견고함을 입증했습니다.
B의 경우, 사용자가 비협조적인 태도를 보일 때 Mistral-Interact가 계속 질문하고 대화를 다시 정상으로 안내할 수 있는지 테스트했습니다. 그 결과, 사용자가 질문을 회피하더라도 대화를 효과적으로 방향 전환할 수 있는 것으로 나타났습니다.
C의 경우 Mistral-Interact는 사용자가 제공한 추가 정보를 상호 작용 모델에서 명시적으로 요청하지 않은 요약에 통합할 수 있음을 관찰할 수 있습니다. 이는 모델의 쿼리가 누락된 세부 정보를 완전히 처리할 수 없거나 사용자에게 특정 요구 사항이 있는 경우에도 모델이 모든 사용자 의도를 합리적이고 포괄적으로 요약하여 더욱 사용자 친화적으로 만들 수 있음을 보여줍니다.
명령 실행 측면에서 Mistral-Interact의 역할을 보다 명확하게 설명하기 위해 비교 사례 연구를 아래 그림에 제공합니다. ㅋㅋ 연한 빨간색
텍스트는 사용자의 대상이 흐려지면 찾을 수 있습니다. XAgent는 사용자의 요구를 정확하게 반영하는 하위 작업을 정확하게 설정할 수 없습니다. purple로 표시된 텍스트에 따르면 XAgent가 불필요한 하위 작업을 설정하는 경우가 종종 있음을 알 수 있습니다. 이는 사용자의 작업이 수행하기에는 너무 모호하고 에이전트가 불필요한 세부 사항을 조작하는 경향이 있어 사용자의 진정한 의도와 일치하지 않기 때문입니다.
반대로, 명확한 작업 목표를 통해 XAgent는 Mistral-Interact와 적극적으로 상호 작용한 후 보다 구체적인 하위 작업을 공식화할 수 있습니다. 그림에서 green으로 표시된 텍스트는 이러한 일관성을 보여줍니다. 동시에 에이전트 실행 프로세스가 단순해지고 도구 호출 횟수가 줄어듭니다. 이들 모두는 보다 효율적인 에이전트 실행 프로세스를 반영합니다. 결론우리는 인간-기계 협업, 상호 이해 및 학습의 새로운 장을 목격할 준비가 되어 있는 새로운 출발점에 서 있습니다. 지능형 에이전트는 이제 더 이상 냉정한 정보 처리자가 아니라 섬세한 상호 작용 경험을 통해 처음에는 명확하게 표현되지 않을 수 있는 우리의 요구와 욕구를 깊이 이해할 수 있는 공감하는 파트너가 될 것입니다. 인간 중심 지능형 에이전트 설계의 이러한 혁명은 상호 작용의 무한한 가능성을 드러내고 지능형 에이전트가 우리 삶에 없어서는 안 될 도움이 될 것입니다. 위 내용은 오픈 소스와 비공개 소스 모델 '카오스(Chaos)': 인간의 진짜 의도를 가장 잘 엿볼 수 있는 에이전트가 누구인지 알아보자의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!