7B 크기의 모델도 AI 에이전트와 함께 플레이할 수 있나요? 최근 Kuaishou는 "KwaiAgents"를 오픈했습니다. 주말 스키에 대해 문의해 보세요. 장소를 찾는 데 도움이 될 뿐만 아니라 그날의 날씨도 고려합니다.
우리 모두 알고 있듯이 LLM(대형 언어 모델)은 모델링 언어를 통해 많은 양의 지식을 습득하고 특정 인지 및 추론 능력을 갖추고 있습니다. 그러나 가장 강력한 GPT-4조차도 현재 단독으로 사용하면 잘못된 콘텐츠를 생성하고 실시간으로 세계와 상호 작용할 수 없습니다. AI 에이전트는 이 문제를 해결하는 한 가지 방법입니다. 작업을 계획하고, 반영하고, 도구를 호출하는 대형 모델의 능력을 자극함으로써 대형 모델은 실제 도구를 사용하여 생성된 콘텐츠의 정확성을 높이고 복잡한 문제를 해결하는 능력도 가질 수 있습니다. 문제. 이번에 Kuaishou와 Harbin Institute of Technology가 공동 개발한 "KwaiAgents"를 사용하면 7B/13B의 "소형" 대형 모델이 GPT-3.5의 효과를 능가할 수 있으며 이러한 시스템, 모델, 데이터 및 평가는 모두 오픈 소스입니다!
다음 콘텐츠는 "KwaiAgents"의 Github 홈페이지에서 찾을 수 있습니다:
KAgentSys 시스템의 주요 구성 요소에는 인지 코어, 메모리 메커니즘 및 반복 자동화를 달성하기 위한 대규모 모델 기반 도구 라이브러리가 포함됩니다.
KAgentSys의 일부 기능은 점진적으로 업그레이드되어 오픈될 예정입니다. 이 오픈소스의 내용은 다음과 같습니다.
학습 중 단일 템플릿으로 인한 과적합 문제를 방지하기 위해, 팀이 제안한 MAT(Meta-Agent Tuning) 방법은 에이전트 기능 측면에서 대규모 모델의 다양성을 향상시키고 훈련 데이터에 더 많은 에이전트 프롬프트 템플릿을 도입하여 효과를 향상시킵니다.
메타 에이전트 튜닝(MAT)은 두 단계로 나뉩니다.
KAgentBench는 수동으로 정제된 수천 개의 주석 데이터를 통해 즉시 사용 가능하며 모든 사람이 한 줄의 명령을 사용하여 대규모 모델의 에이전트 기능의 다양한 측면을 평가할 수 있습니다. 다른 템플릿.
KAgentBench에서는 위 그림과 같이 다양한 유형의 능력에 대한 입력 구성을 진행하게 됩니다. 각 쿼리에는 여러 템플릿과 실제 사람이 편집한 여러 답변이 함께 제공됩니다. 이것의 목적은 정확성과 일반화를 종합적으로 평가하는 것입니다. MAT 튜닝 후 아래 표는 다양한 기능에서 7B-13B 모델의 개선을 보여주며, GPT-3.5
연구에서도 인간 어노테이터를 200명의 사실에 초빙하여 교차 평가를 실시했습니다. "올해 앤디 라우는 몇 살입니까?"와 같이 시간에 민감한 질문에 주석이 달려 있습니다. 결과는 KAgentSys 시스템과 MAT 이후의 모델이 크게 개선되었음을 보여줍니다(정확도는 백분율로 표시되며 괄호 안에는 5점 척도의 평균 점수가 표시됨)
오랜 기간 동안 -꼬리 문제 및 인기 있는 문제, 일반적으로 웹 검색에만 의존하는 결과는 이상적이지 않습니다. 예를 들어, "안토넬라가 메시보다 나이가 많은 날은 며칠입니까?"와 같은 롱테일 질문을 하면 검색 결과는 일반적으로 핵심 정보를 제공하지 않고 이들에 대한 일부 가십을 반환합니다. KAgentSys는 백과사전 검색 도구를 호출하여 정확한 생년월일을 얻은 다음 시차 도구를 사용하여 연령 차이를 계산함으로써 이 질문에 정확하게 답할 수 있습니다. 팀은 AI Agents가 매우 유망한 경로라고 말했습니다. 앞으로도 핵심기술을 지속적으로 축적하여 커뮤니티 전체에 지속적으로 새로운 활력을 불어넣겠습니다. 동시에 우리는 Agents 기술과 Kuaishou 사업의 결합을 적극적으로 탐색하고 더욱 흥미롭고 가치 있는 혁신적인 애플리케이션을 구현하려고 노력할 것입니다
위 내용은 Kuaishou는 에이전트 시스템, 모델 및 데이터를 오픈 소스로 공개했습니다!의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!