Al Agent--대형 모델 시대의 중요한 구현 방향
1. LLM 기반 에이전트의 전체 아키텍처
대형 언어 모델 에이전트의 구성은 주로 다음 4개 모듈로 나뉩니다.
1 세로 모듈: 주로 배경을 설명합니다. information of the Agent
다음은 초상화 모듈의 주요 내용과 생성 전략을 소개합니다.
초상화 콘텐츠는 주로 인구통계정보, 성격정보, 사회정보 3가지 정보를 기반으로 합니다.
생성 전략: 초상화 콘텐츠를 생성하는 데 주로 3가지 전략이 사용됩니다.
- 수동 디자인 방법: 사용자 초상화의 콘텐츠를 특정 방식으로 숫자에 적용 가능한 대형 모델의 프롬프트에 작성합니다. of Agents 상대적으로 적은 수의 상황;
- 대규모 모델 생성 방법: 먼저 소수의 초상화를 지정하고 이를 예로 사용한 다음 대규모 언어 모델을 사용하여 다수의 상황에 적합한 더 많은 초상화를 생성합니다. 에이전트;
- 데이터 정렬 방법: 미리 지정된 데이터 세트에 있는 문자의 배경 정보를 대규모 언어 모델의 프롬프트로 사용하고 그에 따른 예측을 하는 것이 필요합니다.
2. 메모리 모듈: 주요 목적은 에이전트 동작을 기록하고 향후 에이전트 결정을 지원하는 것입니다.
메모리 구조:
- 단기 메모리만 고려됩니다. 장기기억이 아닙니다.
- 하이브리드 메모리: 장기 기억과 단기 기억이 결합된 메모리입니다.
기억 형태: 주로 다음 4가지 형태를 기반으로 합니다.
- 언어
- Database
- 벡터 표현
- List
메모리 내용: 다음 3가지 일반적인 작업은 다음과 같습니다.
- 기억 읽기
- 기억 쓰기
- 기억 반영
3. 계획 모듈
- 피드백 없는 계획: 대형 언어 모델 추론 과정에서 피드백 없음 외부 환경이 필요합니다. 이러한 유형의 계획은 세 가지 유형으로 더 세분화됩니다. 즉, 크라우드소싱 아이디어를 활용하여 다중 채널 기반 추론 단계를 완전히 출력하기 위해 대규모 언어 모델을 한 번만 사용하는 단일 채널 기반 추론, 대규모 언어 모델이 여러 이유 경로를 생성하고 외부 계획자를 빌려 최적의 경로를 결정할 수 있도록 합니다.
- 피드백을 통한 계획: 이 계획 방법은 외부 환경의 피드백이 필요한 반면, 대규모 언어 모델은 다음 단계 및 후속 계획을 위해 환경의 피드백이 필요합니다. 이러한 유형의 계획 피드백 제공자는 환경 피드백, 인간 피드백, 모델 피드백의 세 가지 소스에서 나옵니다.
4. 작업 모듈
- 작업 목표: 일부 에이전트 목표는 작업 완료, 일부는 의사소통, 일부는 탐색입니다.
- 액션 생성: 일부 에이전트는 메모리 회상을 사용하여 액션을 생성하고 일부 에이전트는 원래 계획에 따라 특정 액션을 수행합니다.
- 동작 공간: 일부 동작 공간은 도구 모음이고 일부는 전체 동작 공간을 자기 인식의 관점에서 고려하여 대형 언어 모델 자체 지식을 기반으로 합니다.
- 행동 영향: 환경에 대한 영향, 내면 상태에 대한 영향, 미래의 새로운 행동에 대한 영향을 포함합니다.
위 내용은 Agent의 전체 프레임워크입니다. 자세한 내용은 다음 문서를 참조하세요.
Lei Wang, Chen Ma, Xueyang Feng, Zeyu Zhang, Hao Yang, Jingsen Zhang, Zhiyuan Chen , Jiakai Tang, Xu Chen, Yankai Lin, Wayne Xin Zhao, Zhewei Wei, Ji-Rong Wen: 대규모 언어 모델 기반 자율 에이전트에 대한 설문 조사. CoRR abs/2308.11432(2023)
2. LLM 기반 에이전트의 주요 및 어려운 문제
현재 대규모 언어 모델 에이전트의 주요 및 어려운 문제는 주로 다음과 같습니다.
1. 에이전트의 롤플레잉 능력을 향상시키는 방법
에이전트 가장 중요한 기능은 특정 역할을 수행하여 특정 작업을 완료하거나 다양한 시뮬레이션을 완료하는 것이므로 에이전트의 롤플레잉 능력이 중요합니다.
(1) 에이전트 롤플레잉 능력 정의
에이전트 롤플레잉 능력은 두 가지 차원으로 구분됩니다.
- 캐릭터와 에이전트 행동 관계
- 캐릭터 진화 메커니즘 환경
(2) 에이전트 롤플레잉 능력 평가
롤플레잉 능력을 정의한 후 다음 두 가지 측면에서 에이전트 롤플레잉 능력을 평가합니다.
- 롤플레잉 평가 지표
- 롤플레잉 평가 시나리오
(3) 에이전트의 롤플레잉 능력 향상
평가를 바탕으로 에이전트의 롤플레잉 능력이 두 가지 유형이 더 개선되어야 합니다. 방법:
- 프롬프트를 통한 역할극 능력 향상: 이 방법의 핵심은 프롬프트를 디자인하여 원래의 대규모 언어 모델의 능력을 자극하는 것입니다. 미세 조정을 통한 롤플레잉 능력 향상: 이 방법은 일반적으로 외부 데이터를 사용하여 대규모 언어 모델을 다시 미세 조정하여 롤플레잉 능력을 향상시키는 방법을 기반으로 합니다.
- 2. Agent 메모리 메커니즘 설계 방법
Agent와 대규모 언어 모델의 가장 큰 차이점은 Agent가 환경에서 지속적으로 발전하고 자체 학습할 수 있다는 것입니다. 매우 중요한 역할 성격. 에이전트의 메모리 메커니즘을 3차원에서 분석합니다.
(1) 에이전트 메모리 메커니즘 설계
두 가지 일반적인 메모리 메커니즘이 있습니다.
- 벡터 검색 기반 메모리 메커니즘
- LLM 요약에 기반한 메모리 메커니즘
- (2) 에이전트 메모리 능력 평가
에이전트의 메모리 능력을 평가하려면 주로 다음 두 가지 사항을 결정하는 것이 필요합니다.
- 평가 지표
- 평가 시나리오
- (3) 에이전트 메모리 메커니즘 진화
마지막으로 다음을 포함하여 에이전트 메모리 메커니즘의 진화를 분석해야 합니다.
- 메모리 메커니즘의 진화
- 메모리 메커니즘의 자동 업데이트
3. 에이전트 추론/계획 능력을 향상시키는 방법
(1) 에이전트 작업 분해 능력
- 하위 작업 정의 및 해체
- 작업 실행의 최적 순서
(2) Agent 추론과 외부 피드백 통합
- 외부 피드백 통합 메커니즘을 설계 추론 과정: 에이전트와 환경이 상호 작용하는 전체를 형성하도록 합니다.
- 외부 피드백에 응답하는 에이전트의 능력을 향상합니다. 한편으로는 에이전트가 외부 환경에 진정으로 응답해야 합니다. 반면에 에이전트는 외부 환경에 대해 질문하고 해결책을 찾을 수 있어야 합니다.
4. 효율적인 다중 에이전트 협업 메커니즘을 설계하는 방법
(1) 다중 에이전트 협력 메커니즘
- 에이전트의 다양한 역할 정의
- 에이전트 협력 메커니즘 디자인
(2) 다중 에이전트 토론 메커니즘
- 에이전트 토론 메커니즘 설계
- 에이전트 토론 수렴 조건
3. 대규모 언어 모델 기반 행동 시뮬레이션 에이전트
다음은 에이전트의 실제 사례입니다. 첫 번째는 대규모 언어 모델을 기반으로 한 사용자 행동 시뮬레이션 에이전트입니다. 이 에이전트는 대규모 언어 모델 에이전트와 사용자 행동 분석을 결합한 초기 작업이기도 합니다. 이 작업에서 각 에이전트는 세 가지 모듈로 나뉩니다.
1. 초상화 모듈
은 ID, 이름, 직업, 나이, 관심사, 특성 등과 같은 다양한 에이전트에 대한 다양한 속성을 지정합니다.
2. 메모리 모듈
메모리 모듈에는 3개의 하위 모듈이 포함됩니다.
(1) 느낌 기억
(2) 단기 기억
- 수행 객관적으로 관찰 원시 관찰 처리 후 더 높은 정보 내용을 가진 관찰이 생성되어 단기 기억에 저장됩니다.
- 단기 기억 내용의 저장 시간은 상대적으로 짧습니다
(3) 장기; memory
- 반복된 트리거링과 활성화 후에 단기 기억의 내용은 자동으로 장기 기억으로 옮겨집니다. 장기 기억 내용의 저장 시간은 상대적으로 길며 독립적인 반영과 승화를 수행합니다. 정제.
- 3. 작업 모듈
- 각 에이전트는 세 가지 작업을 수행할 수 있습니다.
에이전트 간 대화 행동
- 에이전트의 소셜 미디어 게시 행동.
- 전체 시뮬레이션 프로세스 동안 에이전트는 외부 간섭 없이 각 작업 라운드에서 세 가지 작업을 자유롭게 선택할 수 있습니다. 서로 다른 에이전트가 서로 대화하고 소셜 미디어에서 다양한 동작이 자동으로 생성되는 것을 볼 수 있습니다. 또는 추천 시스템, 여러 차례의 시뮬레이션을 통해 몇 가지 흥미로운 사회적 현상과 인터넷에서의 사용자 행동 규칙을 관찰할 수 있습니다.
- 자세한 내용은 다음 문서를 참조하세요.
Lei Wang, Jingsen Zhang, Hao Yang, Zhiyuan Chen, Jiakai Tang, Zeyu Zhang, Xu Chen, Yankai Lin, Ruihua Song, Wayne Xin Zhao, Jun Xu, Zhicheng Dou, Jun Wang, Ji-Rong Wen: 언어가 큰 경우 모델 기반 에이전트와 사용자 행동 분석의 만남: 새로운 사용자 시뮬레이션 패러다임
IV. 여러 Agent가 소프트웨어 개발을 수행합니다. 이 작업은 다중 에이전트 협력의 초기 작업이기도 하며, 주요 목적은 서로 다른 에이전트를 사용하여 완전한 소프트웨어를 개발하는 것입니다. 따라서 소프트웨어 회사로 간주될 수 있으며 다양한 에이전트가 다른 역할을 수행합니다. 일부 에이전트는 CEO, CTO, CPO 및 기타 역할을 포함하여 설계를 담당하고 일부 에이전트는 주로 코딩을 담당합니다. 또한 일부 대리인은 문서 작성을 담당합니다. 이러한 방식으로 서로 다른 에이전트가 서로 다른 작업을 담당합니다. 마지막으로 에이전트 간의 협력 메커니즘이 통신을 통해 조정되고 업데이트되며 최종적으로 완전한 소프트웨어 개발 프로세스가 완료됩니다.
5. LLM 기반 에이전트의 향후 방향
대규모 언어 모델의 에이전트는 현재 크게 두 가지 방향으로 나눌 수 있습니다.
다음과 같은 특정 작업을 해결합니다. MetaGPT, ChatDev, Ghost, DESP 등
이 유형의 에이전트는 궁극적으로 두 가지 "한정자"를 포함하여 올바른 인간 가치와 일치하는 "슈퍼맨"이어야 합니다.
-
올바른 인간 가치와 일치
평범한 인간의 능력을 뛰어넘습니다. Generative Agent, Social Simulation, RecAgent 등 현실 세계를 시뮬레이션합니다.
이 유형의 에이전트에 필요한 기능은 첫 번째 유형과 완전히 반대입니다. -
에이전트가 다양한 가치를 제시할 수 있도록 해주세요.
에이전트는 평범한 사람을 넘어서는 것이 아니라 평범한 사람에게 맞춰지도록 최선을 다하길 바랍니다.
또한 현재의 대형 언어 모델 에이전트에는 다음과 같은 두 가지 문제점이 있습니다. 환상 문제
에이전트는 환경과 지속적으로 상호 작용해야 하기 때문에 각 단계의 환상이 누적됩니다. 즉, 발생합니다. 누적 효과로 인해 문제가 더욱 심각해집니다. 따라서 여기서는 대형 모델의 환상에 더 많은 주의가 필요합니다. 솔루션에는 다음이 포함됩니다.
-
효율적인 인간-기계 협업 프레임워크를 설계합니다.
Design 효율적인 인간 개입 메커니즘. 효율성 문제
시뮬레이션 프로세스에서 효율성은 매우 중요한 문제입니다. 다음 표에는 다양한 API 번호를 사용하는 다양한 에이전트의 시간 소비가 요약되어 있습니다. -
위는 이번에 공유한 내용입니다. 모두 감사드립니다.
-
위 내용은 Al Agent--대형 모델 시대의 중요한 구현 방향의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











이 사이트는 6월 27일에 Jianying이 ByteDance의 자회사인 FaceMeng Technology에서 개발한 비디오 편집 소프트웨어라고 보도했습니다. 이 소프트웨어는 Douyin 플랫폼을 기반으로 하며 기본적으로 플랫폼 사용자를 위한 짧은 비디오 콘텐츠를 제작합니다. Windows, MacOS 및 기타 운영 체제. Jianying은 멤버십 시스템 업그레이드를 공식 발표하고 지능형 번역, 지능형 하이라이트, 지능형 패키징, 디지털 인간 합성 등 다양한 AI 블랙 기술을 포함하는 새로운 SVIP를 출시했습니다. 가격면에서 SVIP 클리핑 월 요금은 79위안, 연간 요금은 599위안(본 사이트 참고: 월 49.9위안에 해당), 월간 연속 구독료는 월 59위안, 연간 연속 구독료는 59위안입니다. 연간 499위안(월 41.6위안)입니다. 또한, 컷 관계자는 "사용자 경험 향상을 위해 기존 VIP에 가입하신 분들도

번역기 | Bugatti 리뷰 | Chonglou 이 문서에서는 GroqLPU 추론 엔진을 사용하여 JanAI 및 VSCode에서 초고속 응답을 생성하는 방법을 설명합니다. 모두가 AI의 인프라 측면에 초점을 맞춘 Groq와 같은 더 나은 대규모 언어 모델(LLM)을 구축하기 위해 노력하고 있습니다. 이러한 대형 모델의 빠른 응답은 이러한 대형 모델이 더 빠르게 응답하도록 보장하는 핵심입니다. 이 튜토리얼에서는 GroqLPU 구문 분석 엔진과 API 및 JanAI를 사용하여 노트북에서 로컬로 액세스하는 방법을 소개합니다. 이 기사에서는 코드 생성, 코드 리팩터링, 문서 입력 및 테스트 단위 생성을 돕기 위해 이를 VSCode에 통합합니다. 이 기사에서는 우리만의 인공 지능 프로그래밍 도우미를 무료로 만들 것입니다. GroqLPU 추론 엔진 Groq 소개

검색 강화 생성 및 의미론적 메모리를 AI 코딩 도우미에 통합하여 개발자 생산성, 효율성 및 정확성을 향상시킵니다. EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG에서 번역됨, 저자 JanakiramMSV. 기본 AI 프로그래밍 도우미는 자연스럽게 도움이 되지만, 소프트웨어 언어에 대한 일반적인 이해와 소프트웨어 작성의 가장 일반적인 패턴에 의존하기 때문에 가장 관련성이 높고 정확한 코드 제안을 제공하지 못하는 경우가 많습니다. 이러한 코딩 도우미가 생성한 코드는 자신이 해결해야 할 문제를 해결하는 데 적합하지만 개별 팀의 코딩 표준, 규칙 및 스타일을 따르지 않는 경우가 많습니다. 이로 인해 코드가 애플리케이션에 승인되기 위해 수정되거나 개선되어야 하는 제안이 나타나는 경우가 많습니다.

LLM(대형 언어 모델)은 대규모 텍스트 데이터베이스에서 훈련되어 대량의 실제 지식을 습득합니다. 이 지식은 매개변수에 내장되어 필요할 때 사용할 수 있습니다. 이러한 모델에 대한 지식은 훈련이 끝나면 "구체화"됩니다. 사전 훈련이 끝나면 모델은 실제로 학습을 중단합니다. 모델을 정렬하거나 미세 조정하여 이 지식을 활용하고 사용자 질문에 보다 자연스럽게 응답하는 방법을 알아보세요. 그러나 때로는 모델 지식만으로는 충분하지 않을 때도 있으며, 모델이 RAG를 통해 외부 콘텐츠에 접근할 수 있더라도 미세 조정을 통해 모델을 새로운 도메인에 적응시키는 것이 유익한 것으로 간주됩니다. 이러한 미세 조정은 인간 주석 작성자 또는 기타 LLM 생성자의 입력을 사용하여 수행됩니다. 여기서 모델은 추가적인 실제 지식을 접하고 이를 통합합니다.

AIGC에 대해 자세히 알아보려면 다음을 방문하세요. 51CTOAI.x 커뮤니티 https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou는 인터넷 어디에서나 볼 수 있는 전통적인 문제 은행과 다릅니다. 고정관념에서 벗어나 생각해야 합니다. LLM(대형 언어 모델)은 데이터 과학, 생성 인공 지능(GenAI) 및 인공 지능 분야에서 점점 더 중요해지고 있습니다. 이러한 복잡한 알고리즘은 인간의 기술을 향상시키고 많은 산업 분야에서 효율성과 혁신을 촉진하여 기업이 경쟁력을 유지하는 데 핵심이 됩니다. LLM은 자연어 처리, 텍스트 생성, 음성 인식 및 추천 시스템과 같은 분야에서 광범위하게 사용될 수 있습니다. LLM은 대량의 데이터로부터 학습하여 텍스트를 생성할 수 있습니다.

이 기사는 제2회 OpenHarmony 기술 컨퍼런스에서 시연된 "OpenHarmony에서 대규모 언어 모델의 로컬 배포" 결과를 오픈 소스로 제공합니다. 오픈 소스 주소: https://gitee.com/openharmony-sig/tpc_c_cplusplus/blob/master/thirdparty /InferLLM/docs/hap_integrate.md. 구현 아이디어와 단계는 경량 LLM 모델 추론 프레임워크 InferLLM을 OpenHarmony 표준 시스템에 이식하고 OpenHarmony에서 실행할 수 있는 바이너리 제품을 컴파일하는 것입니다. InferLLM은 간단하고 효율적인 L입니다.

머신 러닝은 명시적으로 프로그래밍하지 않고도 컴퓨터가 데이터로부터 학습하고 능력을 향상시킬 수 있는 능력을 제공하는 인공 지능의 중요한 분야입니다. 머신러닝은 이미지 인식, 자연어 처리, 추천 시스템, 사기 탐지 등 다양한 분야에서 폭넓게 활용되며 우리의 삶의 방식을 변화시키고 있습니다. 기계 학습 분야에는 다양한 방법과 이론이 있으며, 그 중 가장 영향력 있는 5가지 방법을 "기계 학습의 5개 학교"라고 합니다. 5개 주요 학파는 상징학파, 연결주의 학파, 진화학파, 베이지안 학파, 유추학파이다. 1. 상징주의라고도 알려진 상징주의는 논리적 추론과 지식 표현을 위해 상징을 사용하는 것을 강조합니다. 이 사고 학교는 학습이 기존을 통한 역연역 과정이라고 믿습니다.

편집자 |ScienceAI 질문 응답(QA) 데이터 세트는 자연어 처리(NLP) 연구를 촉진하는 데 중요한 역할을 합니다. 고품질 QA 데이터 세트는 모델을 미세 조정하는 데 사용될 수 있을 뿐만 아니라 LLM(대형 언어 모델)의 기능, 특히 과학적 지식을 이해하고 추론하는 능력을 효과적으로 평가하는 데에도 사용할 수 있습니다. 현재 의학, 화학, 생물학 및 기타 분야를 포괄하는 과학적인 QA 데이터 세트가 많이 있지만 이러한 데이터 세트에는 여전히 몇 가지 단점이 있습니다. 첫째, 데이터 형식이 비교적 단순하고 대부분이 객관식 질문이므로 평가하기 쉽지만 모델의 답변 선택 범위가 제한되고 모델의 과학적 질문 답변 능력을 완전히 테스트할 수 없습니다. 이에 비해 개방형 Q&A는
