우수한 에이전트가 반드시 배워야 할 여러 가지 디자인 패턴을 한 번에 배울 수 있습니다.
안녕하세요 여러분 라오두입니다.
어제 회사에서 칭화대학교 지능산업연구소에서 공유하는 AI병원타운을 들었습니다.
Pictures
모든 의사, 간호사, 환자는 LLM이 주도하는 Agent Intelligence이며 자율적으로 상호 작용할 수 있습니다. 그들은 진단 및 치료의 전체 과정을 시뮬레이션했으며, 주요 호흡기 질환을 다루는 MedQA 데이터 세트의 하위 집합에서 93.06%의 최첨단 정확도를 달성했습니다.
훌륭한 지능형 에이전트는 뛰어난 디자인 패턴과 불가분의 관계입니다. 이 사례를 읽은 후 Andrew Ng 씨가 최근 발표한 4가지 주요 에이전트 디자인 패턴을 빠르게 읽었습니다.
Enda Ng은 인공지능과 머신러닝 분야에서 세계에서 가장 권위 있는 학자 중 한 명입니다
그래서 빠르게 편집해서 여러분과 공유했습니다.
모드 1, Reflection
이 모드에서는 대형 모델에서 처음 생성된 결과가 직접 출력되지 않고, 검사 및 평가를 위해 결과가 대형 모델로 다시 던져집니다.
첫 번째 버전보다 더 잘 작동할 수 있는 두 번째 버전의 결과가 생성됩니다.
공자의 말에 따르면 "나는 하루에 세 번씩 나 자신을 성찰한다"고 합니다.
이 모드에서 작성된 특정 프롬프트는 이전에 공유했던 여러 추론 모드를 사용할 수 있습니다. , 등.
이 모델의 핵심 목적은 외부 힘에 의지하지 않고 대형 모델의 추론 능력을 극대화하는 것입니다.
모드 2. 도구 사용
이 모드에서는 에이전트가 외부 도구를 사용하여 특정 작업을 수행할 수 있습니다.
직접 말하면 "전문적인 일은 전문가에게 맡기다"라는 뜻이에요.
대형 모델의 본질은 텍스트 예측이며, 산술, 코드 실행 등의 기능은 없습니다. 이러한 작업이 발생하면 대규모 모델이 방정식과 코드를 생성하도록 한 다음 계산기와 코드 해석기를 호출하여 이를 완료할 수 있습니다.
이 모드의 에이전트는 외부의 도움을 받으면 더욱 강력해지는 것 같습니다.
모드 3. 계획
이 모드를 사용하면 에이전트가 복잡한 작업을 일련의 간단한 작은 작업으로 나눈 다음 하나씩 해결할 수 있습니다.
사실 "코끼리를 냉장고에 넣으려면 몇 걸음이 필요한가요?"라는 뜻이에요. 처음 이 질문을 들었을 때는 헷갈렸는데, 아래 사진을 보니 갑자기 이해가 되더군요.
Pictures
모드 4, 다중 에이전트 협업
이전 모드의 에이전트가 복잡한 작업을 세분화한 후, 여러 에이전트가 각자의 임무를 수행하고 서로 협력해야 하는 것은 당연합니다. , 함께 협력하여 복잡한 작업을 완료하세요.
Pictures
우리는 이전에 오픈 소스 AI 프로그래머 GPT Pilot을 공유한 적이 있습니다. 그의 디자인 아이디어는 제품 관리자, 설계자, 프로그래머 및 테스터의 다양한 역할을 시뮬레이션하여 소프트웨어 개발을 완료하는 것입니다. 일.
글 초반에 소개한 AI 병원 타운에도 이 모델이 있는데, 앞으로 이 모델의 실제 사례도 공유하겠습니다.
위 내용은 우수한 에이전트가 반드시 배워야 할 여러 가지 디자인 패턴을 한 번에 배울 수 있습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











win7 운영 체제를 사용할 때 때때로 시스템을 다시 설치하고 하드 디스크를 분할해야 하는 상황이 발생할 수 있습니다. win7 하드 디스크 형식에 mbr 또는 gpt가 필요한지 여부에 대한 문제와 관련하여 편집자는 여전히 시스템 및 하드웨어 구성의 세부 사항을 기반으로 선택해야 한다고 생각합니다. 호환성 측면에서는 MBR 형식을 선택하는 것이 가장 좋습니다. 자세한 내용은 에디터가 어떻게 했는지 살펴보겠습니다~ win7 하드디스크 포맷은 mbr이나 gpt1이 필요합니다. 시스템에 Win7이 설치되어 있다면 호환성이 좋은 MBR을 사용하는 것이 좋습니다. 2. 3T를 초과하거나 win8을 설치하면 GPT를 사용할 수 있습니다. 3. GPT는 MBR보다 실제로 더 발전했지만 MBR은 호환성 측면에서 확실히 무적입니다. GPT 및 MBR 영역

인공지능과 머신러닝 기술이 계속 발전함에 따라 기업과 조직은 이러한 기술을 활용하여 경쟁력을 강화하는 혁신적인 전략을 적극적으로 모색하기 시작했습니다. K8sGPT[2]는 이 분야에서 가장 강력한 도구 중 하나입니다. k8s 오케스트레이션의 장점과 GPT 모델의 뛰어난 자연어 처리 기능을 결합한 k8s 기반의 GPT 모델입니다. K8sGPT란 무엇입니까? 먼저 예를 살펴보겠습니다. K8sGPT 공식 웹사이트에 따르면 K8sgpt는 SRE 경험을 분석 엔진에 통합하여 가장 관련성이 높은 정보를 제공하도록 설계된 도구입니다. K8sgpt는 인공지능 기술의 적용을 통해 지속적으로 콘텐츠를 풍부하게 하고 사용자가 보다 빠르고 정확하게 이해할 수 있도록 돕습니다.

자체 시스템을 파티션할 때 사용자가 사용하는 하드 드라이브가 다르기 때문에 많은 사용자가 win10 파티션 형식 gpt 또는 mbr을 알지 못합니다. 이러한 이유로 둘 사이의 차이점을 이해하는 데 도움이 되도록 자세한 소개를 제공합니다. Win10 파티션 형식 gpt 또는 mbr: 답변: 3TB를 초과하는 하드 드라이브를 사용하는 경우 gpt를 사용할 수 있습니다. gpt는 mbr보다 고급이지만 호환성 측면에서는 여전히 mbr이 더 좋습니다. 물론, 이것도 사용자의 취향에 따라 선택할 수 있습니다. gpt와 mbr의 차이점: 1. 지원되는 파티션 수: 1. MBR은 최대 4개의 기본 파티션을 지원합니다. 2. GPT는 파티션 수에 의해 제한되지 않습니다. 2. 지원되는 하드 드라이브 크기: 1. MBR은 최대 2TB까지만 지원합니다.

컴퓨터 하드 디스크가 GPT 파티션인지 MBR 파티션인지 확인하는 방법은 무엇입니까? 컴퓨터 하드 디스크를 사용할 때 실제로 이 확인 방법은 매우 간단합니다. . 컴퓨터 하드디스크가 GPT인지 MBR인지 확인하는 방법 1. 바탕화면에서 '컴퓨터'를 마우스 오른쪽 버튼으로 클릭한 후 '관리'를 클릭합니다. 2. '관리'에서 '디스크 관리'를 찾습니다. 3. 디스크 관리에 들어가 일반 상태를 확인합니다. 내 하드 디스크의 파티션 모드를 확인하는 방법은 "디스크 0"을 마우스 오른쪽 버튼으로 클릭하고 "속성"을 선택합니다. 4. "속성"에서 "볼륨" 탭으로 전환하면 "디스크 파티션"을 볼 수 있습니다. Form"으로 보시면 MBR 파티션 win10 디스크 관련 문제 MBR 파티션을 GPT 파티션으로 변환하는 방법>

최근 푸단대학교 자연어 처리팀(FudanNLP)은 LLM 기반 에이전트에 대한 리뷰 논문을 출시했습니다. 전체 텍스트는 86페이지에 달하며 600개 이상의 참고 자료가 있습니다. 저자들은 AIAgent의 역사를 시작으로 LLM 기반 에이전트의 배경, 구성, 적용 시나리오, 최근 주목받고 있는 에이전트 사회 등 대규모 언어 모델 기반 지능형 에이전트 현황을 종합적으로 정리했다. 동시에, 저자들은 관련 분야의 미래 개발 트렌드에 큰 가치를 지닌 Agent와 관련된 미래지향적이고 개방적인 이슈에 대해 논의했습니다. 논문 링크: https://arxiv.org/pdf/2309.07864.pdfLLM-basedAgent 논문 목록:

과학: 미래의 지각 있는 일반 AI는 영원히 자비롭고 유익한 존재가 되기는커녕 모든 개인 데이터를 먹어치우고 가장 필요할 때 붕괴되는 조작적인 소시오패스가 될 가능성이 높습니다. 저자 JoabJackson의 3WaysLLMsCanLetYouDown에서 번역되었습니다. OpenAI는 곧 GPT-5를 출시할 예정이며, 외부 세계에서는 이에 대해 큰 기대를 갖고 있습니다. 심지어 OpenAI가 일반 인공 지능을 달성할 것이라는 예측도 있습니다. 그러나 동시에 CEO인 샘 알트만(Sam Altman)과 그의 팀은 이 제품을 시장에 출시하는 데 많은 심각한 장애물에 직면해 있으며, 그는 이달 초 이를 인정했습니다. Altman의 도전 과제에 대한 단서를 제공할 수 있는 최근 발표된 연구 논문이 있습니다. 이 논문의 요약

모델 소개: Alpaca 모델은 스탠포드 대학에서 개발한 LLM(Large Language Model, 대형 언어) 오픈 소스 모델로 LLaMA7B(Meta 회사의 7B 오픈 소스) 모델을 52K 명령어로 미세 조정한 것입니다. 모델 매개변수(모델 매개변수가 클수록 모델 매개변수도 커짐), 모델의 추론 능력이 강할수록 모델 학습 비용도 높아집니다. LoRA의 정식 영어 이름은 Low-RankAdaptation of Large Language Models이며, 말 그대로 대규모 언어 모델의 저수준 적응을 뜻합니다. 이는 Microsoft 연구진이 대규모 언어 모델의 미세 조정 문제를 해결하기 위해 개발한 기술입니다. 특정 도메인을 수행할 수 있도록 사전 훈련된 대규모 언어 모델을 원하는 경우

시샤오야오 과학기술 강연 원저자 IQ가 완전히 떨어졌어요, 파이썬 기계가 인간과 비슷하게 이해하고 소통할 수 있다면 어떻게 될까요? 이는 학계에서 큰 관심을 불러일으키는 주제였으며, 최근 자연어 처리 분야의 일련의 획기적인 발전 덕분에 우리는 이 목표 달성에 그 어느 때보다 가까워질 수 있습니다. 이러한 혁신의 최전선에는 자연어 처리 작업을 위해 특별히 설계된 심층 신경망 모델인 GPT(Generative Pre-trained Transformer)가 있습니다. 탁월한 성능과 효과적인 대화 수행 능력으로 인해 해당 분야에서 가장 널리 사용되고 효과적인 모델 중 하나로 자리매김하여 연구와 업계에서 상당한 주목을 받고 있습니다. 최근 상세한
