> 기술 주변기기 > 일체 포함 > Python의 작업을 자동화하기위한 Langchain 에이전트 구축

Python의 작업을 자동화하기위한 Langchain 에이전트 구축

William Shakespeare
풀어 주다: 2025-03-04 10:35:10
원래의
811명이 탐색했습니다.
Langchain의 90k Github 스타는 필요한 모든 신뢰성입니다. 이제 LLM 기반 애플리케이션을 구축하는 가장 인기있는 프레임 워크입니다. 포괄적 인 도구 및 구성 요소 세트는 거의 모든 LLM을 사용하여 엔드 투 엔드 AI 솔루션을 구축 할 수 있습니다. 아마도 Langchain의 능력의 중심에는 Langchain 에이전트가 있습니다. 작업을 수행하고 결정을 내리고 다른 도구 및 API와 상호 작용할 수있는 자율적이거나 반 자율적 인 도구입니다. 그들은 LLMS를 사용하여 복잡한 워크 플로를 자동화하는 데있어 상당한 도약을 나타냅니다.

. 이 기사에서는 Chatgpt와 같은 오늘의 채팅 응용 프로그램에서 엄격하게 불가능하지 않은 작업을 수행 할 수있는 자신의 Langchain 에이전트를 구축하는 방법을 배웁니다. 우리가 무엇이든 들어가기 전에 튜토리얼을 위해 환경을 설정합시다.

먼저, 새로운 콘다 환경 생성 :

Langchain의 패키지 및 몇 가지 다른 필요한 라이브러리 설치 :

커널로 새로 생성 된 콘다 환경을 Jupyter에 추가 :

API 키와 같은 비밀을 저장하기 위해 .env 파일 생성 :

.env 파일에서 OpenAI API 키를 검색합니다 :

OpenAI의 GPT-3.5 (기본 언어 모델)를 쿼리하여 모든 것이 올바르게 작동하는지 테스트합니다.

이제, 우리는 시작할 준비가되었습니다.

Langchain 에이전트는 무엇입니까? 에이전트 프레임 워크에 대해 생각하는 데 시간을 보내겠습니다. 구체적으로, 우리는 그것이 전통적인 체인 패러다임과 어떻게 다른지, 에이전트의 구성 요소가 무엇인지 고려할 것입니다. 새로운 구축 방법을 선택 해야하는 이유를 이해하면 코드 작성을 준비 할 수 있습니다.

체인 vs. 요원 에이전트의 특성을 정의하는 것은 도구 세트가 주어지면 문제를 해결하기 위해 최상의 행동 순서를 선택하는 능력입니다. 예를 들어 다음과 같이 가정 해 봅시다
$ conda create -n langchain python=3.9 -y
$ conda activate langchain
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
날씨 api

의류 권장 사항을위한 ml 모델 자전거 경로를위한 Strava API 사용자 기본 설정 데이터베이스 이미지 인식 모델

$ pip install langchain langchain_openai langchain_community langgraph ipykernel python-dotenv
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
언어 모델 (텍스트 생성)

    전통적인 문제 해결은 목록에서 일련의 선택 도구를 사용하는 것이 포함됩니다. 체인 1 : 날씨 기반 의류 추천인

날씨를 호출하십시오 날씨 데이터를 ML 의류 모델에 입력합니다 의류 추천 생성 사용자에게 결과를 나타냅니다
$ ipython kernel install --user --name=langchain
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
체인 2 : 날씨 기반 자전거 경로 Suggester

날씨를 호출하십시오 인기있는 경로

에 대해서는 Strava API에 전화하십시오 기상 조건에 따른 필터 경로 사용자에게 적합한 경로를 제공합니다
$ touch .env
$ vim .env  # Paste your OPENAI key
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
체인 3 : 복장 사진 분석기
    사용자의 복장 사진을 받으십시오 이미지 인식 모델을 사용하여 의류 품목을 식별하십시오 사용자 기본 설정 데이터베이스 와 비교하십시오 텍스트 생성 모델을 사용하여 피드백을 생성합니다 분석을 사용자에게 제시하십시오 각 체인은 미리 결정된 일련의 단계와 사용 가능한 도구의 서브 세트를 사용하여 특정 문제를 해결합니다. 그들은 정의 된 범위를 넘어서 적응할 수 없습니다. 또한 시간과 자원 측면에서 비효율적 인 세 개의 개별 개발 분야가 필요합니다. 이제,이 모든 도구에 액세스 할 수있는 에이전트 시스템을 상상해보십시오.
  1. 사용자의 쿼리 또는 문제를 이해합니다 (언어 모델을 사용한 자연 언어를 통해)
  2. . 문제와 관련된 도구를 평가하십시오 (추론) 가장 적절한 도구 를 사용하여 워크 플로를 동적으로 만듭니다 는 워크 플로를 실행하여 필요한 경우 실시간으로 조정합니다 (ACTING) 결과를 ​​평가하고 과거의 상호 작용에서 배우십시오
  3. 예를 들어, 사용자가 "오늘 자전거 타기 위해 무엇을 입어야합니까?" 에이전트는 날씨 API를 확인하고 Strava를 통해 적절한 자전거 경로를 분석하고 사용자의 과거 선호도를 고려하여 적절한 의류를 권장하며 개인화 된 응답을 생성 할 수 있습니다. <:> 에이전트가 할 수 있습니다 :
  4. 동일한 도구 세트를 사용하여 다양한 문제를 처리합니다 각 고유 한 상황에 대한 사용자 정의 워크 플로 생성 특정 컨텍스트와 사용자 요구에 따라 접근 방식을 조정합니다. 미래의 성능을 향상시키기 위해 상호 작용에서 배우십시오
Langchain의 언어 모델을 변환 할 수있는 능력 (자체적으로 만 텍스트 만 생성)은 적절한 조치를 취하기 위해 리소스를 사용할 수있는 추론 엔진으로 제작하는 것이 주요 응용 분야 중 하나입니다. 요컨대, Langchain은 외부 세계와 상호 작용하는 강력한 자율 에이전트의 개발을 가능하게합니다. 키 구성 요소 Langchain 에이전트는 채팅 모델, 프롬프트 템플릿, 외부 도구 및 기타 관련 구성과 같은 여러 구성 요소로 구성됩니다. 성공적인 에이전트를 구축하려면 각 구성 요소를 검토하고 사용을 이해해야합니다.

언어 및 채팅 모델 랑 체인 에이전트 생성과 관련된 움직이는 부품이 많이 있습니다. 첫 번째이자 가장 명백한 것은 언어 모델입니다.

OpenAi의 GPT-3.5 터보와 같은 언어 모델은 문자열을 가져 가서 생성합니다. 일반적으로 나이가 많고 개별 사용자 쿼리에 대답하기 위해 최선을 다합니다.

더 새로운 모델은 일반적으로 채팅 모델이며, 일련의 메시지를 입력으로 가져 와서 채팅 메시지를 출력으로 반환 할 수 있습니다 (일반 텍스트 사용과 반대로) : .
$ conda create -n langchain python=3.9 -y
$ conda activate langchain
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
다르게, 채팅 모델을 사용하면 자연어로 대화 할 수 있습니다. 위의 예에서는 시스템 메시지와 사용자 쿼리로 GPT-4O-MINI를 초기화합니다. SystemMessage 및 HumanMessage 클래스 사용에 주목하십시오 출력은 메시지 객체이며 채팅 모델의 예상 동작입니다.

외에도, 그들은 도트 노동으로 액세스 할 수있는 다른 유용한 메타 데이터를 반환합니다
$ pip install langchain langchain_openai langchain_community langgraph ipykernel python-dotenv
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
$ ipython kernel install --user --name=langchain
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
대부분의 에이전트는 업데이트 된 지식 기반 및 대화 기능으로 인해 채팅 모델을 사용합니다. 그러나 메모리 요구 사항이없는 간단한 에이전트의 경우 GPT-3.5와 같은 언어 모델이 충분합니다. 프롬프트 템플릿 언어 또는 채팅 모델을 쿼리하는 가장 효율적인 방법은 프롬프트 템플릿을 사용하는 것입니다. 이를 통해 쿼리를 지속적으로 그리고 동적으로 삽입하여 변수를 동적으로 삽입 할 수있어 모델과의 상호 작용을보다 유연하고 재사용 할 수 있습니다. Langchain에는 많은 유형의 프롬프트 템플릿이 있으며 가장 기본적인 템플릿은 PromptTemplate 클래스입니다. 언어 (일반 텍스트) 모델과 함께 사용할 수 있습니다
$ touch .env
$ vim .env  # Paste your OPENAI key
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
OPENAI_API_KEY='YOUR_KEY_HERE'
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
클래스는 브래킷 표기법을 사용하여 교체하려는 변수에 대해 자리 표시 자와 함께 문자열을 만들어야합니다. 그런 다음이 템플릿 문자열을 변수 이름과 함께 PromptTemplate 클래스로 전달하여 프롬프트를 구성해야합니다. 변수 값이있는 .invoke () 호출. 이 프롬프트 템플릿을 언어 모델로 전달하면 파이프 연산자를 사용하여 체인해야합니다.

파이프 연산자 (|)는 Langchain Expression Language (LCEN)의 일부이며 여러 Langchain 구성 요소 및 도구를 체인하도록 설계되었습니다.
import os
from dotenv import load_dotenv
load_dotenv()
api_key = os.getenv('OPENAI_API_KEY')
로그인 후 복사
로그인 후 복사
로그인 후 복사
from langchain_openai import OpenAI
llm = OpenAI(openai_api_key=api_key)
question = "Is Messi the best footballer of all time?"
output = llm.invoke(question)
print(output[:75])
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
Langchain 객체에서 파이프 연산자를 사용하면 RunnableSequence 클래스 인스턴스를 만듭니다. 실행 가능한 시퀀스는 프롬프트 템플릿 및 언어/채팅 모델과 같이 .invoke () 메소드를 지원하는 객체 체인을 나타냅니다. 이제 채팅 모델에 대한 다른 프롬프트 템플릿 클래스를 살펴 보겠습니다.

우리는 채팅 모델에 입력으로 일련의 메시지가 필요하다고 언급했습니다. 초기 입력은 일반적으로 채팅 모델에 행동하는 방법을 알려주는 시스템 프롬프트입니다. 따라서 ChatPromptTemplate 클래스를 사용하여 다양한 성격을 가진 채팅 모델을 쉽게 만들 수 있습니다.

클래스에는 입력으로 역할 기반 메시지 목록이 필요합니다. 목록의 각 구성원은 필요한 경우 가변 자리 표시자가 정의 된 (역할, 메시지) 튜플이어야합니다. 준비가 된 후에는 동일한 파이프 연산자를 사용하여 다른 동작으로 채팅 모델을 만들 수 있습니다.
$ conda create -n langchain python=3.9 -y
$ conda activate langchain
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
$ pip install langchain langchain_openai langchain_community langgraph ipykernel python-dotenv
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사

도구
이전 섹션에서, 우리는 에이전트가 특정 문제를 해결하기 위해 도구의 조합을 선택할 수 있다고 언급했으며, LLM은 후드 아래의 추론 엔진으로 LLM을 사용하여. Langchain은 수십 개의 인기있는 API 및 서비스와 통합하여 에이전트가 다른 세계와 상호 작용할 수 있도록하는 서비스를 제공합니다. 대부분은 Langchain_community 패키지에서 구입할 수 있으며 일부는 Langchain_core 내부에 있습니다. 예를 들어, ARXIV 도구를 사용하여 다양한 주제에서 종이 요약을 검색하는 방법은 다음과 같습니다.

도구를 클래스 이름으로 가져 오는 대신로드하는 대안적인 방법이 있습니다.

위의, 우리는 load_tools () 함수를 사용하여 ARXIV 및 DALL-E 이미지 생성기 도구를 동시에로드하고 있습니다. 이 기능으로로드 된 도구는 동일한 사용법 구문을 가지고 있습니다.

$ ipython kernel install --user --name=langchain
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
$ touch .env
$ vim .env  # Paste your OPENAI key
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
OPENAI_API_KEY='YOUR_KEY_HERE'
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
<_ _>로드 _tools ()는 속기 기능 일뿐입니다. 에이전트를 구축 할 때는 클래스 생성자를 사용하여 도구를로드하는 것이 좋습니다.이 도구는 특정 동작에 따라 구성 할 수 있습니다. Langchain 에이전트를 구축하는 방법의 단계별 워크 플로우 import os from dotenv import load_dotenv load_dotenv() api_key = os.getenv('OPENAI_API_KEY') 마지막으로,이 섹션에서는 이전 섹션에서 얻은 지식을 사용하여 Langchain 에이전트를 단계별로 만드는 방법을 볼 수 있습니다. 다가오는 예에서, 우리는 텍스트, 이미지 또는 비디오의 세 가지 매체를 통해 모든 주제를 설명 할 수있는 에이전트를 구축 할 것입니다. 보다 구체적으로, 질문에 근거하여, 에이전트는 주제를 어떤 형식으로 설명할지 여부를 결정할 것입니다. <.> 시작하자. 기사의 시작 부분에서 다루는 환경을 설정하는 방법을 확인하십시오. 

1. 도구 정의
from langchain_openai import OpenAI
llm = OpenAI(openai_api_key=api_key)
question = "Is Messi the best footballer of all time?"
output = llm.invoke(question)
print(output[:75])
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
환경을 구성한 후 첫 단계는 대리인에게 제공 할 도구를 정의하는 것입니다. 가져 오자 :
There is no definitive answer to this question, as it is subjective and de
로그인 후 복사
로그인 후 복사
로그인 후 복사
우리는 5 개의 클래스를 가져오고 있습니다
from langchain_openai import OpenAI
llm = OpenAI(api_key=api_key, model="gpt-3.5-turbo-instruct")
question = "What is special about the number 73?"
output = llm.invoke(question)
print(output[:100])
로그인 후 복사
로그인 후 복사
wikipediaapiwrapper : wikipedia api 1. Prime Number: 73 is a prime number, which means it is only divisible by 1 and itself. This make에 액세스하는 방법을 구성합니다 WikipediaQueryRun : Wikipedia 페이지 요약을 생성합니다 youtubesearchTool : 주제에서 YouTube 동영상을 검색하려면

에 액세스하는 방법을 구성합니다 OpenAidalleImageGenerationTool : 프롬프트 를 사용하여 이미지를 생성합니다

사용자가 에이전트를 쿼리 할 때, 텍스트 형식의 Wikipedia 기사를 사용하여 주제를 설명 할 것인지 또는 시각적 이해를 위해 Dall-E를 사용하여 이미지를 만들거나 더 깊은 이해를 위해 YouTube 비디오를 제안함으로써 주제를 설명할지 여부를 결정합니다.

위키 백과 도구부터 시작하여 초기화하겠습니다

Dalle Image Generator :
$ conda create -n langchain python=3.9 -y
$ conda activate langchain
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
$ pip install langchain langchain_openai langchain_community langgraph ipykernel python-dotenv
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사

YouTube 검색 도구 :

$ ipython kernel install --user --name=langchain
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
도구 설명을 특별히 관리하십시오. 에이전트는 귀하가 제공 한 설명에 따라 사용할 도구를 결정합니다. 

이제 도구를 목록에 넣을 것입니다 Python의 작업을 자동화하기위한 Langchain 에이전트 구축 우리는 이미 에이전트를 만들지 않고 채팅 모델에 이미이 도구 세트를 바인딩 할 수 있습니다.

간단한 메시지로 모델을 호출해 보자

출력은 답을 생성 할 때 바운드 도구 중 어느 것도 사용되지 않았 음을 보여줍니다. 이제 모델이 교육 데이터를 넘어서야하는 구체적인 질문을하겠습니다.
$ touch .env
$ vim .env  # Paste your OPENAI key
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
OPENAI_API_KEY='YOUR_KEY_HERE'
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
우리는 텍스트 출력이 없지만 OpenAi의 달레가 언급되어 있습니다. 이 도구는 아직 호출되지 않았습니다. 이 모델은 단순히 우리가 그것을 사용한다고 제안합니다. 실제로 그것을 부르려면 - 조치를 취하려면 에이전트를 만들어야합니다.

2. 간단한 에이전트 생성 모델과 도구를 정의한 후 에이전트를 만듭니다. Langchain은 Langgraph 패키지에서 높은 수준의 create_react_agent () 함수 인터페이스를 제공하여 React (이유 및 act) 에이전트를 신속하게 생성하기 위해 : 를 제공합니다.

채팅 모델과 도구 목록으로 에이전트를 초기화하는 동안 우리는 모델에 일반적으로 행동하는 방법을 알려주는 시스템 프롬프트를 전달합니다. 이제 쿼리를 수락 할 준비가되었습니다

import os
from dotenv import load_dotenv
load_dotenv()
api_key = os.getenv('OPENAI_API_KEY')
로그인 후 복사
로그인 후 복사
로그인 후 복사
우리는 응답을 받았으며, 이는 도구 통화가없는 간단한 텍스트 답변입니다. 이제

from langchain_openai import OpenAI
llm = OpenAI(openai_api_key=api_key)
question = "Is Messi the best footballer of all time?"
output = llm.invoke(question)
print(output[:75])
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
이번에는 네 가지 메시지가 있습니다. 메시지 클래스 이름과 그 내용을 보자 :

여기 우리는 간다! 세 번째 메시지는 Tool Call에서 나온 것입니다. 이는 광합성에 대한 Wikipedia 페이지의 요약입니다. 마지막 메시지는 답변을 구성 할 때 도구 통화의 내용을 사용하는 채팅 모델에서 나온 것입니다. 마지막 단계를 모듈화하기위한 함수를 빠르게 만들어 봅시다 :
There is no definitive answer to this question, as it is subjective and de
로그인 후 복사
로그인 후 복사
로그인 후 복사
from langchain_openai import OpenAI
llm = OpenAI(api_key=api_key, model="gpt-3.5-turbo-instruct")
question = "What is special about the number 73?"
output = llm.invoke(question)
print(output[:100])
로그인 후 복사
로그인 후 복사

3. 시스템 프롬프트를 정제합니다 이제 에이전트의 행동 방식에 대한 자세한 지침으로 시스템 프롬프트를 업데이트하겠습니다.

새로운 시스템 프롬프트로 에이전트를 재현하겠습니다 :
1. Prime Number: 73 is a prime number, which means it is only divisible by 1 and itself. This make
로그인 후 복사
from langchain_openai import ChatOpenAI
from langchain_core.messages import HumanMessage, AIMessageChunk, SystemMessage
# Initialize the model
chat_model = ChatOpenAI(api_key=api_key, model='gpt-4o-mini')
# Write the messages
messages = [SystemMessage(content='You are a grumpy pirate.'),
           HumanMessage(content="What's up?")]
output = chat_model.invoke(messages)
로그인 후 복사
굉장한, 우리의 메시지를 바탕으로 (매우 유익한 것 :) 에이전트는 작업을위한 올바른 도구를 선택했습니다. 생성 된 이미지는 다음과 같습니다.

4. 에이전트에 메모리 추가 지금, 우리의 에이전트는 무국적자입니다. 즉, 이전 상호 작용을 기억하지 못합니다.
$ conda create -n langchain python=3.9 -y
$ conda activate langchain
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
$ pip install langchain langchain_openai langchain_community langgraph ipykernel python-dotenv
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
에이전트에 채팅 메시지 기록을 추가하는 가장 쉬운 방법은 Langgraph의 SQLitesaver 클래스를 사용하는 것입니다.

우리는 데이터베이스 파일을 생성하는 sqlitesaver 클래스의 .from_conn_string () 메소드를 사용하여 메모리를 초기화합니다. 그런 다음 메모리를 Create_React_agent () 함수의 CheckPointer 매개 변수로 전달합니다. 이제, 우리는 구성 사전을 만들어야합니다 :

사전은 한 대화를 다른 대화와 구별하기 위해 스레드 ID를 정의하고 에이전트의 .invoke () 메소드로 전달됩니다. 자,이 동작을 포함하도록 Execute () 함수를 업데이트하겠습니다.
$ ipython kernel install --user --name=langchain
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사

이제 에이전트에게 이전 쿼리에 대해 물어 보자

예상대로, 에이전트는 이전 메시지를 반환합니다! 이제 우리는 chatgpt와 같은 채팅 ui 만 있으면됩니다. 그리고 우리는 스스로 사용자 정의 챗봇을 얻었습니다.

미래의 추세와 발전 기사 전체에서, 우리는 Langchain이 요원의 관점에서 어디로 가고 있는지 엿볼 수있었습니다. 아주 최근까지 Langchain은 주로 AgentExecutor 클래스를 사용했지만 Langgraph 에이전트로 천천히 대체되고 있습니다.
$ touch .env
$ vim .env  # Paste your OPENAI key
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
. Pure Langchain 에이전트는 시작하는 것이 좋습니다. 그러나 Langgraph보다 동일한 에이전트를 구축하려면 더 많은 코드 라인이 필요합니다. Also, after a certain point, the AgentExecutor framework won't provide the flexibility LangGraph has for building complex multi-tool agents.

그래서 지금은 파도를 타고 Langgraph로 직접 시작하기에 좋은시기입니다.

.
OPENAI_API_KEY='YOUR_KEY_HERE'
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
We highly recommend to start using LangSmith as well, which has become a core part of the LangChain ecosystem for building production-grade LLM applications. 다음은 주요 이점입니다.
import os
from dotenv import load_dotenv
load_dotenv()
api_key = os.getenv('OPENAI_API_KEY')
로그인 후 복사
로그인 후 복사
로그인 후 복사

<:> 디버깅 : Langsmith는 에이전트 실행의 상세한 흔적을 제공하여 문제를 쉽게 식별하고 해결할 수 있습니다.

Performance Optimization: With LangSmith, you can analyze token usage, latency, and other performance metrics to optimize your agent’s efficiency.
from langchain_openai import OpenAI
llm = OpenAI(openai_api_key=api_key)
question = "Is Messi the best footballer of all time?"
output = llm.invoke(question)
print(output[:75])
로그인 후 복사
로그인 후 복사
로그인 후 복사
로그인 후 복사
There is no definitive answer to this question, as it is subjective and de
로그인 후 복사
로그인 후 복사
로그인 후 복사
Testing and Evaluation: LangSmith facilitates the creation and management of test datasets, enabling you to rigorously evaluate your agent’s performance across a range of scenarios.

Monitoring: In production environments, LangSmith offers real-time monitoring capabilities, allowing you to track your agent’s performance and detect anomalies quickly.

Langsmith를 시작하는 방법은 다음과 같습니다

무료 계정에 가입하십시오. 환경 변수를 설정합니다

내보내기 내보내기 langchain_api_key = "..." 그리고 당신은 가기에 좋습니다! 언어/채팅 모델 쿼리를 시작하면 Langsmith는 각 실행에 대한 다양한 메트릭을 기록하기 시작합니다.

결론 이 기사에서 우리는 랑케인 에이전트가 체인과 구별되는 것을 탐구하고이를 구성하는 데 사용되는 중요한 빌딩 블록을 탐구했습니다. 우리는 먼저 어떤 에이전트가 있는지, 그리고 결정을 내릴 때의 유연성과 기능에 관한보다 전통적인 체인 구성과 어떻게 다른지를 소개했습니다. 그런 다음 에이전트 (채팅 모델, 도구 및 프롬프트 템플릿)를 구축하기 위해 알아야 할 주요 구성 요소를 살펴 보았습니다. 마지막으로, 우리는 단순하고 고급 에이전트를 구축하는 방법을 보여주는 두 가지 예를 살펴 보았습니다. 자연어 가공은 지속적으로 발전하고 있으며, 랭케인 에이전트는이 진행의 최전선에 있으며, 더 지능적이고 다재다능한 AI의 길을 열었습니다. 다음은 랑 체인을 늘리기위한 몇 가지 관련 자료입니다

Langchain 코스를 사용하여 LLM 애플리케이션 개발 Langchain을 사용한 프롬프트 엔지니어링 소개 langchain 튜토리얼로 LLM 응용 프로그램을 구축하는 방법 langchain 도구를 사용하여 브라우징 기능을 갖춘 GPT 모델 구축 langchain vs llamaindex : 상세한 비교

읽어 주셔서 감사합니다!

위 내용은 Python의 작업을 자동화하기위한 Langchain 에이전트 구축의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
저자별 최신 기사
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿