> 기술 주변기기 > 일체 포함 > 코드, 웹 검색, 연구 등을위한 상위 6 개 Sota LLMS -Analytics Vidhya

코드, 웹 검색, 연구 등을위한 상위 6 개 Sota LLMS -Analytics Vidhya

Christopher Nolan
풀어 주다: 2025-03-20 15:18:12
원래의
958명이 탐색했습니다.

인공 지능에서, LLM (Lange Language Models)은 모 놀리 식 개체가 아닌 특정 작업에 맞게 조정되었습니다. AI 세계에는 오늘날 AI 세계에는 잘 정의 된 도메인에서 강력한 성능을 가진 프로젝트 제작 모델이 있습니다. 개발자 워크 플로우 또는 방대한 정보 허브에서 컨텐츠를 탐색하는 연구 에이전트를 자율적으로 탐색하는 리서치 에이전트는이 작품에서 기본 문제를 해결하면서 독창적 인 컨텐츠를 통합하는 최상의 SOTA LLM을 분석하는 최고의 SOTA LLM을 분석합니다.

별개의 방향을 이해하면 전문가가 특정 요구에 가장 적합한 AI-AI-ADAPTED 도구를 선택하는 데 도움이되는 동시에 AI-enhanced 워크 스테이션 환경에서 빈번한 알림에 밀접하게 준수하는 데 도움이됩니다.

참고 : 이것은 언급 된 모든 SOTA LLM에 대한 나의 경험이며, 사용 사례에 따라 다를 수 있습니다.

목차

  • 클로드 3.7 소네트
  • Gemini 2.0 플래시
  • Openai O3-Mini-High
  • Elevenlabs API
  • Openai Deep Research
  • 당황한 ai
  • 결론

1. 클로드 3.7 소네트

Claude 3.7 Sonnet은 끊임없이 변화하는 AI 세계에서 관련 작업 및 소프트웨어 개발을 코딩하는 데있어 타의 추종을 불허하는 리더 (Sota LLMS)로 부상했습니다. 이제이 모델은 2025 년 2 월 24 일에 시작되었지만 그 이후 지역에서 놀라운 일을 할 수있는 능력을 갖추고 있습니다. 일부에 따르면, 그것은 점진적인 개선이 아니라 오히려 AI 지원 프로그래밍으로 수행 할 수있는 모든 것을 재정의하는 획기적인 도약입니다.

타의 추종을 불허하는 코딩 기능

Claude 3.7 Sonnet은 전례없는 코딩 인텔리전스를 통해 자신을 구별합니다.

  • 종료 - 엔드 소프트웨어 개발 : 초기 프로젝트 개념에서 최종 배포에 이르기까지 Claude는 전체 소프트웨어 개발 수명주기를 놀라운 정밀도로 처리합니다.
  • 포괄적 인 코드 생성 : 여러 프로그래밍 언어에서 고품질 컨텍스트 인식 코드를 생성합니다.
  • 지능형 디버깅 : 아마도 인간과 같은 추론으로 복잡한 코딩 문제를 식별, 설명 및 해결할 수 있습니다.
  • 대형 컨텍스트 창 : 최대 128k 출력 토큰을 지원하여 포괄적 인 코드 생성 및 복잡한 프로젝트 계획을 가능하게합니다.

주요 강점

  • 하이브리드 추론 : 복잡한 작업을 통해 생각하고 추론하기위한 타의 추종을 불허합니다.
  • 확장 컨텍스트 창 : 최대 128k 출력 토큰 (이전 버전보다 15 배 이상).
  • 멀티 모달 장점 : 코딩, 비전 및 텍스트 기반 작업의 탁월한 성능.
  • 낮은 환각 : 매우 유효한 지식 검색 및 질문 답변.

기술 혁신

고급 추론 능력

Claude 3.7 Sonnet은 AI 추론에 대한 혁신적인 접근 방식을 소개합니다.

  • 즉각적인 응답 생성
  • 투명하고 단계별 사고 과정을 관찰 할 수 있습니다.
  • 계산 사고 시간에 대한 세밀한 통제.

다목적 사용 사례

이 모델은 다른 것들에서 탁월하다는 것을 알고 있습니다.

  • 소프트웨어 개발 : 계획과 유지 보수 사이의 온라인 엔드 투 엔드 코딩 지원.
  • 데이터 분석 : 차트 및 다이어그램에서 고급 시각 데이터 추출
  • 콘텐츠 생성 : 우수한 톤 이해로 뉘앙스 작성
  • 프로세스 자동화 : 정교한 교육 추적 및 복잡한 워크 플로 관리.

실습 가이드 : 첫 번째 Claude 3.7 Sonnet 프로젝트

전제 조건

  • 인류 콘솔 계정
  • API 키
  • 파이썬 3.7 또는 타입 스크립트 4.5

단계별 구현

1. 인류 SDK를 설치하십시오

 ! PIP 설치의 Anthropic
로그인 후 복사

2. API 환경을 설정하십시오

 내보내기 Anthropic_api_key = 'your-api-key-Here'
로그인 후 복사

3. 파이썬 코드 예 :

 인물 수입
클라이언트 = Anthropic.anthropic ()
message = client.messages.create (
Model = "Claude-3-7-Sonnet-20250219",
max_tokens = 1000,
온도 = 1,
System = "당신은 세계적 수준의 시인입니다. 짧은 시로 만 응답하십시오.",
메시지 = [
{
"역할": "사용자",
"콘텐츠": [
{
"유형": "텍스트",
"텍스트": "바다는 왜 짠맛이 있습니까?"
}
]]
}
]]
))
print (message.content)
로그인 후 복사

산출

 [TextBlock (Text = "바다의 짠 소금물, 시간과 디자인의 \ na tale. \ nrocks<br> 그리고 강, 그들의 미네랄이 흘리며 \ 바다에서 쿠밀화됩니다<br> 침대. \ nevaporation은 소금 뒤에 소금을 남깁니다<br> enshrined. ", type = 'text')]
로그인 후 복사

모범 사례

  • 시스템 별 프롬프트를 사용하십시오- 명확하고 구체적으로
  • 온도 설정으로 실험- 새로운 설정으로 조종 할 수 있습니다.
  • 확장 컨텍스트 창 활용- 복잡한 작업을 위해 종종 성공적인 결과로 이어질 수 있습니다.

가격 및 가용성

  • API 액세스 : Anthropic API, Amazon Bedrock, Google Cloud Vertex AI
  • 소비자 액세스 : Claude.ai (웹, iOS, Android)
  • 가격 :
    • 백만 달러 당 3 백만 달러의 입력 토큰
    • 백만 달러당 $ 15 출력 토큰
    • 신속한 캐싱으로 최대 90% 비용 절감
    • 배치 처리로 50% 비용 절감

Claude 3.7 Sonnet은 언어 모델이 아닙니다. 그것은 미묘한 지침을 따르고 자체 수정을 구현하고 다양한 분야에서 전문가의 감독을 제공 할 수있는 정교한 AI 동반자입니다.

또한 읽기 :

  • Claude 3.7 Sonnet을 사용한 문서 분석
  • Claude 3.7 Sonnet : 아직 최고의 코딩 모델?
  • Claude 3.7 Sonnet API에 액세스하는 방법은 무엇입니까?
  • Claude 3.7 Sonnet vs Grok 3 : 코딩에 어떤 LLM이 더 낫습니까?

2. Gemini 2.0 플래시

Gemini 2.0 플래시 이해

Google Deepmind는 gemini 2.0 플래시로 기술 도약을 수행하여 멀티 모달 AI와의 상호 작용 한계를 초월합니다. 이것은 단지 업데이트가 아닙니다. 오히려 그것은 AI가 할 수있는 일에 관한 패러다임 전환입니다.

주요 기술 발전

  • 입력 다중 공정성 : 원활한 작동을위한 텍스트, 이미지, 비디오 및 오디오 입력을 가져 오도록 만들어졌습니다.
  • 출력 다중 공정 : 이미지, 텍스트 및 다국어 오디오를 생성합니다.
  • 내장 도구 통합 : Google에서 검색을위한 액세스 도구, 코드 실행 및 기타 타사 기능.
  • 성능 향상 : 이전 모델보다 더 잘 수행하고 빠르게 수행합니다.

실습 가이드 : Gemini 2.0 플래시를 사용한 코드 실행

전제 조건

  • Google 클라우드 계정
  • 정점 AI 워크 벤치 액세스
  • 파이썬 환경

설치 및 설정

예제 코드를 실행하기 전에 Google AI Python SDK를 설치해야합니다.

 ! PIP Google Generativeai를 설치하십시오
로그인 후 복사

예 : 처음 50 소수의 합계 계산

 Google Import Genai에서
Google.genai 가져 오기 유형에서
# API 키를 설정하십시오
클라이언트 = genai.client (API_KeyGoogle DeepMind = "gemini_api_key")
# 코드 생성 및 실행이 필요한 프롬프트 생성
응답 = client.models.generate_content (
model = 'gemini-2.0-flash',
내용 = '처음 50 개의 소수의 합은 얼마입니까? '
'계산을 위해 코드를 생성하고 실행하고 50을 모두 얻으십시오.',
config = types.generateContentConfig (
도구 = [type.tool (
code_execution = types.toolcodeexecution
))]]
))
))
# 응답을 인쇄하십시오
print (response.text)
로그인 후 복사

산출

코드, 웹 검색, 연구 등을위한 상위 6 개 Sota LLMS -Analytics Vidhya

실제 응용 프로그램

Gemini 2.0 Flash는 개발자가 다음을 수행 할 수 있습니다.

  • 동적 및 대화식 응용 프로그램 생성
  • 자세한 데이터 분석 수행
  • 즉시 코드를 생성하고 실행합니다
  • 여러 데이터 유형의 원활한 통합

가용성 및 액세스

  • 실험 모델 : Gemini API를 통해 사용할 수 있습니다
  • 플랫폼 : Google AI Studio, Vertex AI
  • 입력 모드 : 멀티 모달 입력, 텍스트 출력
  • 고급 기능 : 텍스트 음성, 기본 이미지 생성 (초기 액세스)

Gemini 2.0은 기술적 인 발전 일뿐 만 아니라 AI의 미래에 대한 창입니다. 여기서 모델은 전례없는 정교함으로 여러 도메인을 이해하고 추론하고 행동 할 수있는 AI의 미래입니다.

또한 읽기 :

  • Gemini 2.0 - Google의 최신 LLM에 대해 알아야 할 모든 것
  • Gemini 2.0 Flash vs GPT 4O : 어느 것이 더 낫습니까?

3. Openai O3-Mini-High

Openai O3-Mini-High는 수학적으로 문제를 해결하기위한 탁월한 접근 방식이며 고급 추론 능력을 가지고 있습니다. 전체 모델은 전례없는 깊이와 정밀도로 가장 복잡한 수학적 문제를 해결하기 위해 구축되었습니다. O3-Mini-High는 컴퓨터에 숫자를 펀칭하는 대신 수학에 대한 추론에 대한 더 나은 접근 방식을 제공하여 합리적으로 어려운 문제가 세그먼트로 나누어지고 단계적으로 답변 할 수 있도록합니다.

수학적 추론의 본질

수학적 추론은이 모델이 진정으로 빛나는 곳입니다. 강화 된 건축 체인은 수학적 문제를 훨씬 더 잘 고려하여 사용자가 답변을받을 수있을뿐만 아니라 해당 답변이 어떻게 도출되었는지에 대한 자세한 설명도 가능합니다. 이 접근법은 과학, 공학 및 연구 맥락에서 큰 문제 해결 과정에 대한 이해가 그 결과만큼 중요합니다.

수학적 영역에 걸친 성능

모델의 성능은 모든 유형의 수학에서 정말 놀랍습니다. 간단한 계산뿐만 아니라 복잡한 과학 계산을 매우 정확하고 깊게 수행 할 수 있습니다. 놀라운 기능은 최고의 표준 AI 모델조차도 엄청나게 복잡한 다중 단계 문제를 해결한다는 것입니다. 예를 들어, 많은 복잡한 수학 문제 가이 멋진 AI 도구를 사용하여 직관적 인 단계로 나눌 수 있습니다. Aime 및 GPQA와 같은 몇 가지 벤치 마크 테스트가 있으며,이 모델은 일부 거대한 모델과 비슷한 수준에서 수행됩니다.

문제 해결에 대한 독특한 접근

실제로 O3-Mini-High를 무엇이든 차별화하는 것은 수학적 추론에 대한 미묘한 접근법입니다. 이 변형은 수학적 문제를 처리하고 설명하는 데 표준 모델보다 시간이 더 걸립니다. 이는 반응이 더 길어지는 경향이 있지만, 더 좋고 더 실질적인 추론을 사용자에게 이용할 수 있습니다. 이 모델은 대답하지 않습니다. 모든 추론과 처리를 통해 사용자를 필요로하므로 교육 목적, 연구 또는 본격적인 수학이 필요한 전문 응용 프로그램을위한 귀중한 도구가됩니다.

고려 사항 및 제한

  • 토큰 사용 증가
  • 응답 시간이 약간 낮습니다
  • 더 높은 계산 비용

수학적 문제 해결의 실제 응용

실제로 O3-Mini-High는 응용 프로그램에 고급 수학적 추론이 필요한 시나리오에서 큰 가치를 찾습니다. 어려운 문제를 해부하는이 능력은 과학 연구원, 엔지니어 및 고급 학생들에게 특히 도움이 될 것입니다. 복잡하게 정의 된 알고리즘 개발, 다중 단계 수학적 문제 해결 또는 철저한 과학적 계산을 수행하든이 모델은 문자 그대로 대부분의 사람들이 전통적인 계산 도구에서 기대할 수있는 것 이상의 수준의 수학적 통찰력을 제공합니다.

코드, 웹 검색, 연구 등을위한 상위 6 개 Sota LLMS -Analytics Vidhya

기술 아키텍처 및 수학적 추론

밀집된 변압기 프레임 워크는 모델 아키텍처의 기초를 형성하여 모든 수학적 문제의 성능을 밀접하게 정의 된 방식으로 가능하게합니다. 이러한 고급 모델은 다양한 제약 조건과 검증 된 단계를 처리하여 계산만으로는 진정한 수학적 이해를 나타내지 못하는 매우 고급 수학에 가장 적합합니다.

실습 : 수학적 문제 해결을 위해 O3-Mini-High 사용에 대한 실용 가이드

1 단계 : API 액세스에 가입하십시오

OpenAI 베타 프로그램의 일부가 아닌 경우 OpenAI의 API 페이지를 방문하여 액세스를 요청해야합니다. 가입 한 후에는 O3-MINI 모델에 액세스하기 위해 승인을 기다려야 할 수도 있습니다.

2 단계 : API 키를 생성합니다

액세스가 있으면 OpenAI API 플랫폼에 로그인하여 API 키를 생성하십시오. 이 키는 API 요청을하는 데 필요합니다. 키를 생성하려면 API 키로 이동하여 "새 비밀 키 만들기"를 클릭하십시오. 일단 생성되면 키를 복사하고 안전하게 저장하십시오.

3 단계 : OpenAi Python SDK를 설치하십시오

OpenAI API와 상호 작용하려면 OpenAI Python SDK를 설치해야합니다. 다음 명령을 사용 하여이 작업을 수행 할 수 있습니다.

 ! pip install openai
로그인 후 복사

4 단계 : OpenAI 클라이언트를 초기화합니다

OpenAI SDK를 설치 한 후 API 키를 설정하여 클라이언트를 초기화해야합니다.

 OS 가져 오기
OpenAi 가져 오기
# API 키를 환경 변수로 설정하십시오
os.environ [ "Openai_api_key"] = "your_api_key_here"
로그인 후 복사

5 단계 : O3-Mini-High 모델을 요청합니다

 # 또는 클라이언트를 직접 구성하십시오
client = openai.openai (api_key = "your_api_key_here")
# 예제 채팅 완료 요청
응답 = client.chat.completions.create (
Model = "O3-Mini-High",
메시지 = [
{ "역할": "System", "Content": "귀하는 도움이되는 조수입니다."},
{ "역할": "사용자", "내용": "Fibonacci 시퀀스를 계산하는 함수 작성"}
],,
온도 = 0.7,
max_tokens = 1500
))
# 응답을 인쇄하십시오
print (response.choices [0] .message.content)
로그인 후 복사

이상적인 사용 사례

O3-Mini-High는 특히 잘 적합합니다.

  • 고급 과학 계산
  • 복잡한 알고리즘 개발
  • 다단계 수학적 문제 해결
  • 연구 수준의 수학적 분석
  • 자세한 문제 설명이 필요한 교육적 맥락

가장 확실히, Openai O3-Mini-High는 전통적인 계산에 대해 기대할 수있는 것 이상의 수학적 추론에 매우 상당한 플러스를 수반합니다. 고급 추론 기술을 수학적 문제 해결 방법론에 대한 철저한 이해와 결합 하여이 모델은 단순한 빠른 답변 이상이 필요한 사람에게 실제 솔루션을 제공합니다.

또한 읽기 :

  • 5 O3-Mini는 오늘 시험해 보라고한다
  • 어떤 O3-Mini 추론 수준이 가장 똑똑합니까?
  • 이미지 분석을 위해 O3-Mini가 O1보다 낫습니까?

4. Elevenlabs API

AI가 BreakNeck 속도로 발전함에 따라 Elevenlabs는 오디오 기술과의 협력 방식을 영원히 변화시키는 혁신적인 기술로 두드러집니다. Elevenlabs API는 핵심적으로, 개발자와 생산자에게 이전과 마찬가지로 매우 자연스러운 소리를 낼 수있는 편리하고 유연성을 제공하는 정교한 음성 합성 도구 생태계를 구현합니다.

기술 능력

  • 텍스트 음성 변환
  • 복잡한 음성 복제 기술
  • 실시간 음성 변환
  • 맞춤형 음성 모델
  • 오디오 컨텐츠 ​​생성에 대한 다중 언어 지원

기술 아키텍처 및 기능

Elevenlabs와 전통적인 음성 합성 도구의 유일한 차이점은 음성 생성에 사용 된 토대입니다. 전자는 인간 음성의 모든 세게 입자 미묘함을 포함하기 위해 최첨단 머신 러닝 알고리즘을 적용합니다. 이 API는 개발자가 음성에 큰 정밀도로 영향을 미치는 매개 변수를 미세 조정할 수 있도록합니다. 사용자는 감정 강도, 참조 음성의 유사성 및 말하기 스타일의 강도를 나타내는 매개 변수를 변경하여 오디오 생성에 대한 전례없는 수준의 제어를 제공 할 수 있습니다.

설치 및 통합

1 단계 : elevenlabs에 가입하십시오

elevenlabs.io에서 계정을 만들고 적절한 가입 계획을 선택하십시오.

2 단계 : API 키를 생성합니다

ElevenLabs 대시 보드에서 프로파일 섹션으로 이동하여 API 키를 작성하고 복사하십시오.

3 단계 : SDK를 설치하십시오

 ! PIP 설치 ElevenLabs
로그인 후 복사

4 단계 : 클라이언트 초기화

 elevenlabs에서 import set_api_key, 생성, 재생, 저장
# API 키를 설정하십시오
set_api_key ( "your_api_key_here")
로그인 후 복사

5 단계 : 음성 오디오 생성

 # 사전 제작 된 음성으로 연설을 생성합니다
오디오 = 생성 (
Text = "Hello World! 이것은 ElevenLabs Text-Steech API입니다.",
음성 = "레이첼"
))
# 오디오를 재생하거나 파일에 저장하십시오
재생 (오디오)
저장 (오디오, "output_speech.mp3")
로그인 후 복사

6 단계 : 음성 사용자 정의

 elevenlabs.api 가져 오기 음성, Voicesettings
오디오 = 생성 (
텍스트 = "이것은 사용자 정의 음성 설정을 사용합니다.",
음성 = 음성 (
Voice_, # Rachel의 음성 ID
설정 = VoiceSettings (
안정성 = 0.7,
유사성 _boost = 0.5
))
))
))
로그인 후 복사

음성 사용자 정의 기능

Elevenlabs의 실제 힘은 매우 광범위한 사용자 정의에 있습니다. 개발자는 음성 설정을 미세한 세부 사항까지 조정할 수 있습니다. 안정성 설정은 정서적 변화의 하이라이트를 제어하는 ​​반면 유사성 강화 설정은 음성 복제 정확도를 증가시킵니다. 이러한 도구는 다양한 사용 사례에 대한 조절 가능한 기능을 갖춘 엄청나게 인간 같은 음성을 생성하는 데 사용될 수 있습니다.

실제 응용 프로그램

  • 내용은 일관되고 고품질의 내레이션을 가진 콘텐츠 제작자에 의해 오디오 북으로 만들어지고 있습니다.
  • 학교는 전자 학습 플랫폼을 통해 대화식 학습 경험을 제공 할 수 있습니다.
  • 역동적 인 캐릭터는 게임 회사의 이야기 맥락에 자신의 목소리를 적용 할 수 있습니다.
  • 접근성 도구는 시각 장애가있는 사용자에게 더욱 활기차고 개인적인 오디오 경험을 제공 할 수 있습니다.

모범 사례 및 고려 사항

이러한 권한으로 신중한 구현 고려 사항이 필요합니다. API 키 보안이 우선 순위를 정하고 요금 제한을 존중해야하며 오류 처리는 구현에서 우선 순위가 있어야합니다. 생성 된 오디오를 현금화하면 성능 부스터가 될 것이며 몇 가지 API 호출을 제거합니다. 이러한 측면에 대한 잘 인식은 플랫폼이 제공하는 기능의 최적 활용과 함께 원활한 통합을 허용 할 수 있습니다.

비용 및 접근성

Elevenlabs는 포용적이고 유연한 것으로 간주되는 가격 책정 시스템을 제시했습니다. 무료 계층은 개발자가 재생 및 프로토 타입을 지원하는 반면 고급 사용 사례는 Pay-as-You-Go 및 가입 모델을 사용합니다. 토큰 기반 가격은 개발자가 규모에 상관없이 프로젝트의 요구에 따라 소비되는 자원에 대해서만 지불 할 수 있기 때문에 유리합니다.

문제 해결 및 지원

이 플랫폼은 Advanced AI Technologies로 작업하면 과제를 제시 할 수 있음을 인정합니다.

  • 포괄적 인 문서 및 지원 메커니즘을 제공합니다
  • API 키 권한 확인
  • 네트워크 연결 확인
  • 오디오 파일 형식의 호환성 보장

음성 기술의 미래

API 이상인 Elevenlabs는 인간 컴퓨터 상호 작용의 미래를 엿볼 수 있습니다. 이 플랫폼은 고급 커뮤니케이션, 엔터테인먼트 및 접근성에 대한 문을 열 수있는 고급 음성 합성 기술을 민주화함으로써 실제로 장벽을 없애고 있습니다.

오디오 기술의 가장자리를 밀고 자하는 개발자와 제작자에게 Elevenlabs는 강력하고 유연한 솔루션을 제공합니다. 기능 및 사용자 정의 옵션을 고려하십시오. 그런 다음 혁신가들은 자연스럽게 들리는 매력적인 오디오 경험을 창출하는 데 사용할 수 있으며 이러한 혁신가가 달성하고자하는 다른 모든 것을 만들 수 있습니다.

5. Openai Deep Research

대형 언어 모델을위한 점점 더 발전하는 경기장에서 Openai의 깊은 연구는 철저한 연구를 위해 특별히 설계된 선구적인 솔루션입니다. 텍스트 생성 또는 코딩에서 좋은 일반적인 LLM과는 달리, Deep Research는 AI가 웹 전체에서 정보를 자율적으로 탐색, 합성 및 문서화 할 수있는 방법에 관한 절대적으로 새로운 패러다임입니다.

연구 강국

Deep Research는 OpenAI의 다가오는 O3 추론 모델을 기반으로 한 독립적 인 에이전트가 AI 연구가 본질적으로 수행 할 수있는 일을 거꾸로 바꾸는 독립적 인 에이전트입니다. 일반적인 LLM이 신속하게 자신과 관련된 경우, 깊은 연구는 훨씬 더 철저하고 전체 문서로 주제를 사용합니다.

이 도구는 연구를위한 독립적 인 워크 플로우 측면에서 나머지 도구와 차별화됩니다.

  • 다단계 조사 : 오픈 웹에서 수백 개의 소스를 탐색합니다.
  • 표지 읽기 : 텍스트, PDF, 이미지 및 기타 다양한 컨텐츠 형식을 통해
  • 구조화 된 합성 : 데이터는 일관되고 잘 조직 된 보고서로 변환됩니다.
  • 명확한 문서 : 모든 소스 문서가 완벽하게 인용됩니다.

벤치 마크 브레이크 성능

Deep Research의 기능은 마케팅 주장만이 아니라 연구의 우수성을 보여주는 인상적인 벤치 마크 성능으로 뒷받침됩니다.

  • 인류의 마지막 시험 : 26.6%정확도를 달성했으며 OpenAi의 O1 (9.1%), DeepSeek-R1 (9.4%) 및 Claude 3.5 Sonnet (4.3%)과 같은 이전 모델을 크게 성과 시켰습니다.
  • GAIA 벤치 마크 : 모든 난이도에 걸쳐 새로운 최첨단 기록을 설정했으며, 다중 단계 추론이 필요한 복잡한 레벨 3 작업에서 특히 강력한 성능

작업의 복잡성으로 확장하는 성능의 능력은 특히 흥미 롭습니다. OpenAI의 내부 평가에 따르면, 도구 통화 수에 따라 Deep Research의 정확도가 증가합니다. 따라서, 연구 경로는 최종 출력에서 ​​평행 한 더 높은 품질을 탐색했다.

연구 에이전트를 구현하십시오

기사의 자세한 안내서를 따라 깊은 연구 에이전트를 구축하십시오.
? 자신의 깊은 연구 에이전트를 구축하십시오

이 기사는 당신을 안내합니다.

  1. OpenAi 및 Tavily 검색 API 키 설정.
  2. 작업 자동화를위한 Langchain 및 Langgraph 구성.
  3. 연구를 수행하고 데이터를 요약하고 보고서를 생성하는 시스템을 구축합니다.

전통적인 LLM이 부족할 때?

표준 언어 모델은 텍스트를 생성하거나 질문에 답하거나 교육 데이터를 기반으로 코드를 작성하는 데 탁월합니다. 그러나 그들은 근본적으로 다음과 같이 어려움을 겪고 있습니다.

  • 교육 데이터를 넘어서 현재의 전문 지식에 액세스합니다
  • 여러 정보 소스를 체계적으로 탐색합니다
  • 출력에 대한 검증 가능한 인용을 제공합니다
  • 인간 연구자들을 압도 할 수있는 다 시간 연구 작업을 수행합니다

세심한 연구 보조원은 실제로 깊은 연구이며, 이것이 다양한 한계를 극복하는 방법입니다. 일반적인 챗봇처럼 행동하는 대신 컴파일을위한 연구 및 평가를 조사하는 데 도움이됩니다. 이것은 지식 근로자가 AI와 같은 것을 어떻게 사용할 수 있는지 근본적으로 변경합니다.

실제 응용 프로그램 장점

심각한 연구를 수행하는 전문가의 경우 Deep Research는 전통적인 LLM에 대한 뚜렷한 이점을 제공합니다.

  • 재무 전문가는 권위있는 출처에 대한 인용으로 포괄적 인 시장 분석을받을 수 있습니다.
  • 과학자들은 며칠이 아닌 몇 분 안에 수백 건의 간행물에 걸쳐 문학 검토를 수집 할 수 있습니다.
  • 법률 연구원은 적절한 인용으로 사례 전례 및 법정 참조를 컴파일 할 수 있습니다.
  • 고위장 구매 결정을 내리는 소비자는 상세하고 다중 인자 비교를받을 수 있습니다.

이 도구는 특히 1-3 시간의 인간 연구 시간이 필요한 시나리오에서 빛을 발합니다. 빠른 웹 검색에는 너무 복잡하지만 특수한 지식 소스가 필요하지는 않습니다.

AI 연구 조교의 미래

Deep Research는 자율적으로 연구에 중점을 둔 새로운 AI 도구의 첫 번째 AI 도구입니다. 그럼에도 불구하고 여전히 초기 단계에서는 매우 많이 변화하는 상황에 대한 가끔 오류와 혼란에 따라 AI가 간단한 텍스트 생성을 넘어 연구에서 진정한 파트너십으로 이동하는 것을 보여줍니다.

OpenAI가 개발을 계속하는 동안 계획중인 향후 개선은 다음과 같습니다.

  • 데이터에 대한 시각화 향상
  • 내장 된 이미지 지원
  • 개인 및 구독 기반 데이터 소스에 대한 액세스
  • 모바일 통합

Deep Research는 지식 근로자와 연구 전문가에게 기계가 미래에 정보의 수집 및 합성을 어떻게 변화시킬 것인지에 대한 몰래 미리보기를 제공하는 일종의 AI입니다.

6. 당혹감 ai

Perplexity AI는 Google, Bing 및 Chatgpt 브라우징 기능과 같은 재임 자들과 대면 할 수있는 잠재력으로 인해 AI 검색 도구의 치열한 경쟁 도메인의 최신 참가자입니다. 그러나 당황 스러움을 차별화하는 것은 실제 웹 서핑 기능만이 아닙니다. 대신, 그것은 검색 경험을 재창조하는 정보를 제공, 쇼핑 및 통합하는 메커니즘입니다.

검색 기술의 새로운 패러다임

추가 탐색이 필요한 하이퍼 링크 형태로 결과를 산출하는 기존의 검색 엔진과는 달리, 기본적으로 다른 접근법은 다음과 같습니다.

  • 직접 답변 : 사용자가 여러 웹 사이트를 탐구 할 필요없이 포괄적이고 소화 가능한 정보가 제공됩니다.
  • 풍부한 비디오 통합 : 검색에는 관련 이미지, 비디오 및 기타 미디어를 직접 포함 하여이 목적을 더욱 발전시킵니다.
  • 명확한 소스 속성 : 모든 정보에는 검증이 용이하게 명확한 인용이 제공됩니다.
  • 광고없는 경험 : 정보는 스폰서 컨텐츠 또는 광고의 혼란으로부터 무료로 제공됩니다.

따라서 연구는 다단계 프로세스에서 시간과인지 에너지의 투자 측면에서 엄청난 절약에 대한 유익한 경험으로 변형됩니다.

성능을 유도하는 주요 기능

빠른 검색 대 프로 검색

당혹감은 두 가지 독특한 검색 경험을 제공합니다.

빠른 검색은 간단한 쿼리에 대한 신속하고 간결한 답변을 제공합니다. 사실 확인 또는 기본 정보 요구 사항에 영향을 미칩니다.

프로 검색은 다음과 같이 검색 기술의 중요한 진화를 나타냅니다.

  • 대화식 발견에 사용자를 참여시킵니다
  • 검색 의도를 이해하기 위해 명확한 질문을합니다
  • 사용자 선호도를 기반으로 개인화되고 포괄적 인 결과를 제공합니다
  • 균형 잡힌 정보를 제공하기 위해 다양한 출처에서 나온 것입니다
  • 복잡한 주제를 소화 가능한 형식으로 요약합니다

설치 및 통합

웹 검색을 위해 Perplexity AI를 구현하려면 API를 사용해야합니다. 아래는 Python을 사용하여 웹 검색을위한 Perplexity AI를 설치하고 구현하는 방법에 대한 단계별 안내서입니다.

1 단계 : API 키를 얻습니다

  1. Perplexity에 등록 : Perplexity의 웹 사이트로 이동하여 계정을 등록하십시오.
  2. API 키 생성 : 등록 후 계정 설정으로 이동하여 API 키를 생성하십시오.

2 단계 : 필요한 패키지를 설치하십시오

HTTP 요청을 요청하고 API 키 관리를위한 선택적으로 Python-Dotenv가 필요합니다.

 ! PIP 설치 요청 Python-dotenv
로그인 후 복사

3 단계 : Perplexity AI 검색 구현

다음은 웹 검색에 Perplexity의 API를 사용하는 방법의 기본 예입니다.

 가져 오기 요청
OS 가져 오기
dotenv import load_dotenv에서
# 사용하는 경우 .env 파일에서 API 키를로드하십시오
load_dotenv ()

# API 키를 설정합니다
perplexity_api_key = os.getenv ( 'perplexity_api_key')
def perplexity_search (query) :
url = "https://api.perplexity.ai/chat/completions"
헤더 = {
'수락': 'Application/JSON',
'Content-Type': 'Application/JSON',
'인증': f'bearer {perplexity_api_key} '
}

데이터 = {
"모델": "Mistral-7B-instruct",
"스트림": 거짓,
"max_tokens": 1024,
"주파수 _penalty": 1,
"온도": 0.0,
"메시지": [
{
"역할": "시스템",
"콘텐츠": "간결한 답변을 제공하십시오."
},
{
"역할": "사용자",
"콘텐츠": 쿼리
}
]]
}
응답 = requests.post (URL, 헤더 = 헤더, json = data)
if response.status_code == 200 :
return response.json ()
또 다른:
반환 없음
# 예제 사용
query = "은하수에는 몇 개의 별이 있습니까?"
응답 = perplexity_search (query)
응답 인 경우 :
인쇄 (응답)
또 다른:
인쇄 ( "응답 검색 실패")
로그인 후 복사

Perplexity AI는 웹 검색을위한 다양한 모델을 제공하며 다양한 요구와 복잡성 수준을 제공합니다. 기본 모델은 속도 및 웹 브라우징에 최적화되어 빠르고 정확한 답변이 빠르고 빠른 검색에 적합합니다. 보다 고급 작업을 위해 Perplexity Pro 가입자는 GPT-4 Omni, Claude 3.5 Sonnet 및 기타 AI 회사와 같은 모델에 액세스 할 수 있습니다. 이러한 모델은 복잡한 추론, 창의적 작문 및 심층 분석에서 뛰어나서 미묘한 언어 이해 또는 고급 문제 해결이 필요한 작업에 이상적입니다. 또한 Perplexity Pro를 통해 사용자는 여러 소스에 액세스하여 심층적 인 인터넷 검색을 수행하여 폭과 깊이의 검색 결과를 향상시킬 수 있습니다. 이 다양한 모델을 통해 사용자는 간단한 쿼리 또는보다 복잡한 연구 작업이든 특정 요구 사항에 가장 적합한 것을 선택할 수 있습니다.

통합 기능

당황은 강력한 통합을 통해 독립형 검색을 넘어 확장됩니다.

  • Github Copilot 확장 : 개발자가 IDE를 떠나지 않고 최신 정보, 문서 및 업계 트렌드에 액세스 할 수 있도록합니다.
  • 파일 업로드 기능 : 사용자가 자신의 문서 내에서 검색하고 상황에 맞게 할 수 있도록합니다.
  • 공간 및 실 : 팀 환경을위한 협업 기능을 갖춘 연구 프로젝트를 구성합니다.

실제 응용 프로그램 강점

당혹감은 여러 주요 영역에서 특별한 우수성을 보여줍니다.

1. 정보 발견

Notre-Dame 대성당 복원과 같은 현재 이벤트를 검색 할 때 Perplexity는 주요 날짜, 중요한 세부 사항 및 멀티미디어 컨텐츠와 함께 포괄적 인 요약을 쉽게 소화 할 수있는 형식으로 제공합니다.

2. 전문 연구

비즈니스 및 전문 사용자의 경우 Perplexity는 다음과 같습니다.

  • 경쟁 분석
  • 시장 조사
  • 제품 비교
  • 기술 문서

3. 학문적 응용

학생과 연구원은 다음의 혜택을받습니다.

  • 다양한 출처에서 문헌 검토
  • 복잡한 주제에 대한 균형 잡힌 관점
  • 참조 검증을위한 명확한 인용

4. 실제 계획

당황의 접근 방식에 따라 일상적인 작업이 더욱 효율적입니다.

  • 포괄적 인 목적지 정보를 가진 여행 계획
  • 비교 분석을 통한 제품 연구
  • 레시피 발견 및 사용자 정의

다른 주요 도구와 어떻게 비교 되는가?

다른 최고 검색 및 AI 솔루션과 대조되는 경우 :

Google/Bing과 비교 :

  • 여러 검색 결과를 탐색 할 필요가 없습니다
  • 스폰서 컨텐츠 및 광고를 제거합니다
  • 링크가 아닌 직접 답변을 제공합니다
  • 멀티미디어 콘텐츠를보다 매끄럽게 통합합니다

대 chatgpt :

  • 실시간 검색으로 최신 정보를 제공합니다
  • 명확한 소스 인용을 제공합니다
  • 통합 미디어와보다 효과적으로 정보를 형식화합니다
  • 사실 쿼리에 대한 더 빠른 결과를 제공합니다

전원 사용자를위한 최적화 팁

당황의 기능을 극대화하려면 :

  1. 전략적 프롬프트 :
    • 집중된 결과를 위해 특정 키워드를 사용하십시오
    • 상황에 맞는 검색을 위해 관련 파일을 업로드하십시오
    • 복잡한 연구 요구에 대한 프로 검색을 활용하십시오
  2. 개인화 옵션 :
    • 언어 기본 설정, 출력 형식 및 톤을 조정하십시오
    • 관련성을 향상시키기 위해 프로필 정보를 업데이트합니다
    • 테마 공간에서의 연구를 조직합니다
  3. 협업 기능 :
    • 협업이 유리할 때 공개 스레드를 공유하십시오
    • 팀 연구 공간에 기고자를 초대하십시오
    • 프로젝트 요구에 따라 개인 정보 설정을 유연하게 조정하십시오

AI 기반 검색의 미래

당황은 검색 도구 이상입니다. 그것은 우리가 온라인으로 정보와 상호 작용하는 방식의 패러다임 변화를 예고합니다. Perplexity는 AI를 사용한 최고의 검색 측면을 연결하는 데 기초를 두었습니다. 기존 검색 엔진은 마치 지배적 인 것처럼 설계되고 제작되었습니다.

정보 발견을위한보다 효율적이고 완전하고 투명한 수단을 찾는 사용자의 경우, 당황 스러움은 검색의 미래를 엿볼 수 있습니다.

또한 읽기 :

  • 당황한 깊은 연구는 Openai & Gemini에 대한 깊은 연구를 취합니다
  • Perplexity AI Mobile Assistant - 우리 모두 필요한 마스터 AI 앱
  • Perplexity Sonar API : 신뢰할 수 있고 확장 가능하며 개발자 친화적입니다

결론

일반인 AI의 시대는 전문화 된 Sota LLM이 중심에 올 때 희미 해지고 있습니다. OpenAi의 Deep Research는 복잡한 인용이 지원되는 문의를 자동화하는 반면, Perplexity AI는 웹 검색을 풍부한 미디어 결과로 변환합니다. 이것들은 단순한 업그레이드가 아닙니다. 그들은 우리가 접근하고 지식을 적용하는 방법에 대한 패러다임 전환입니다.

성공은 단일 AI를 선택하는 데 달려 가지 않고 작업에 적합한 도구를 활용하는 데 달려 있습니다. 이러한 전문 시스템을 통합함으로써 지식 근로자는 전례없는 생산성, 더 깊은 통찰력 및 더 똑똑한 의사 결정을 달성 할 수 있습니다. 미래는 하나의 지배적 인 AI가 아니라 전문가 중심 모델의 생태계에 속합니다.

위 내용은 코드, 웹 검색, 연구 등을위한 상위 6 개 Sota LLMS -Analytics Vidhya의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿