> 기술 주변기기 > 일체 포함 > Llama 3을 로컬로 운영하는 방법 : 완전한 가이드

Llama 3을 로컬로 운영하는 방법 : 완전한 가이드

Joseph Gordon-Levitt
풀어 주다: 2025-03-06 11:05:11
원래의
242명이 탐색했습니다.
왜 로컬 llama 3 배포? 높은 RAM, GPU 및 처리 전력을 요구하는 동안 발전으로 인해 LLAMA 3 실행이 점점 더 실현 가능합니다. 주요 혜택은 다음과 같습니다

중단되지 않은 액세스 : 요금 제한 및 서비스 중단을 피하십시오

개선 된 성능 :

최소한의 대기 시간으로 더 빠른 응답 생성을 경험하십시오. 미드 레인지 노트북조차도 초당 약 50 개의 토큰 속도를 달성합니다.

    강화 된 보안 :
  • 입력 및 데이터를 완전히 제어하여 모든 것을 로컬로 유지합니다. 비용 절감 : API 수수료 및 구독 제거 사용자 정의 및 유연성 : 하이퍼 파라미터, 토큰 및 고급 설정이있는 미세 조정 모델. 오프라인 기능 :
  • 인터넷 연결없이 모델을 사용하십시오 소유권 및 제어 :
  • 모델, 데이터 및 출력의 완전한 소유권을 유지합니다. 클라우드와 로컬 LLM 사용에 대한 더 깊이 다이빙하려면 "Cloud vs. Local LLM Deployment : 장단점 무게"를 참조하십시오. llama 3 gpt4all 및 ollama gpt4all은 GPU가 없어도 LLMS를 로컬로 실행하기위한 오픈 소스 도구입니다. 사용자 친화적 인 인터페이스는 기술 및 비 기술적 인 사용자 모두에게 제공됩니다. GPT4ALL을 다운로드하여 설치하십시오 (공식 다운로드 페이지에서 Windows 지침을 사용할 수 있음). 응용 프로그램을 시작하고 "다운로드"섹션으로 이동하고 "Llama 3 orruct"를 선택하고 다운로드하십시오. 다운로드 후 "모델 선택"메뉴에서 "llama 3 instruct"를 선택하십시오. 프롬프트를 입력하고 모델과 상호 작용하십시오. GPU 가속도 (사용 가능한 경우)는 응답 속도를 크게 높입니다
  • Ollama는 더 간단한 접근 방식을 제공합니다. Ollama를 다운로드하여 설치하십시오. 터미널/PowerShell을 열고 실행 : (참고 : 모델 다운로드 및 챗봇 초기화는 몇 분이 걸릴 수 있습니다.) 터미널을 통해 챗봇과 상호 작용하십시오. 종료하려면 를 입력하십시오
  • "LLM을 로컬로 실행하기위한 7 가지 간단한 방법"가이드에서 추가 도구 및 프레임 워크를 탐색하십시오. 로컬 LLAMA 3 서버 및 API 액세스 로컬 서버를 사용하면 LLAMA 3을 다른 응용 프로그램에 통합 할 수 있습니다. 다음과 같이 서버를 시작하십시오

    Ollama 시스템 트레이 아이콘을 통해 서버 상태를 확인하십시오 (로그를 보려면 마우스 오른쪽 버튼).

    ollama run llama3
    로그인 후 복사
    컬을 사용하여 API에 액세스하십시오

    (Curl은 Linux에서 고유하지만 Windows PowerShell에서도 작동합니다.)

    또는 Ollama Python 패키지를 사용하십시오 : How to Run Llama 3 Locally: A Complete Guide

    패키지는 비동기 호출을 지원하고 효율성 향상을 위해 스트리밍을 지원합니다. vscode codegpt 와 통합 autocompletion 및 코드 제안과 같은 기능을 위해 llama 3을 VScode에 통합하십시오.

    Ollama 서버 ()를 시작하십시오 "CodeGpt"vscode 확장자를 설치하십시오 <code> CodeGpt를 구성하고 Ollama를 제공자로 선택하고 "llama3 : 8b"를 모델로 선택하십시오 (API 키 없음). <pt> CodeGpt의 프롬프트를 사용하여 Python 파일 내에서 코드를 생성하고 개선합니다. <div class="code" style="position:relative; padding:0px; margin:0px;"><pre class="brush:php;toolbar:false">ollama serve</pre><div class="contentsignin">로그인 후 복사</div></div> <p> </p> <up> 고급 구성에 대한 "파이썬의 VSCODE 설정"을 참조하십시오 <p> 로컬 AI 애플리케이션 개발 <img src="/static/imghw/default1.png" data-src="https://img.php.cn/upload/article/000/000/000/174123031864273.jpg" class="lazy" alt="How to Run Llama 3 Locally: A Complete Guide "> </p> <creating creating>이 ​​섹션 세부 사항 DOCX 파일을 처리하고, 임베딩을 생성하고, 유사성 검색을 위해 벡터 저장소를 사용하고, 사용자 쿼리에 대한 문맥 상 답변을 제공하는 AI 응용 프로그램을 작성합니다. <p>. (자세한 코드 예제 및 설명은 간결성에 대해 생략되지만 원래 입력에서 사용할 수 있습니다.) </p> 프로세스는 다음과 같습니다. <div class="code" style="position:relative; padding:0px; margin:0px;"><pre class="brush:php;toolbar:false">curl http://localhost:11434/api/chat -d '{ &quot;model&quot;: &quot;llama3&quot;, &quot;messages&quot;: [ { &quot;role&quot;: &quot;user&quot;, &quot;content&quot;: &quot;What are God Particles?&quot; } ], &quot;stream&quot;: false }'</pre><div class="contentsignin">로그인 후 복사</div></div> <p> 필요한 파이썬 패키지 설정. <x> <into> 텍스트를 관리 가능한 청크로 분할 <ed> Ollama 's llama 3으로 임베딩을 생성하고 Chroma 벡터 저장소에 보관하십시오. <ang> 질문 응답을위한 랑 체인 체인 구축, 벡터 저장소, 헝겊 프롬프트 및 Ollama Llm. <act> 시스템 쿼리를위한 대화식 터미널 응용 프로그램 작성 <p> <img src="/static/imghw/default1.png" data-src="https://img.php.cn/upload/article/000/000/000/174123032088460.jpg" class="lazy" alt="How to Run Llama 3 Locally: A Complete Guide "> </p> 이 응용 프로그램의 전체 코드는 GitHub (원래 입력으로 제공되는 링크)에서 사용할 수 있습니다. 결론 <p> </p> <llama llama ai></llama></act></ang></ed></into></x></p></creating></up></pt>

위 내용은 Llama 3을 로컬로 운영하는 방법 : 완전한 가이드의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
저자별 최신 기사
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿