ホームページ > テクノロジー周辺機器 > AI > Llama 3をローカルに実行する方法:完全なガイド

Llama 3をローカルに実行する方法:完全なガイド

Joseph Gordon-Levitt
リリース: 2025-03-06 11:05:11
オリジナル
238 人が閲覧しました

Llama 3のような大きな言語モデル(LLM)を実行することは、AIランドスケープで重要な利点を局所的に提供します。 顔やその他のプラットフォームが地元の展開を擁護し、プライベートおよび途切れないモデルアクセスを可能にします。このガイドでは、ローカルLLM実行の利点を調査し、GPT4AllとOllamaでの使用、モデルサービング、VSCODE統合、最後にカスタムAIアプリケーションの構築を実証します。

なぜローカルllama 3展開?

​​ 高RAM、GPU、および処理能力を要求している間、進歩によりローカルラマ3の実行がますます実行可能になります。主な利点は次のとおりです

途切れないアクセス:
    レートの制限とサービスの中断を避けてください。
  • パフォーマンスの向上:
  • レイテンシを最小限に抑えて、より速い応答生成を体験します。 ミッドレンジのラップトップでさえ、毎秒約50トークンの速度を達成します。
  • セキュリティの強化:入力とデータの完全な制御を維持し、すべてをローカルに保ちます。
  • コスト削減: API料金とサブスクリプションを排除します。
  • カスタマイズと柔軟性:ハイパーパラメーターでモデルを微調整し、トークンを停止し、高度な設定。
  • オフライン機能:
  • インターネットに接続せずにモデルを使用します。
  • 所有権と制御:
  • モデル、データ、および出力の完全な所有権を保持します。 クラウドとローカルLLMの使用に深く潜ることについては、記事「クラウドvs.ローカルLLMの展開:長所と短所の重量」を参照してください。 GPT4ALLとOLLAMA GPT4Allは、GPUがなくても、LLMSをローカルに実行するためのオープンソースツールです。 そのユーザーフレンドリーなインターフェイスは、技術的なユーザーと非技術的なユーザーの両方に対応しています。
  • gpt4allをダウンロードしてインストールします(公式ダウンロードページでWindows Instructionsが使用できます)。 アプリケーションを起動し、「ダウンロード」セクションに移動し、「llama 3 instruct」を選択し、ダウンロードします。ダウンロード後、「モデルを選択」メニューから「llama 3 instruce」を選択します。 プロンプトを入力し、モデルと対話します。 GPUアクセラレーション(利用可能な場合)は、応答を大幅に高速化します
ollamaはより簡単なアプローチを提供します。 Ollamaをダウンロードしてインストールします。 ターミナル/PowerShellを開き、実行:

(注:モデルのダウンロードとチャットボットの初期化には数分かかる場合があります。) 端末を介してチャットボットと対話します。 タイプ

「LLMをローカルに実行する7つの簡単な方法」ガイドで追加のツールとフレームワークを探索します。

How to Run Llama 3 Locally: A Complete Guide ローカルラマ3サーバーとAPIアクセスローカルサーバーは、他のアプリケーションへのllama 3統合を有効にします。 サーバーを起動してください:

ollama run llama3
ログイン後にコピー

Ollama System Trayアイコンを介してサーバーのステータスを確認します(右クリックしてログを表示)。

How to Run Llama 3 Locally: A Complete Guide

curl:

を使用してAPIにアクセスします

ollama serve
ログイン後にコピー
(CurlはLinuxのネイティブですが、Windows Powershellでも動作します。)

How to Run Llama 3 Locally: A Complete Guide

または、Ollama Pythonパッケージを使用してください:

curl http://localhost:11434/api/chat -d '{
  "model": "llama3",
  "messages": [
    { "role": "user", "content": "What are God Particles?" }
  ],
  "stream": false
}'
ログイン後にコピー

How to Run Llama 3 Locally: A Complete Guide

パッケージは、効率を向上させるために非同期コールとストリーミングをサポートしています。

llama 3をvscodeに統合して、オートコンプリートやコード提案などの機能を備えています。 Ollama Server()を開始します

"codegpt" vscode拡張子をインストールします。

codegptを構成し、プロバイダーとしてOllamaを選択し、モデルとして「llama3:8b」を選択します(APIキーは必要ありません)。
    Pythonファイル内でコードを生成および改良するためにcodeGPTのプロンプトを使用してください。
  1. ollama serve
  2. 高度な構成については、「Pythonのvscodeのセットアップ」を参照してください
  3. ローカルAIアプリケーションの開発
  4. このセクションの詳細DOCXファイルを処理し、埋め込みを生成し、類似性検索にベクターストアを使用し、ユーザークエリへのコンテキスト回答を提供するAIアプリケーションの作成。

(詳細なコードの例と説明は簡潔に省略されていますが、元の入力で利用できます。)How to Run Llama 3 Locally: A Complete Guide プロセスには以下が含まれます。

必要なPythonパッケージを設定します。

テキストを管理可能なチャンクに分割します。 オラマのラマ3で埋め込みを生成し、クロマベクターストアに保管します。

質問に答えるためのラングチェーンチェーンの構築、ベクターストア、ラグプロンプト、およびOllama LLMの組み込み

システムを照会するためのインタラクティブ端末アプリケーションを作成します

このアプリケーションの完全なコードは、GitHub(元の入力で提供されるリンク)で利用できます。
  1. 結論
  2. ランニングLlama 3は、ユーザーにプライバシー、費用対効果、および制御をローカルに支援します。 このガイドは、クラウドサービスに依存せずに洗練されたAIアプリケーションを構築するためのオープンソースツールとフレームワークの力を示しています。 提供された例は、一般的な開発環境との統合の容易さと、カスタムAIソリューションを作成する可能性を示しています。

以上がLlama 3をローカルに実行する方法:完全なガイドの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
著者別の最新記事
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート