ホームページ > バックエンド開発 > PHPチュートリアル > ステップバイステップ ガイド: Ollama を使用した LLM モデルの実行

ステップバイステップ ガイド: Ollama を使用した LLM モデルの実行

Linda Hamilton
リリース: 2024-12-29 22:37:10
オリジナル
568 人が閲覧しました

こんにちは、職人さん、

今日のブログ投稿では、Ollama とその主な機能、および Ollama をさまざまな OS にインストールする方法について学びます。

オラマとは何ですか?

  • Ollama は、ローカル マシン上で大規模言語モデル (LLM) を実行できるオープンソース ツールです。 LLM モデルの膨大なコレクションがあります。データのプライバシーとセキュリティが保証されるため、データの機密性を優先する AI 開発者、研究者、ビジネス オーナーの間でより一般的な選択肢となっています。
  • Ollama はデータの完全な所有権を提供し、潜在的なリスクを回避します。
  • Ollama は、遅延と外部サーバーへの依存を軽減し、より高速で信頼性の高いオフライン ツールです。

オラマの特徴:

1. AI モデルの管理: システムからのモデルのダウンロード、実行、削除を完全に制御できるため、システム上のすべてのモデルを簡単に管理できます。また、マシンにインストールされている各モデルのバージョンも維持されます。

2.コマンド ライン インターフェイス (CLI): CLI を使用して、LLM モデルをローカルに取得、実行、管理します。より視覚的なエクスペリエンスを好むユーザーのために、Open WebUI などのサードパーティのグラフィカル ユーザー インターフェイス (GUI) ツールもサポートしています。

3.マルチプラットフォームのサポート: Ollama は、Windows、Linux、MacOS を含むクロスプラットフォーム互換性を提供し、使用しているオペレーティング システムに関係なく、既存のワークフローに簡単に統合できます。

複数のプラットフォームで Ollama を使用する方法

このセクションでは、Ollama をクロスプラットフォームでローカルにダウンロード、インストール、実行する方法を説明します。

  • Ollma をダウンロードするには、こちらの公式 Web サイトにアクセスし、お好みのオペレーティング システムに従ってダウンロードしてください。
  • MacOS のインストール プロセスは Windows と似ており、Linux の場合はコマンドを実行して Ollama をシステムにインストールする必要があります。

Windows のインストール プロセスについて説明します。macOS の場合も同様に実行できます。

  • お好みの OS のダウンロード ボタンをクリックして、実行可能ファイルをダウンロードします。次に、ファイルを開いてインストール プロセスを開始します。

Step-by-Step Guide: Running LLM Models with Ollama

  • Linux にインストールするには、ターミナルを開き、次のコマンドを実行してマシンに Ollama をインストールします。
curl -fsSL https://ollama.com/install.sh | sh
ログイン後にコピー
ログイン後にコピー

はい、Ollama が正常にインストールされました。システムのトレイに表示され、実行中であることが示されます

  • 次に、コマンド ライン インターフェイス (CLI) を使用して、Ollama が提供するさまざまなモデルの使用方法とダウンロード方法を見ていきます。

  • 端末を開き、次の手順に従います。 Ollama が提供する LLM モデルのリストは次のとおりです。

  1. ollam: このコマンドは、使用可能なすべてのコマンドをリストします。
  2. ollama -v または --version: バージョンを表示します
  3. ollam list: システムにインストールされているすべてのモデルをリストします

Step-by-Step Guide: Running LLM Models with Ollama

次に、Ollama を使用してモデルをインストールする方法を見ていきます

LLM モデルは 2 つの方法でインストールできます:

  1. オラマ プル モデル名
  2. ollam a run model_name - モデルがまだシステムにダウンロードされていない場合、最初にモデルをプルしてから実行します

gemma2 モデルをシステムにインストールします
gemma2: Google Gemma 2 は、2B、9B、27B の 3 つのサイズで利用できる高性能かつ効率的なモデルです。

curl -fsSL https://ollama.com/install.sh | sh
ログイン後にコピー
ログイン後にコピー

以下のようなメッセージを書くプロンプトが開きます:

ollama run gemma2
ログイン後にコピー
  • ここにプロンプ​​トを記述し、応答を返す必要があります。
  • モデルを終了するには、/bye と書かなければなりません

Step-by-Step Guide: Running LLM Models with Ollama

Ollama が提供するモデルをこれらで使用できるようになりました。モデルを調べて、必要に応じて使用してみてください。

結論:
クラウド サーバーに依存する他のツールとは異なり、LLM モデルをローカルで実行できるオープン ソース ツールである Ollama について調べてきました。 Ollama はデータのセキュリティとプライバシーを保証し、ローカル マシン上で Ollama を実行して使用する方法を学びました。これは、LLM モデルをシステム上で直接、簡単に実行するためのシンプルで簡単な方法を提供します。

ぜひ読んでください!
コーディングを楽しんでください!

? ❤️

以上がステップバイステップ ガイド: Ollama を使用した LLM モデルの実行の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ソース:dev.to
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
著者別の最新記事
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート