新しくリリースされた Llama 3 を体験する 6 つの簡単な方法!

王林
リリース: 2024-04-19 12:16:01
転載
590 人が閲覧しました

六年种方式快速体验最新发布的 Llama 3!

昨夜、Meta は Llama 3 8B および 70B モデルをリリースしました。Llama 3 コマンド調整モデルは、対話/チャットのユースケース向けに微調整され、最適化されており、一般的なモデルよりも優れています。多くの既存のオープンソース チャット モデル。たとえば、ジェマ 7B やミストラル 7B などです。

六年种方式快速体验最新发布的 Llama 3!

六年种方式快速体验最新发布的 Llama 3!

Llama 3 モデルは、データとスケールを新たな高みに改善します。これは、Meta によって最近リリースされた 2 つのカスタム 24K GPU クラスター上の 15T トークンを超えるデータでトレーニングされました。このトレーニング データセットは Llama 2 より 7 倍大きく、4 倍多くのコードが含まれています。これにより、Llama モデルの機能が現在の最高レベルになり、Llama 2 の 2 倍である 8K を超えるテキスト長がサポートされます。

以下では、リリースされたばかりの Llama 3 をすぐに体験できる 6 つの方法を紹介します。

Llama 3 をオンラインで体験

ハグチャット

六年种方式快速体验最新发布的 Llama 3!

https://www.php.cn/link/217ffec3caf17a44bf340fc11d93e8ab

llama2.ai

六年种方式快速体验最新发布的 Llama 3!

##https://www.llama2.ai/

現地体験ラマ 3

LM Studio

六年种方式快速体验最新发布的 Llama 3!

#https://lmstudio.ai/

CodeGPT

六年种方式快速体验最新发布的 Llama 3!##https://marketplace.visualstudio.com/items?itemName=DanielSanMedium.dscodegpt&ssr=false

CodeGPT を使用する前に、必ず Ollama を使用して対応するモデルをプルしてください。たとえば、llama3:8b モデルをプルするには、ollama pull llama3:8b とします。 ollam をローカルにインストールしていない場合は、この記事「ローカルの大規模言語モデルをわずか数分でデプロイする!」を参照してください。

Ollama

Llama 3 8B モデルの実行:

ollama run llama3
ログイン後にコピー

Llama 3 70B モデルの実行:
ollama run llama3:70b
ログイン後にコピー

WebUI と Ollama を開く

##https://pinokio.computer/item?uri=https:/ / github.com/cocktailpeanutlabs/open-webui。 六年种方式快速体验最新发布的 Llama 3!

以上が新しくリリースされた Llama 3 を体験する 6 つの簡単な方法!の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
最新の問題
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート