昨夜、Meta は Llama 3 8B および 70B モデルをリリースしました。Llama 3 コマンド調整モデルは、対話/チャットのユースケース向けに微調整され、最適化されており、一般的なモデルよりも優れています。多くの既存のオープンソース チャット モデル。たとえば、ジェマ 7B やミストラル 7B などです。
Llama 3 モデルは、データとスケールを新たな高みに改善します。これは、Meta によって最近リリースされた 2 つのカスタム 24K GPU クラスター上の 15T トークンを超えるデータでトレーニングされました。このトレーニング データセットは Llama 2 より 7 倍大きく、4 倍多くのコードが含まれています。これにより、Llama モデルの機能が現在の最高レベルになり、Llama 2 の 2 倍である 8K を超えるテキスト長がサポートされます。
以下では、リリースされたばかりの Llama 3 をすぐに体験できる 6 つの方法を紹介します。
##https://www.llama2.ai/
CodeGPT
##https://marketplace.visualstudio.com/items?itemName=DanielSanMedium.dscodegpt&ssr=false
CodeGPT を使用する前に、必ず Ollama を使用して対応するモデルをプルしてください。たとえば、llama3:8b モデルをプルするには、ollama pull llama3:8b とします。 ollam をローカルにインストールしていない場合は、この記事「ローカルの大規模言語モデルをわずか数分でデプロイする!」を参照してください。
Ollama
ollama run llama3
ollama run llama3:70b
##https://pinokio.computer/item?uri=https:/ / github.com/cocktailpeanutlabs/open-webui。
以上が新しくリリースされた Llama 3 を体験する 6 つの簡単な方法!の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。