130億パラメータ、8つのA100トレーニング、カリフォルニア大学バークレー校が対話モデルKoalaをリリース

PHPz
リリース: 2023-04-07 15:12:29
転載
1114 人が閲覧しました

Meta が LLaMA シリーズのモデルをリリースしてオープンソース化して以来、スタンフォード大学、カリフォルニア大学バークレー校などの研究者が LLaMA に基づいて「二次創作」を行い、Alpaca、Vicuna などを次々と発表してきました。 「アルパカ」の大型モデル。

Alpaca は、オープンソース コミュニティの新しいリーダーになりました。 「二次創作」の氾濫により、生物学上のアルパカ属を表す英語はほとんど使われなくなったが、大型モデルに他の動物の名前を付けることも可能である。

最近、カリフォルニア大学バークレー校のバークレー人工知能研究所 (BAIR) は、消費者グレードの GPU で実行できる会話モデル Koala (直訳すると「コアラ」) をリリースしました。 Koala は、Web から収集した会話データを使用して LLaMA モデルを微調整します。

130億パラメータ、8つのA100トレーニング、カリフォルニア大学バークレー校が対話モデルKoalaをリリース

プロジェクトのアドレス: https://bair.berkeley.edu/blog/2023/04/03/koala/

#Koala はオンライン テスト デモを開始しました:

130億パラメータ、8つのA100トレーニング、カリフォルニア大学バークレー校が対話モデルKoalaをリリース

  • #デモ アドレス: https ://chat.lmsys.org/?model=koala-13b
  • オープンソース アドレス: https://github.com/young-geng/EasyLM

Koala の概要

Vicuna と同様、Koala もネットワークから収集した会話データを使用して、次のことに重点を置いて LLaMA モデルを微調整します。 ChatGPT クローズドソースの大規模モデル対話の公開データ。

研究チームは、Koala モデルは JAX/Flax を使用して EasyLM に実装されており、Koala モデルは 8 つの A100 GPU を搭載した単一の Nvidia DGX サーバーでトレーニングされていると述べています。 2 エポックのトレーニングを完了するには 6 時間かかります。このようなトレーニングの費用は、パブリック クラウド コンピューティング プラットフォームでは通常 100 ドル未満です。

研究チームは、Koala と ChatGPT およびスタンフォード大学の Alpaca を実験的に比較しました。その結果、130 億のパラメーターを備えた Koala-13B が、さまざまなユーザーのクエリに効果的に応答し、応答を生成できることが一般的に優れていることがわかりました。 Alpaca のパフォーマンスは、半分以上のケースで ChatGPT のパフォーマンスに匹敵します。

Koala の最も重要な意義は、高品質のデータセットでトレーニングした場合、ローカルで実行できるほど小さなモデルでも大規模モデルと同様の優れたパフォーマンスを達成できることを示していることです。モデル 。これは、単に既存のシステムのサイズを増やすよりも、より安全で現実的で強力なモデルにつながる可能性があるため、オープンソース コミュニティは高品質のデータセットを厳選するためにより熱心に取り組む必要があることを意味します。この観点から見ると、Koala は小さいながらも ChatGPT の洗練された代替品です。

ただし、Koala は研究用のプロトタイプにすぎず、コンテンツ、セキュリティ、信頼性の点で依然として重大な欠陥があるため、研究以外の目的で使用しないでください。

データセットとトレーニング

会話モデルを構築する際の主なハードルは、トレーニング データの管理です。 ChatGPT、Bard、Bing Chat、Claude などの大規模な会話モデルはすべて、広範な人間による注釈を備えた独自のデータセットを使用します。 Koala のトレーニング データセットを構築するために、研究チームは、Web および公開データセットから会話データを収集して厳選しました。これらのデータセットには、ChatGPT などの大規模な言語モデルで話しているユーザーによって公開で共有されたデータが含まれています。

データ セットを最大化するためにできるだけ多くのネットワーク データをクロールする他のモデルとは異なり、Koala は、公開データ セットの質問と回答の部分を含む、小規模で高品質のデータ セットを収集することに重点を置いています。 、人間によるフィードバック (肯定的および否定的) および既存の言語モデルとの対話。具体的には、Koala のトレーニング データ セットには次の部分が含まれています:

ChatGPT 蒸留データ:

  • 一般公開chatGPT 会話データ (ShareGPT);
  • Human ChatGPT 比較コーパス (HC3)、HC3 データセットからの人間の応答と ChatGPT 応答の両方を使用します。

オープンソース データ:

  • オープン インストラクション ジェネラリスト (OIG);
  • スタンフォード アルパカ モデルで使用されるデータセット;
  • Anthropic HH ;
  • OpenAI WebGPT;
  • OpenAI の要約。

実験と評価

この研究では、Koala-All の生成と Koala-Distill、Alpaca、および ChatGPT を比較する手動評価を実施しました。結果は下の図に示されています。このうち、2 つの異なるデータ セットがテストに使用されます。1 つは 180 のテスト クエリを含むスタンフォードの Alpaca テスト セット (Alpaca Test Set)、もう 1 つは Koala Test Set です。

130億パラメータ、8つのA100トレーニング、カリフォルニア大学バークレー校が対話モデルKoalaをリリース

全体的に、Koala モデルは、LLM の多くの機能を実証するのに十分ですが、微調整を容易にしたり、コンピューティング リソースが不足している状況でも十分に小さいため、限定されておりますので、以下をご利用ください。研究チームは、Koala モデルが大規模言語モデルに関する将来の学術研究にとって有用なプラットフォームになることを期待しています。研究応用の方向性としては次のものが考えられます:

  • 安全性と調整: Koala により、言語モデルのセキュリティと人間の意図とのより良い調整に関するさらなる研究が可能になります。
  • モデル バイアス: Koala を使用すると、大規模な言語モデルのバイアスをより深く理解し、会話データセットの品質問題を掘り下げ、最終的には大規模な言語モデルのパフォーマンスの向上に役立ちます。
  • 大規模な言語モデルを理解する: Koala モデルは比較的安価な消費者向け GPU で実行でき、さまざまなタスクを実行できるため、Koala を使用すると、会話言語の内部構造をよりよく調べて理解できるようになります。このモデルにより、言語モデルがより解釈しやすくなります。

以上が130億パラメータ、8つのA100トレーニング、カリフォルニア大学バークレー校が対話モデルKoalaをリリースの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
最新の問題
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート