Meta が LLaMA シリーズのモデルをリリースしてオープンソース化して以来、スタンフォード大学、カリフォルニア大学バークレー校などの研究者が LLaMA に基づいて「二次創作」を行い、Alpaca、Vicuna などを次々と発表してきました。 「アルパカ」の大型モデル。
Alpaca は、オープンソース コミュニティの新しいリーダーになりました。 「二次創作」の氾濫により、生物学上のアルパカ属を表す英語はほとんど使われなくなったが、大型モデルに他の動物の名前を付けることも可能である。
最近、カリフォルニア大学バークレー校のバークレー人工知能研究所 (BAIR) は、消費者グレードの GPU で実行できる会話モデル Koala (直訳すると「コアラ」) をリリースしました。 Koala は、Web から収集した会話データを使用して LLaMA モデルを微調整します。
プロジェクトのアドレス: https://bair.berkeley.edu/blog/2023/04/03/koala/
#Koala はオンライン テスト デモを開始しました:
Vicuna と同様、Koala もネットワークから収集した会話データを使用して、次のことに重点を置いて LLaMA モデルを微調整します。 ChatGPT クローズドソースの大規模モデル対話の公開データ。
研究チームは、Koala モデルは JAX/Flax を使用して EasyLM に実装されており、Koala モデルは 8 つの A100 GPU を搭載した単一の Nvidia DGX サーバーでトレーニングされていると述べています。 2 エポックのトレーニングを完了するには 6 時間かかります。このようなトレーニングの費用は、パブリック クラウド コンピューティング プラットフォームでは通常 100 ドル未満です。
研究チームは、Koala と ChatGPT およびスタンフォード大学の Alpaca を実験的に比較しました。その結果、130 億のパラメーターを備えた Koala-13B が、さまざまなユーザーのクエリに効果的に応答し、応答を生成できることが一般的に優れていることがわかりました。 Alpaca のパフォーマンスは、半分以上のケースで ChatGPT のパフォーマンスに匹敵します。
Koala の最も重要な意義は、高品質のデータセットでトレーニングした場合、ローカルで実行できるほど小さなモデルでも大規模モデルと同様の優れたパフォーマンスを達成できることを示していることです。モデル 。これは、単に既存のシステムのサイズを増やすよりも、より安全で現実的で強力なモデルにつながる可能性があるため、オープンソース コミュニティは高品質のデータセットを厳選するためにより熱心に取り組む必要があることを意味します。この観点から見ると、Koala は小さいながらも ChatGPT の洗練された代替品です。
ただし、Koala は研究用のプロトタイプにすぎず、コンテンツ、セキュリティ、信頼性の点で依然として重大な欠陥があるため、研究以外の目的で使用しないでください。
会話モデルを構築する際の主なハードルは、トレーニング データの管理です。 ChatGPT、Bard、Bing Chat、Claude などの大規模な会話モデルはすべて、広範な人間による注釈を備えた独自のデータセットを使用します。 Koala のトレーニング データセットを構築するために、研究チームは、Web および公開データセットから会話データを収集して厳選しました。これらのデータセットには、ChatGPT などの大規模な言語モデルで話しているユーザーによって公開で共有されたデータが含まれています。
データ セットを最大化するためにできるだけ多くのネットワーク データをクロールする他のモデルとは異なり、Koala は、公開データ セットの質問と回答の部分を含む、小規模で高品質のデータ セットを収集することに重点を置いています。 、人間によるフィードバック (肯定的および否定的) および既存の言語モデルとの対話。具体的には、Koala のトレーニング データ セットには次の部分が含まれています:
ChatGPT 蒸留データ:
オープンソース データ:
この研究では、Koala-All の生成と Koala-Distill、Alpaca、および ChatGPT を比較する手動評価を実施しました。結果は下の図に示されています。このうち、2 つの異なるデータ セットがテストに使用されます。1 つは 180 のテスト クエリを含むスタンフォードの Alpaca テスト セット (Alpaca Test Set)、もう 1 つは Koala Test Set です。
全体的に、Koala モデルは、LLM の多くの機能を実証するのに十分ですが、微調整を容易にしたり、コンピューティング リソースが不足している状況でも十分に小さいため、限定されておりますので、以下をご利用ください。研究チームは、Koala モデルが大規模言語モデルに関する将来の学術研究にとって有用なプラットフォームになることを期待しています。研究応用の方向性としては次のものが考えられます:
以上が130億パラメータ、8つのA100トレーニング、カリフォルニア大学バークレー校が対話モデルKoalaをリリースの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。