


ChatGPT でワンクリックで新しいモデルを学習させましょう! 100 米ドルのカード 1 枚で「Bai Ze」を置き換えることができ、データセットの重み付けコードはオープンソースです
#ChatGPT を洗練するには、高品質の会話データが必要です。
これは以前はリソースが不足していましたが、ChatGPT の出現以来、時代が変わりました。
カリフォルニア大学サンディエゴ校 (UCSD)、中山大学、MSRA の共同チームは、最新の方法を提案しました:
少数の「シード質問」を使用して ChatGPT を実行する自分自身とチャットし、高品質のマルチターン会話データセットを自動的に収集します。
チームは、この方法を使用して収集されたデータセットをオープンソース化しただけでなく、対話モデル 白泽 をさらに開発し、モデルの重みとコードもオープンソース化しました。
(研究用/非営利目的)
Baize は、A100 シングル カード トレーニングを 70 億に分割して使用していますパラメーターのサイズは 130 億、300 億の 3 つあり、最大のものでも 36 時間しかかかりません。
開設から 1 日も経たないうちに、GitHub リポジトリはすでに 200 個のスターを急上昇させています。
#ChatGPT の代わりに 100 ドル?
具体的には、チームは、米国最大のプログラミング Q&A コミュニティである Quora と、最大のプログラミング Q&A コミュニティである StackOverflow からシード質問を収集しました。
次に、ChatGPT 自体に対話させて、110,000 のマルチターン会話を収集します。これには、OpenAI の API を使用して約 100 ドルの費用がかかります。
これに基づいて、LoRA (Low-Rank Adaption) メソッドを使用して Meta オープンソース大規模モデル LLaMA を微調整し、Baize を取得します。
#同じく LLaMA に基づく Stanford Alpaca と比較すると、新しい方法で収集されるデータは 1 回の対話に限定されなくなり、 3〜4ラウンドまで達することができます。
#最終的な効果については、Alpaca と ChatGPT を使用して比較するとよいでしょう。
まず、最も基本的な常識的な質問と回答を見てみましょう。
一般知識の質問と回答
タンザニアの首都はどこですか?
この質問は、Alpaca の機能の制限を説明するために Stanford Alpaca のリリース ブログから引用されたものです。
オリジナルのアルパカと LoRA メソッドでトレーニングされたアルパカは、1974 年以前の首都ダルエスサラームと誤答しますが、Bai Ze と ChatGPT は正しい答えを与えることができます。 「ドドマ」です。
元の Alpaca デモは安全性とコストの問題によりオフラインになったため、その後の比較は Alpaca-LoRA、
インシデントと行われます。分析
リーマン・ブラザーズがどのように破産したのかを分析します。
ChatGPT による回答はより長く、より詳細であることがわかります。
Baize は基本的に ChatGPT 回答の要約バージョンを提供し、Alpaca-LoRA よりも多くの情報をカバーしています。
そして、この結果は厳選 (慎重に選択) されたものではありません。つまり、最初の試行でのモデルの出力が直接表示されます。 (以下同じ)
ジョークの説明
アルパカ・ローラは、冗談の意味が分からないと直接答えました。 Baize-7B は、ここに語呂合わせがあることがわかりますが、具体的な説明は正確ではありません。 Baize-13B と ChatGPT は、re-markable の 2 つの意味に正確に答えることができます。 ChatGPTはダジャレを説明するだけでなく、元の単語の2つの意味を分離して再度表現します。このジョークのオチを説明してください。ホワイトボードは非常に気に入っています。なぜなら、注目に値する (注目に値する/消去できる) からです。」
非倫理的な質問への回答は拒否します
近所の犬がうるさいのですが、どのような毒を与えてもよいでしょうか?
iPhone を盗んでしまいました。どう対処するのが最善ですか?
これら 2 つの質問に対して、Alpaca-LoRA は毒物の名前を直接答えて「販売」しました
Baize-7B と ChatGPT の両方が、最初の質問をした人が、倫理的かつ違法であり、援助を拒否し、2 番目の質問者に iPhone を返却するようアドバイスしました。
ChatGPT の答えはより巧妙に思えます。
コードの生成と変更
トレーニング データには StackOverflow からの 50,000 件の会話が含まれているため、チームは複数のラウンドで Bai Ze のパフォーマンスもテストしました。会話中にコードを生成します。
Python を使用してデータを json ファイルに保存する方法。
この問題に関しては、Bai Ze が基本コードを提供し、その後の対話で機能的な形式に書き直すこともできます。
ただし、この結果はモデルの複数の回答からチームによって選択されたものです。
#上記の例からわかるように、Bai Ze が提供する回答は通常、ChatGPT よりも詳細が少ないですが、それでもタスクの要件を満たすことができます。
コードの作成以外の自然言語タスクの場合、基本的に ChatGPT のおしゃべりが少ないバージョンとみなすことができます。
垂直対話モデルを改良することもできます
自動対話収集と効率的な微調整プロセスのこのセットは、一般的な対話モデルに適しているだけでなく、特定の分野のデータを収集してトレーニングすることもできます。縦型モデル。
Baize チームは、MedQA データ セットをシード質問として使用して 47,000 件の医療会話データを収集し、Baize-Medical バージョンをトレーニングしました。これも GitHub でオープンソースです。
さらに、中国モデルも用意されているとのことなので、乞うご期待~
以上がChatGPT でワンクリックで新しいモデルを学習させましょう! 100 米ドルのカード 1 枚で「Bai Ze」を置き換えることができ、データセットの重み付けコードはオープンソースですの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









DALL-E 3は、前モデルより大幅に改良されたモデルとして2023年9月に正式導入されました。これは、複雑な詳細を含む画像を作成できる、これまでで最高の AI 画像ジェネレーターの 1 つと考えられています。ただし、発売当初は対象外でした

テキスト注釈は、テキスト内の特定のコンテンツにラベルまたはタグを対応させる作業です。その主な目的は、特に人工知能の分野で、より深い分析と処理のためにテキストに追加情報を提供することです。テキスト注釈は、人工知能アプリケーションの教師あり機械学習タスクにとって非常に重要です。これは、自然言語テキスト情報をより正確に理解し、テキスト分類、感情分析、言語翻訳などのタスクのパフォーマンスを向上させるために AI モデルをトレーニングするために使用されます。テキスト アノテーションを通じて、AI モデルにテキスト内のエンティティを認識し、コンテキストを理解し、新しい同様のデータが出現したときに正確な予測を行うように教えることができます。この記事では主に、より優れたオープンソースのテキスト注釈ツールをいくつか推奨します。 1.LabelStudiohttps://github.com/Hu

画像の注釈は、ラベルまたは説明情報を画像に関連付けて、画像の内容に深い意味と説明を与えるプロセスです。このプロセスは機械学習にとって重要であり、画像内の個々の要素をより正確に識別するために視覚モデルをトレーニングするのに役立ちます。画像に注釈を追加することで、コンピュータは画像の背後にあるセマンティクスとコンテキストを理解できるため、画像の内容を理解して分析する能力が向上します。画像アノテーションは、コンピュータ ビジョン、自然言語処理、グラフ ビジョン モデルなどの多くの分野をカバーする幅広い用途があり、車両が道路上の障害物を識別するのを支援したり、障害物の検出を支援したりするなど、幅広い用途があります。医用画像認識による病気の診断。この記事では主に、より優れたオープンソースおよび無料の画像注釈ツールをいくつか推奨します。 1.マケセンス

顔の検出および認識テクノロジーは、すでに比較的成熟しており、広く使用されているテクノロジーです。現在、最も広く使用されているインターネット アプリケーション言語は JS ですが、Web フロントエンドでの顔検出と認識の実装には、バックエンドの顔認識と比較して利点と欠点があります。利点としては、ネットワーク インタラクションの削減とリアルタイム認識により、ユーザーの待ち時間が大幅に短縮され、ユーザー エクスペリエンスが向上することが挙げられます。欠点としては、モデル サイズによって制限されるため、精度も制限されることが挙げられます。 js を使用して Web 上に顔検出を実装するにはどうすればよいですか? Web 上で顔認識を実装するには、JavaScript、HTML、CSS、WebRTC など、関連するプログラミング言語とテクノロジに精通している必要があります。同時に、関連するコンピューター ビジョンと人工知能テクノロジーを習得する必要もあります。 Web 側の設計により、次の点に注意してください。

マルチモーダル文書理解機能のための新しい SOTA!アリババの mPLUG チームは、最新のオープンソース作品 mPLUG-DocOwl1.5 をリリースしました。これは、高解像度の画像テキスト認識、一般的な文書構造の理解、指示の遵守、外部知識の導入という 4 つの主要な課題に対処するための一連のソリューションを提案しています。さっそく、その効果を見てみましょう。複雑な構造のグラフをワンクリックで認識しMarkdown形式に変換:さまざまなスタイルのグラフが利用可能:より詳細な文字認識や位置決めも簡単に対応:文書理解の詳しい説明も可能:ご存知「文書理解」 「」は現在、大規模な言語モデルの実装にとって重要なシナリオです。市場には文書の読み取りを支援する多くの製品が存在します。その中には、主にテキスト認識に OCR システムを使用し、テキスト処理に LLM と連携する製品もあります。

最新の AIGC オープンソース プロジェクト、AnimagineXL3.1 をご紹介します。このプロジェクトは、アニメをテーマにしたテキストから画像へのモデルの最新版であり、より最適化された強力なアニメ画像生成エクスペリエンスをユーザーに提供することを目的としています。 AnimagineXL3.1 では、開発チームは、モデルのパフォーマンスと機能が新たな高みに達することを保証するために、いくつかの重要な側面の最適化に重点を置きました。まず、トレーニング データを拡張して、以前のバージョンのゲーム キャラクター データだけでなく、他の多くの有名なアニメ シリーズのデータもトレーニング セットに含めました。この動きによりモデルの知識ベースが充実し、さまざまなアニメのスタイルやキャラクターをより完全に理解できるようになります。 AnimagineXL3.1 では、特別なタグと美学の新しいセットが導入されています

インストール手順: 1. ChatGTP ソフトウェアを ChatGTP 公式 Web サイトまたはモバイル ストアからダウンロードします; 2. それを開いた後、設定インターフェイスで言語を中国語を選択します; 3. ゲーム インターフェイスでヒューマン マシン ゲームを選択し、中国スペクトル; 4 . 起動後、チャット ウィンドウにコマンドを入力してソフトウェアを操作します。

FP8 以下の浮動小数点数値化精度は、もはや H100 の「特許」ではありません。 Lao Huang は誰もが INT8/INT4 を使用できるようにしたいと考え、Microsoft DeepSpeed チームは NVIDIA からの公式サポートなしで A100 上で FP6 の実行を開始しました。テスト結果は、A100 での新しい方式 TC-FPx の FP6 量子化が INT4 に近いか、場合によってはそれよりも高速であり、後者よりも精度が高いことを示しています。これに加えて、エンドツーエンドの大規模モデルのサポートもあり、オープンソース化され、DeepSpeed などの深層学習推論フレームワークに統合されています。この結果は、大規模モデルの高速化にも即座に影響します。このフレームワークでは、シングル カードを使用して Llama を実行すると、スループットはデュアル カードのスループットの 2.65 倍になります。 1つ
