コードの書き方がわからなくても、AI ペイント モデルをトレーニングできます。
このフレームワークを利用することで、学習から推論までをワンストップで行うことができ、複数のモデルを一度に管理することができます。
Alibaba チームは、ユニバーサル画像生成ワークベンチである SCEPTER Studio を立ち上げ、オープンソース化しました。
これを使用すると、コーディングせずに Web インターフェイスで直接モデルのトレーニングと微調整を完了し、関連データを管理できます。
チームはまた、3 つの組み込みモデルを備えたデモを開始し、SCEPTER の推論機能をオンラインで体験できるようにしました。
それでは、SCEPTERで具体的に何ができるのかを見ていきましょう!
SCEPTERならプログラム作成が不要になります。 Webページ上でモデルを選択しパラメータを調整するだけでトレーニングや微調整が完了します。
具体的には、モデルに関しては、SCEPTER は現在、Stable Diffusion シリーズの SD 1.5/2.1 および SDXL モデルをサポートしています。
微調整方法に関しては、従来のフルボリューム微調整、LoRA などの方法に加え、独自の SCEdit 微調整フレームワークもサポートしています。 Res-Tuning チューニング方法。
SCEdit を使用すると、拡散モデルはスキップ接続を通じて画像生成タスクをより高い効率で完了でき、LoRA と比較してメモリ オーバーヘッドを 30% ~ 50% 節約できます。
トレーニング データに関しては、SCEPTER には、3D、日本の漫画、油絵、スケッチを含む 6 つのスタイルと、各スタイルごとに 30 個の画像とテキストのペアを含む、独自に作成したデータ セットが組み込まれています。
同時に、自分で用意した画像をパッケージ化して圧縮し、画像(ファイル名)とプロンプトの対応関係を csv または txt で確立することもできます。ドキュメントを作成し、SCEPTER プラットフォームにインポートします。
ドキュメントを書きたくない場合は、画像を直接アップロードし、SCEPTER インターフェイスでプロンプトをマークして、画像を管理、追加、削除することもできます。データセット。
SCEPTER は推論段階で文法画像や制御可能な画像合成などの下流タスクをサポートしており、将来的には画像編集もサポートする予定であり、その使用法はSD の既存の Web バージョン。
同時に、SCEPTER インターフェイスには、魔法の本 (プロンプト コレクション) といくつかの既製の微調整モデルも統合されています。
それでは、SCEPTER はどのように摂取すればよいのでしょうか?
この世代でプレイしたいだけの場合は、HuggingFace と Magic Community の公式デモが要件を満たすことができ、後者には中国語のインターフェイスもあります。
データ管理やトレーニングなどの機能を使用したい場合は、フルバージョンを自分でインストールしてデプロイする必要があります。具体的な手順については、GitHub ページのチュートリアルを参照してください。
プロセス全体で、いくつかの簡単なコードを使用する必要があるのはインストールと展開のプロセスのみであり、後続のすべてのプロセスは Web インターフェイスで直接操作できます。
興味のある方はぜひ体験してみてください!
ポータル:https://github.com/modelscope/scepter
以上がAI描画モデルのトレーニングから推論までWebページで行えるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。