IT House News 6 月 12 日、Meta は最近、2017 年に Google が発表した Transformer モデルに基づく AI 言語モデル MusicGen を Github でオープンソース化しました。モデルの名前が示すように、MusicGen は主に音楽生成に使用され、テキストと既存のメロディーを完全な音楽に変換できます。
R&D チームは次のように述べています。「モデルのトレーニングには 20,000 時間の認可された音楽を使用し、Meta の EnCodec エンコーダを使用してオーディオ データをより小さなユニットに分解して並列処理することで、MusicGen のコンピューティング効率と生成速度が向上しました。同じ種類の AI モデル。」
さらに、MusicGen はテキストとメロディーの組み合わせ入力もサポートしています。たとえば、「軽いトラック」を生成することを提案し、同時に「それをベートーベンの「頌歌」と組み合わせる」というリクエストもできます。 to Joy「結合」。
研究開発チームは、MusicGen の実際のパフォーマンスもテストしました。その結果、Google の MusicLM や Riffusion、Mousai、Noise2Music などの他の音楽モデルと比較して、MusicGen は音楽とテキスト プロンプトの一致や楽曲の信頼性などの指標のテストで優れたパフォーマンスを発揮し、全体的に Google のパフォーマンスよりわずかに高いことがわかりました。 MusicLMレベル。
Meta はモデルの商用利用を許可し、Huggingface でデモ Web アプリケーションをリリースしました。
IT Home にモデルのアドレスが添付されています: ここをクリックして移動します
デモ アプリケーションのアドレス: ここをクリックして移動します
以上がメタオープンソース AI 言語モデル MusicGen はテキストとメロディーを完全な音楽に変換できますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。