効率はDALL・E 2とImagenを粉砕、Googleの新モデルは新たなSOTAを実現、PSも一言で扱える
新年の初めに、Google AI はテキスト画像生成モデルに再び取り組み始めました。
今回、同社の新モデル Muse は、CC3M データセットで新しい SOTA (現時点で最高のレベル) に到達しました。
そして、その効率は、世界的に人気のある DALL・E 2 と Imagen (どちらも拡散モデル)、さらには Parti (自己回帰モデル) の効率をはるかに上回っています。
——1 つの 512x512 解像度の画像の生成時間は、わずか 1.3 秒に圧縮されます。
#画像編集に関しては、テキストコマンドだけで元の画像を編集できます。
(PS の学習について心配する必要はもうないようです~)
エフェクトをより正確にしたい場合は、位置をマスクして特定の領域を編集します。たとえば、背景の建物を熱気球に置き換えます。
Muse は正式発表されるとすぐに大きな注目を集め、元の投稿にはすでに 4,000 件の「いいね!」が付いています。
Google のもう 1 つの傑作を見て、次のように予測し始めた人もいます:
AI 開発者間の競争は現在、非常に熾烈になっています。その2023年は本当にエキサイティングな年になるでしょう。
DALL・E 2 や Imagen よりも効率的です
Google がリリースしたばかりの Muse について話しましょう。
まず、生成される画像の品質に関して、Muse の作品のほとんどは、鮮明な画像と自然な効果を備えています。
雰囲気をつかむためにさらに例を見てみましょう~
たとえば、毛糸の帽子をかぶったナマケモノの赤ちゃんがコンピューターを操作しています。別の例は、ワイングラスに入った羊です。 :
普段は手の届かない様々な被写体が、一枚の写真の中に違和感なく共存しています。
これが AIGC の基本操作としか思えない場合は、Muse の編集機能を検討してみるとよいでしょう。
たとえば、ワンクリックで服装を変更できます (性別も変更できます):
これはマスキングを必要とせず、一文で実行できます。 。
そして、マスクを使用すると、ワンクリックで背景を元の場所からニューヨーク、パリ、そしてサンフランシスコに切り替えるなど、さらに 6 つの操作を実現できます。
海辺からロンドンや花の海に行ったり、宇宙の土星の輪に飛んでエキサイティングなスケートボードをプレイすることもできますイルカのジャンプ。
# (いいやつ、雲の中を簡単に移動できるだけでなく、ワンクリックで空へ飛ぶこともできます...)
効果は本当に抜群 です。それでは、Muse の背後にはどのような技術サポートがあるのでしょうか? DALL・E 2 や Imagen よりも効率が高いのはなぜですか?
重要な理由は、DALL・E 2 と Imagen はトレーニング プロセス中に学習したすべての知識をモデル パラメーターに保存する必要があることです。
その結果、より多くの知識を得るために、ますます大規模なモデルとより多くのトレーニング データが必要になり、より良いものとより大きなものを結びつけなければなりません。
コストはパラメータの数が膨大になり、効率にも影響します。
Google AI チームによると、彼らが使用する主な手法は「マスクされた画像モデリング」と呼ばれるものです。
これは、新たな自己教師あり事前トレーニング手法であり、その基本的な考え方は次のとおりです:
入力画像の一部がランダムにマスクされ、事前トレーニングされたテキスト タスクを使用して再構成されます。
Muse モデルは、離散ラベルの空間マスクでトレーニングされ、事前トレーニングされた言語の大規模モデルから抽出されたテキストと組み合わせて、ランダムにマスクされた画像ラベルを予測します。
上から下: 事前トレーニングされたテキスト エンコーダー、基本モデル、超解像度モデル
Google チームは、事前トレーニングされたテキスト エンコーダーを使用すると、大規模な言語モデルを使用すると、AI による言語の理解をより詳細かつ徹底的に行うことができます。
出力に関しては、AI が物体の位置関係や姿勢などの要素を適切に把握しているため、生成される画像は忠実度の高いものになります。
DALL・E 2 や Imagen などのピクセル空間拡散モデルと比較して、Muse は離散トークンを使用し、サンプリングの反復回数が少なくなります。
さらに、Parti などの自己回帰モデルと比較して、Muse はより効率的な並列デコードを使用します。
FID の SOTA スコア
前述したように、Muse は効率が向上しただけでなく、画質の生成にも非常に優れています。
研究者らは、DALL・E、LAFITE、LDM、GLIDE、DALL・E 2、さらに Google 独自の Imagen および Parti と比較し、FID および CLIP スコアをテストしました。
(FID スコアは、生成された画像の品質を評価するために使用されます。スコアが低いほど品質が高くなります。CLIP スコアは、テキストと画像の適合度を表します。スコアが高いほど、 )
結果表示では、COCO 検証セットにおける Muse-3B モデルのゼロショット FID-30K スコアは 7.88 であり、パラメータが大きい Imagen-3.4B および Parti-20B モデルに次いで 2 番目です。
さらに良いことに、Muse-900M モデルは、CC3M データセットで FID スコア 6.06 の新しい SOTA を達成しました。これは、テキストと一致することも意味します。最高。
同時に、このモデルのCLIPスコアは0.26で、これも同期間で最高レベルに達しました。
さらに、Muse の画像生成効率をさらに確認するために、研究者らは Muse と他のモデルの単一画像生成時間も比較しました。
Muse解像度 256x256 および 512x512 では、0.5 秒と 1.3 秒の最速速度に達しました。
研究チーム
Muse の研究チームは Google 出身で、共著者は Huiwen Chang と Han Zhang の 2 人です。
Huiwen Chang は現在、Google の上級研究員です。
彼女は清華大学で学部生として学び、プリンストン大学で博士号を取得し、Adobe、Facebook などでインターンシップの経験があります。
Han Zhang は、中国農業大学で学士号を取得し、北京郵政大学で修士号を取得し、ラトガース大学でコンピュータ サイエンスの博士号を取得しました。
研究の方向性は、コンピューター ビジョン、ディープ ラーニング、医療画像分析です。
ただし、Muse はまだ正式にリリースされていないことに注意してください。
一部のネチズンは、非常に香りがよいはずだが、Google の「尿の性質」を考慮すると、Muse の正式リリースはまだ先になるのではないかと冗談を言っています。 AIは18年間リリースされていません。
そういえば、ミューズの効果ってどう思いますか?
正式リリースを楽しみにしていますか?
ポータル: https://www.php.cn/link/854f1fb6f65734d9e49f708d6cd84ad6
参考リンク: https://twitter.com/AlphaSignalAI/status/ 1610404589966180360
以上が効率はDALL・E 2とImagenを粉砕、Googleの新モデルは新たなSOTAを実現、PSも一言で扱えるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









従来のコンピューティングを超える能力を備えているだけでなく、より低コストでより効率的なパフォーマンスを実現する人工知能モデルを想像してみてください。これは SF ではありません。世界で最も強力なオープンソース MoE モデルである DeepSeek-V2[1] が登場しました。 DeepSeek-V2 は、経済的なトレーニングと効率的な推論の特徴を備えた強力な専門家混合 (MoE) 言語モデルです。これは 236B のパラメータで構成されており、そのうち 21B は各マーカーをアクティブにするために使用されます。 DeepSeek67B と比較して、DeepSeek-V2 はパフォーマンスが優れていると同時に、トレーニング コストを 42.5% 節約し、KV キャッシュを 93.3% 削減し、最大生成スループットを 5.76 倍に高めます。 DeepSeek は一般的な人工知能を研究する会社です

今月初め、MIT やその他の機関の研究者らは、MLP に代わる非常に有望な代替案である KAN を提案しました。 KAN は、精度と解釈可能性の点で MLP よりも優れています。また、非常に少数のパラメーターを使用して、多数のパラメーターを使用して実行する MLP よりも優れたパフォーマンスを発揮できます。たとえば、著者らは、KAN を使用して、より小規模なネットワークと高度な自動化で DeepMind の結果を再現したと述べています。具体的には、DeepMind の MLP には約 300,000 個のパラメーターがありますが、KAN には約 200 個のパラメーターしかありません。 KAN は、MLP が普遍近似定理に基づいているのに対し、KAN はコルモゴロフ-アーノルド表現定理に基づいているのと同様に、強力な数学的基礎を持っています。以下の図に示すように、KAN は

AI は確かに数学を変えつつあります。最近、この問題に細心の注意を払っている陶哲軒氏が『米国数学協会会報』(米国数学協会会報)の最新号を送ってくれた。 「機械は数学を変えるのか?」というテーマを中心に、多くの数学者が意見を述べ、そのプロセス全体は火花に満ち、ハードコアで刺激的でした。著者には、フィールズ賞受賞者のアクシャイ・ベンカテシュ氏、中国の数学者鄭楽軍氏、ニューヨーク大学のコンピューター科学者アーネスト・デイビス氏、その他業界で著名な学者を含む強力な顔ぶれが揃っている。 AI の世界は劇的に変化しています。これらの記事の多くは 1 年前に投稿されたものです。

Boston Dynamics Atlas は正式に電動ロボットの時代に突入します!昨日、油圧式アトラスが歴史の舞台から「涙ながらに」撤退したばかりですが、今日、ボストン・ダイナミクスは電動式アトラスが稼働することを発表しました。ボストン・ダイナミクス社は商用人型ロボットの分野でテスラ社と競争する決意を持っているようだ。新しいビデオが公開されてから、わずか 10 時間ですでに 100 万人以上が視聴しました。古い人が去り、新しい役割が現れるのは歴史的な必然です。今年が人型ロボットの爆発的な年であることは間違いありません。ネットユーザーは「ロボットの進歩により、今年の開会式は人間のように見え、人間よりもはるかに自由度が高い。しかし、これは本当にホラー映画ではないのか?」とコメントした。ビデオの冒頭では、アトラスは仰向けに見えるように地面に静かに横たわっています。次に続くのは驚くべきことです

テスラのロボット「オプティマス」の最新映像が公開され、すでに工場内で稼働可能となっている。通常の速度では、バッテリー(テスラの4680バッテリー)を次のように分類します:公式は、20倍の速度でどのように見えるかも公開しました - 小さな「ワークステーション」上で、ピッキング、ピッキング、ピッキング:今回は、それがリリースされたハイライトの1つビデオの内容は、オプティマスが工場内でこの作業を完全に自律的に行い、プロセス全体を通じて人間の介入なしに完了するというものです。そして、オプティマスの観点から見ると、自動エラー修正に重点を置いて、曲がったバッテリーを拾い上げたり配置したりすることもできます。オプティマスのハンドについては、NVIDIA の科学者ジム ファン氏が高く評価しました。オプティマスのハンドは、世界の 5 本指ロボットの 1 つです。最も器用。その手は触覚だけではありません

目標検出は自動運転システムにおいて比較的成熟した問題であり、その中でも歩行者検出は最も初期に導入されたアルゴリズムの 1 つです。ほとんどの論文では非常に包括的な研究が行われています。ただし、サラウンドビューに魚眼カメラを使用した距離認識については、あまり研究されていません。放射状の歪みが大きいため、標準のバウンディング ボックス表現を魚眼カメラに実装するのは困難です。上記の説明を軽減するために、拡張バウンディング ボックス、楕円、および一般的な多角形の設計を極/角度表現に探索し、これらの表現を分析するためのインスタンス セグメンテーション mIOU メトリックを定義します。提案された多角形モデルの FisheyeDetNet は、他のモデルよりも優れたパフォーマンスを示し、同時に自動運転用の Valeo 魚眼カメラ データセットで 49.5% の mAP を達成しました。

春の到来とともにあらゆるものが生き返り、あらゆるものが生命力と活力に満ち溢れます。この美しい季節、家庭生活に彩りを加えるにはどうすればよいでしょうか? Haqu H2 プロジェクターは、絶妙なデザインと超コストパフォーマンスで、この春に欠かせない美しさになりました。コンパクトでありながらスタイリッシュなH2プロジェクター。リビングルームのテレビキャビネットの上に置いても、寝室のベッドサイドテーブルの隣に置いても、美しい風景になります。乳白色のマットな質感のボディは、プロジェクターの高級感を演出するだけでなく、触り心地も向上させたデザインです。ベージュのレザー風の素材が全体の外観に温かみとエレガントさを加えます。この色と素材の組み合わせは、現代の住宅の美的傾向に準拠しているだけでなく、住宅に統合することもできます。

FP8 以下の浮動小数点数値化精度は、もはや H100 の「特許」ではありません。 Lao Huang は誰もが INT8/INT4 を使用できるようにしたいと考え、Microsoft DeepSpeed チームは NVIDIA からの公式サポートなしで A100 上で FP6 の実行を開始しました。テスト結果は、A100 での新しい方式 TC-FPx の FP6 量子化が INT4 に近いか、場合によってはそれよりも高速であり、後者よりも精度が高いことを示しています。これに加えて、エンドツーエンドの大規模モデルのサポートもあり、オープンソース化され、DeepSpeed などの深層学習推論フレームワークに統合されています。この結果は、大規模モデルの高速化にも即座に影響します。このフレームワークでは、シングル カードを使用して Llama を実行すると、スループットはデュアル カードのスループットの 2.65 倍になります。 1つ
