目次
次のオープンソース GPT-4o は登場しますか?
技術アーキテクチャ
画像「トークナイザー」
事前トレーニング
Llama 2を総合的に上回る
ベンチマーク評価
人間による評価とセキュリティテスト
ホームページ テクノロジー周辺機器 AI メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

Jun 12, 2024 pm 01:18 PM
ニューラルネットワーク モデル

GPT-4o の出現により、マルチモーダル モデル開発の新しいパラダイムが再び生まれました。

なぜそんなことを言うのですか?

OpenAI はこれを「最初の「ネイティブ」マルチモーダル」モデルと呼んでいます。これは、GPT-4o が以前のすべてのモデルとは異なることを意味します。

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

従来のマルチモーダル基本モデルは通常、各モダリティに特定の「エンコーダー」または「デコーダー」を使用して、異なるモダリティを分離します。

ただし、このアプローチでは、クロスモーダル情報を効果的に融合するモデルの能力が制限されます。

GPT-4o は、テキスト、ビジュアル、オーディオ モードにまたがる「初のエンドツーエンド」トレーニング モデルであり、すべての入力と出力が単一のニューラル ネットワークによって処理されます。

そして、GPT-4oに果敢に挑戦した業界初のモデルが登場しました!

最近、メタチームの研究者は「混合モーダルベースモデル」 - カメレオンをリリースしました。

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

論文アドレス: https://arxiv.org/pdf/2405.09818

GPT-4o と同様に、Chameleon は統合された Transformer アーキテクチャを採用し、テキスト、画像、コードの混合モダリティを使用してトレーニングを完了します。

テキスト生成と同様の方法で、画像は個別に「トークン化」(トークン化)され、最終的にインターリーブされたテキストと画像シーケンスを生成および推論します。

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

この「早期融合」アプローチでは、すべてのパイプラインが最初から共通の表現空間にマッピングされるため、モデルはテキストと画像をシームレスに処理できます。

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

Chameleon によって生成されたマルチモーダル コンテンツ

同時に、このような設計はモデルのトレーニングに重大な技術的課題をもたらします。

これに関して、メタ研究チームは一連のアーキテクチャ上の革新とトレーニングテクノロジーを導入しました。

結果は、プレーン テキスト タスクにおいて、340 億パラメータの Chameleon (10 兆のマルチモーダル トークンでトレーニングされた) のパフォーマンスが Gemini-Pro と同等であることを示しています。

視覚的な質問応答と画像注釈のベンチマークに関する SOTA を更新すると、パフォーマンスは GPT-4V に近くなります。

ただし、GPT-4o と Chameleon はどちらも、新世代の「ネイティブ」エンドツーエンドのマルチモーダル基本モデルの初期の探求です。

GTC 2024 カンファレンスで、Lao Huang 氏は、AGI の究極のビジョン、つまりさまざまなモードの相互運用性に向けた重要な一歩について説明しました。

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

次のオープンソース GPT-4o は登場しますか?

Chameleon のリリースは、単に GPT-4o への最速の対応です。

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

一部のネチズンは、トークンが入ってトークンが出ていくが、それはまったく説明が不可能だと言いました。

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

GPT-4o の誕生後に発表された非常に堅実な研究に OOS が追いつくだろうと主張する人さえいます。

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

ただし、現在、Chameleon モデルは生成されたモダリティ、主に画像テキストをサポートしています。 GPT-4o には音声機能がありません。

ネチズンは、別のモダリティ (オーディオ) を追加し、トレーニング データ セットを拡張し、しばらく「クック」すれば、GPT-4o が得られるでしょう...?

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

Meta "I 「このチームをサポートできることを非常に誇りに思います。GPT-4o をオープンソース コミュニティに近づけるための一歩を踏み出しましょう」と GPT-4o の製品管理ディレクターは述べました。

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

GPT-4o のオープンソース バージョンが入手できるまで、そう長くはかからないかもしれません。

次に、Chameleon モデルの技術的な詳細を見てみましょう。

技術アーキテクチャ

メタはChameleonの論文で最初に述べられています:新しくリリースされたモデルの多くはまだ「マルチモダリティ」を最後まで実装していません。

これらのモデルはエンドツーエンドのトレーニング方法を採用していますが、それでも個別のエンコーダーまたはデコーダーを使用して、異なるモダリティを個別にモデル化します。

冒頭で述べたように、このアプローチでは、クロスモーダル情報をキャプチャするモデルの機能が制限され、あらゆる形式の情報を含む真のマルチモーダル ドキュメントを生成することが困難になります。

この欠点を改善するために、Meta は、テキストと画像コンテンツが任意に絡み合ったコンテンツを生成できる、一連の「混合モーダル」基本モデル Chameleon を提案しました。

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

Chameleon が生成した結果、テキスト、画像はインターレースで表示されます

いわゆる「混合モーダル」基本モデルは、Chameleon がエンドツーエンドのアプローチを使用してゼロからトレーニングするだけでなく、トレーニング中にすべてのモデルを結合します。状態情報は相互に絡み合って混合され、統一されたアーキテクチャを使用して処理されます。

すべてのモダリティからの情報を混合し、それを同じモデル アーキテクチャで表現するにはどうすればよいですか?

答えはやはり「トークン」です。

すべてがトークンとして表現されている限り、すべてのモダリティのすべての情報を同じベクトル空間にマッピングできるため、Transformer はそれをシームレスに処理できます。

ただし、このアプローチは、最適化の安定性とモデルのスケーラビリティの点で技術的な課題をもたらします。

これらの問題を解決するために、この論文ではそれに応じてモデル アーキテクチャを革新し、QK 正規化や Zloss などのいくつかのトレーニング手法を使用しています。

同時に、この論文では、プレーンテキスト LLM をマルチモーダル モデルに微調整する方法も提案しています。

画像「トークナイザー」

すべてのモダリティをトークンとして表現するには、まず強力なトークナイザーが必要です。

この目的のために、Chameleon のチームは、Meta の以前の論文に基づいて、サイズ 8192 のコードブックに基づいて、512×512 の仕様を持つ画像を 1024 個の個別のトークンにエンコードする新しい画像セグメンターを開発しました。

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

テキストトークナイザーは、Googleが開発したセンテンスピースオープンソースライブラリに基づいており、65536個のテキストトークンと8192個の画像トークンを含むBPEトークナイザーがトレーニングされています。

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

事前トレーニング

「混合モダリティ」の可能性を十分に刺激するために、トレーニング データも分割され、さまざまなモダリティと混合され、純粋なテキスト、テキスト画像などのモデルに提示されます。ペア、およびテキスト、インターレース画像を含むマルチモーダル ドキュメント。

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

プレーンテキストデータには、Llama 2 と CodeLlama で使用されるすべての事前トレーニング データが含まれており、合計 2.9 兆トークンになります。

テキストと画像のペアには公開データが含まれており、合計で 14 億のペアと 1 兆 5,000 億のトークンになります。

テキストと画像の絡み合ったデータについて、論文はメタ製品からのデータが含まれておらず、完全に公開データソースを使用し、合計4000億のトークンを分類していることを特に強調しています。

カメレオンの事前トレーニングは 2 つの個別の段階で実施され、それぞれ全体のトレーニング比率の 80% と 20% を占めます。

トレーニングの第 1 段階では、教師なしの方法でモデルに上記のデータを学習させます。第 2 段階の開始時に、第 1 段階で取得した重みを 50% 削減し、より高品質のデータを混合します。学び続けるためのモデル。

モデルが 8B パラメーターと 1T トークンを超えるように拡張されると、トレーニングの後半段階で明らかな不安定性の問題が発生します。

すべてのモダリティがモデルの重みを共有しているため、各モダリティはノルムを増加させ、他のモダリティと「競合」する傾向があるようです。

訓練の初期段階ではあまり問題になりませんが、訓練が進みデータがbf16の表現範囲を超えると損失発散という現象が起こります。

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

研究者らは、これがソフトマックス関数の変換不変性によるものであると考えており、この現象は単一モーダル モデルでは「ロジット ドリフト」とも呼ばれます。

したがって、この論文では、安定性を確保するためのいくつかのアーキテクチャ調整と最適化方法を提案しています:

-QK 正規化 (クエリキー正規化): アテンション モジュールのクエリおよびキー ベクトルにレイヤー ノルムを適用し、それによって直接制御します。ソフトマックス層入力のノルム成長。

-アテンション層とフィードフォワード層の後にドロップアウトを導入

-損失関数でZloss正則化を使用

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

データソースとアーキテクチャに加えて、この論文では、事前のトレーニング方法 計算能力の規模。

ハードウェアモデルは 80GB メモリを搭載した NVIDIA A100 で、7B バージョンは 1024 個の GPU を並列に使用して約 860,000 GPU 時間学習しました。34B モデルで使用される GPU の数は 3 倍に拡張され、GPU 時間数も増加しました。 428万人を突破しました。

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

かつて Llama 2 をオープンソース化した企業として、Meta の研究チームは本当に寛大です。技術レポートすらない GPT-4o と比較して、この論文にはデータと有益な情報が含まれています。 「最も寛大」と評される。

Llama 2を総合的に上回る

具体的な実験評価では、研究者らは手動評価、セキュリティテスト、ベースライン評価に分けて評価を行った。

ベンチマーク評価

Chameleon-34B は、トレーニングに Llama 2 の 4 倍のトークンを使用し、さまざまなシングルモーダル ベンチマーク テストで驚くべき結果を達成しました。

テキストのみのタスク生成において、研究者らは、事前トレーニングされた (非 SFT) モデルのテキストのみの機能を他の主要なテキストのみの LLM と比較しました。

評価内容には、常識的推論、読解、数学的問題、世界知識の領域が含まれます。評価結果は以下の表に示されています。

- 常識的な推論と読解

Llama 2 と比較して、Chameleon-7B と Chameleon-34B の競争力が高いことがわかります。実際、34B は 5/8 タスクで Llama-2 70B をさえ上回り、そのパフォーマンスは Mixtral-8x7B と同等でした。

- 数学と世界の知識

他のモダリティでトレーニングされたにもかかわらず、両方のカメレオン モデルは強力な数学的能力を示しました。

GSM8k では、Chameleon-7B は、対応するパラメーター スケールの Llama 2 モデルよりも優れたパフォーマンスを示し、そのパフォーマンスは Mistral-7B と同等です。

さらに、Chameleon-34B は、maj@1 で Llama 2-70B (61.4 対 56.8)、maj@32 で Mixtral-8x7B (77.0 対 75.1) よりも優れたパフォーマンスを示します。

同様に、数学演算では、Chameleon-7B は Llama 2 を上回り、maj@4 では Mistral-7B と同等のパフォーマンスを示しますが、Chameleon-34B は Llama 2-70B を上回り、maj@4 のパフォーマンスでは Mixtral-8x7B に近づきます。 maj@4 (24.7 対 28.4)。

全体的に、Chameleon のパフォーマンスはあらゆる面で Llama 2 を上回り、一部のタスクでは Mistral-7B/8x7B に近いです。

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

テキストから画像へのタスクでは、研究者は視覚的な質問応答と画像の注釈という 2 つの特定のタスクを具体的に評価しました。

Chameleon は、視覚的な質問応答や画像注釈タスクで Flamingo や Llava-1.5 などのモデルを破り、SOTA になりました。また、プレーン テキスト タスクでも、Mixtral 8x7B や Gemini Pro などの第一層モデルと同等のパフォーマンスを発揮しました。

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

人間による評価とセキュリティテスト

同時に、モデルによって生成されたマルチモーダルコンテンツの品質をさらに評価するために、論文では、モデルによって生成されたマルチモーダルコンテンツの品質をさらに評価するために、実験に加えて人間による評価実験も導入されました。ベンチマーク テストの結果、Chameleon-34B のパフォーマンスが Gemini Pro や GPT-4V よりもはるかに優れていることがわかりました。

GPT-4V と Gemini Pro と比較して、人間の審査員はそれぞれ 51.6% と 60.4 の選好率を獲得しました。

下の図は、ヒューマン・アノテーターからの多様なプロンプトのコンテンツを理解して生成する際の、Chameleon モデルとベースライン モデルのパフォーマンスの比較を示しています。

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

各質問には 3 人の異なるヒューマン アノテーターが回答し、多数決が最終的な回答となります。

ヒューマン・アノテーターの質と質問が適切に設計されているかどうかを理解するために、研究者たちは、異なるアノテーター間の一致度も調べました。

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

表 5 は、20,000 件のクラウドソーシング プロンプトと 445 件のレッド チーム インタラクションに対して実施されたセキュリティ テストで、モデルが安全でないコンテンツを生成する原因となっています。

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

Gemini や GPT-4V と比較すると、Chameleon は、インターリーブされた混合モーダル応答を必要とするキューを処理する場合に非常に競争力があります。

この例からわかるように、質疑応答タスクを完了すると、Chameleon は入力テキスト + 画像を理解できるだけでなく、モデルの出力コンテンツに適切な「画像」を追加することもできます。

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

さらに、Chameleon によって生成される画像は通常、コンテキストに応じて変化するため、このインターレース コンテンツの出力はユーザーにとって非常に魅力的になります。

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新

貢献チーム

論文の最後には、この研究に参加した貢献者もリストされています。

事前トレーニング、調整と安全性、推論と評価、すべてのプロジェクトの参加者が含まれます。

このうち、*は共著者、†は主要な貢献者、‡はワークフローリーダー、#はプロジェクトリーダーを表します。

メタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新


以上がメタは GPT-4o に挑戦するために「カメレオン」を立ち上げ、34B パラメータがマルチモーダル革命をリードします! 10兆トークントレーニングがSOTAを更新の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

世界で最も強力なオープンソース MoE モデルが登場。GPT-4 に匹敵する中国語機能を備え、価格は GPT-4-Turbo のわずか 1% 近くです 世界で最も強力なオープンソース MoE モデルが登場。GPT-4 に匹敵する中国語機能を備え、価格は GPT-4-Turbo のわずか 1% 近くです May 07, 2024 pm 04:13 PM

従来のコンピューティングを超える能力を備えているだけでなく、より低コストでより効率的なパフォーマンスを実現する人工知能モデルを想像してみてください。これは SF ではありません。世界で最も強力なオープンソース MoE モデルである DeepSeek-V2[1] が登場しました。 DeepSeek-V2 は、経済的なトレーニングと効率的な推論の特徴を備えた強力な専門家混合 (MoE) 言語モデルです。これは 236B のパラメータで構成されており、そのうち 21B は各マーカーをアクティブにするために使用されます。 DeepSeek67B と比較して、DeepSeek-V2 はパフォーマンスが優れていると同時に、トレーニング コストを 42.5% 節約し、KV キャッシュを 93.3% 削減し、最大生成スループットを 5.76 倍に高めます。 DeepSeek は一般的な人工知能を研究する会社です

AI が数学研究を破壊する!フィールズ賞受賞者で中国系アメリカ人の数学者が上位 11 件の論文を主導 | テレンス・タオが「いいね!」しました AI が数学研究を破壊する!フィールズ賞受賞者で中国系アメリカ人の数学者が上位 11 件の論文を主導 | テレンス・タオが「いいね!」しました Apr 09, 2024 am 11:52 AM

AI は確かに数学を変えつつあります。最近、この問題に細心の注意を払っている陶哲軒氏が『米国数学協会会報』(米国数学協会会報)の最新号を送ってくれた。 「機械は数学を変えるのか?」というテーマを中心に、多くの数学者が意見を述べ、そのプロセス全体は火花に満ち、ハードコアで刺激的でした。著者には、フィールズ賞受賞者のアクシャイ・ベンカテシュ氏、中国の数学者鄭楽軍氏、ニューヨーク大学のコンピューター科学者アーネスト・デイビス氏、その他業界で著名な学者を含む強力な顔ぶれが揃っている。 AI の世界は劇的に変化しています。これらの記事の多くは 1 年前に投稿されたものです。

Google は大喜び: JAX のパフォーマンスが Pytorch や TensorFlow を上回りました! GPU 推論トレーニングの最速の選択肢となる可能性があります Google は大喜び: JAX のパフォーマンスが Pytorch や TensorFlow を上回りました! GPU 推論トレーニングの最速の選択肢となる可能性があります Apr 01, 2024 pm 07:46 PM

Google が推進する JAX のパフォーマンスは、最近のベンチマーク テストで Pytorch や TensorFlow のパフォーマンスを上回り、7 つの指標で 1 位にランクされました。また、テストは最高の JAX パフォーマンスを備えた TPU では行われませんでした。ただし、開発者の間では、依然として Tensorflow よりも Pytorch の方が人気があります。しかし、将来的には、おそらくより大規模なモデルが JAX プラットフォームに基づいてトレーニングされ、実行されるようになるでしょう。モデル 最近、Keras チームは、ネイティブ PyTorch 実装を使用して 3 つのバックエンド (TensorFlow、JAX、PyTorch) をベンチマークし、TensorFlow を使用して Keras2 をベンチマークしました。まず、主流のセットを選択します

こんにちは、電気アトラスです!ボストン・ダイナミクスのロボットが復活、180度の奇妙な動きにマスク氏も恐怖 こんにちは、電気アトラスです!ボストン・ダイナミクスのロボットが復活、180度の奇妙な動きにマスク氏も恐怖 Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas は正式に電動ロボットの時代に突入します!昨日、油圧式アトラスが歴史の舞台から「涙ながらに」撤退したばかりですが、今日、ボストン・ダイナミクスは電動式アトラスが稼働することを発表しました。ボストン・ダイナミクス社は商用人型ロボットの分野でテスラ社と競争する決意を持っているようだ。新しいビデオが公開されてから、わずか 10 時間ですでに 100 万人以上が視聴しました。古い人が去り、新しい役割が現れるのは歴史的な必然です。今年が人型ロボットの爆発的な年であることは間違いありません。ネットユーザーは「ロボットの進歩により、今年の開会式は人間のように見え、人間よりもはるかに自由度が高い。しかし、これは本当にホラー映画ではないのか?」とコメントした。ビデオの冒頭では、アトラスは仰向けに見えるように地面に静かに横たわっています。次に続くのは驚くべきことです

MLP に代わる KAN は、オープンソース プロジェクトによって畳み込みまで拡張されました MLP に代わる KAN は、オープンソース プロジェクトによって畳み込みまで拡張されました Jun 01, 2024 pm 10:03 PM

今月初め、MIT やその他の機関の研究者らは、MLP に代わる非常に有望な代替案である KAN を提案しました。 KAN は、精度と解釈可能性の点で MLP よりも優れています。また、非常に少数のパラメーターを使用して、多数のパラメーターを使用して実行する MLP よりも優れたパフォーマンスを発揮できます。たとえば、著者らは、KAN を使用して、より小規模なネットワークと高度な自動化で DeepMind の結果を再現したと述べています。具体的には、DeepMind の MLP には約 300,000 個のパラメーターがありますが、KAN には約 200 個のパラメーターしかありません。 KAN は、MLP が普遍近似定理に基づいているのに対し、KAN はコルモゴロフ-アーノルド表現定理に基づいているのと同様に、強力な数学的基礎を持っています。以下の図に示すように、KAN は

テスラのロボットは工場で働く、マスク氏:手の自由度は今年22に達する! テスラのロボットは工場で働く、マスク氏:手の自由度は今年22に達する! May 06, 2024 pm 04:13 PM

テスラのロボット「オプティマス」の最新映像が公開され、すでに工場内で稼働可能となっている。通常の速度では、バッテリー(テスラの4680バッテリー)を次のように分類します:公式は、20倍の速度でどのように見えるかも公開しました - 小さな「ワークステーション」上で、ピッキング、ピッキング、ピッキング:今回は、それがリリースされたハイライトの1つビデオの内容は、オプティマスが工場内でこの作業を完全に自律的に行​​い、プロセス全体を通じて人間の介入なしに完了するというものです。そして、オプティマスの観点から見ると、自動エラー修正に重点を置いて、曲がったバッテリーを拾い上げたり配置したりすることもできます。オプティマスのハンドについては、NVIDIA の科学者ジム ファン氏が高く評価しました。オプティマスのハンドは、世界の 5 本指ロボットの 1 つです。最も器用。その手は触覚だけではありません

FisheyeDetNet: 魚眼カメラに基づいた最初のターゲット検出アルゴリズム FisheyeDetNet: 魚眼カメラに基づいた最初のターゲット検出アルゴリズム Apr 26, 2024 am 11:37 AM

目標検出は自動運転システムにおいて比較的成熟した問題であり、その中でも歩行者検出は最も初期に導入されたアルゴリズムの 1 つです。ほとんどの論文では非常に包括的な研究が行われています。ただし、サラウンドビューに魚眼カメラを使用した距離認識については、あまり研究されていません。放射状の歪みが大きいため、標準のバウンディング ボックス表現を魚眼カメラに実装するのは困難です。上記の説明を軽減するために、拡張バウンディング ボックス、楕円、および一般的な多角形の設計を極/角度表現に探索し、これらの表現を分析するためのインスタンス セグメンテーション mIOU メトリックを定義します。提案された多角形モデルの FisheyeDetNet は、他のモデルよりも優れたパフォーマンスを示し、同時に自動運転用の Valeo 魚眼カメラ データセットで 49.5% の mAP を達成しました。

オックスフォード大学の最新情報!ミッキー:2D画像を3D SOTAでマッチング! (CVPR\'24) オックスフォード大学の最新情報!ミッキー:2D画像を3D SOTAでマッチング! (CVPR\'24) Apr 23, 2024 pm 01:20 PM

前に書かれたプロジェクトのリンク: https://nianticlabs.github.io/mickey/ 2 枚の写真が与えられた場合、それらの写真間の対応関係を確立することで、それらの間のカメラのポーズを推定できます。通常、これらの対応は 2D 対 2D であり、推定されたポーズはスケール不定です。いつでもどこでもインスタント拡張現実などの一部のアプリケーションでは、スケール メトリクスの姿勢推定が必要なため、スケールを回復するために外部深度推定器に依存します。この論文では、3D カメラ空間でのメトリックの対応を予測できるキーポイント マッチング プロセスである MicKey を提案します。画像全体の 3D 座標マッチングを学習することで、相対的なメトリックを推測できるようになります。

See all articles