「データ不足」問題に対する賢明な解決策!清華社オープンソース GPD: 拡散モデルを使用してニューラル ネットワーク パラメーターを生成
従来の時空間予測モデルでは、通常、良好な結果を得るために大量のデータのサポートが必要です。
しかし、都市ごとの発展レベルの違いやデータ収集ポリシーの不一致により、多くの地域の時空間データ (交通量や人流データなど) は限られています。したがって、データが不足している場合、モデルの転送可能性が特に重要になります。
現在の研究は主にソース都市のデータに依存してモデルをトレーニングし、ターゲット都市のデータに適用していますが、このアプローチには複雑なマッチング設計が必要になることがよくあります。ソース都市とターゲット都市の間でより広範な知識の伝達をどのように達成するかは、依然として難しい課題です。
最近、事前トレーニングされたモデルは、自然言語処理とコンピューター ビジョンの分野で大きな進歩を遂げました。プロンプトテクノロジーの導入により、微調整と事前トレーニングの間のギャップが狭まり、事前トレーニングされた高度なモデルが新しいタスクにより迅速に適応できるようになります。この方法の利点は、面倒な微調整への依存が減り、モデルの効率と柔軟性が向上することです。プロンプトテクノロジーを通じて、モデルはユーザーのニーズをより深く理解し、より正確な出力を生成できるため、人々により良いエクスペリエンスとサービスを提供できます。この革新的なアプローチは人工知能テクノロジーの開発を推進し、さまざまな業界にさらなる可能性と機会をもたらします。
写真
紙のリンク: https://openreview.net/forum?id=QyFm3D3Tzi
オープンソース コードとデータ: https://www.php.cn/link/6644cb08d30b2ca55c284344a9750c2e
ICLR2024で本学科都市科学コンピューティング研究センターが発表した最新成果「拡散ニューラルネットワーク生成による空間時間的少数ショット学習」清華大学電子工学博士 GPD (Generative Pre-Trained Diffusion) モデルは、データがまばらなシナリオで時空間学習を成功裏に達成するために導入されました。
この方法では、生成ニューラル ネットワークのパラメーターを使用して、時空間スパース データ学習を拡散モデルの生成事前トレーニング問題に変換します。従来の方法とは異なり、この方法では、転送可能な特徴を抽出したり、複雑なパターン マッチング戦略を設計したりする必要がなくなり、数ショットのシナリオに適したモデルの初期化を学習する必要もなくなりました。
代わりに、このメソッドは、ソース都市からのデータに関する事前トレーニングによってニューラル ネットワーク パラメーターの最適化に関する知識を学習し、プロンプトに基づいてターゲット都市に適したニューラル ネットワーク モデルを生成します。
この手法のイノベーションは、「プロンプト」に基づいてカスタマイズされたニューラル ネットワークを生成し、異なる都市間のデータ分布と特性の違いに効果的に適応し、独創的な時空間知識の伝達を実現できることです。
この研究は、都市コンピューティングにおけるデータ不足の問題を解決するための新しいアイデアを提供します。論文のデータとコードはオープンソースです。
データ配信からニューラル ネットワーク パラメータ配信へ
図 1: データ パターン レベルの知識伝達とニューラル ネットワーク レベルの知識伝達
図 1(a) に示すように、従来の知識伝達方法では通常、ソース都市のデータに基づいてモデルをトレーニングし、それをターゲット都市に適用します。ただし、異なる都市間のデータ分布には大きな違いがある可能性があり、その結果、ソース都市モデルが直接移行され、ターゲット都市のデータ分布にうまく適合しない可能性があります。
したがって、私たちは乱雑なデータ配布への依存を取り除き、知識を共有するためのより本質的で伝達可能な方法を模索する必要があります。データ分布と比較して、ニューラル ネットワーク パラメータの分布には、より「高次」の特性があります。
図 1 は、データ パターン レベルからニューラル ネットワーク レベルの知識伝達への変換プロセスを示しています。ソース都市からのデータでニューラル ネットワークをトレーニングし、それをターゲット都市に適応したニューラル ネットワーク パラメーターを生成するプロセスに変換することで、ターゲット都市のデータ分布と特性をより適切に適応させることができます。
トレーニング前のプロンプト微調整: 時空間的な少数ショット学習の実現
図 2 GPD モデルの概要
図 2 に示すように、この研究で提案された GPD は、ソース都市のモデル パラメーターから直接学習し、ターゲット都市の新しいモデル パラメーターを生成するように設計された条件付き生成フレームワークです。この方法は 3 つの主要な段階で構成されます。 ##1. ニューラル ネットワークの準備段階: まず、各ソース都市エリアについて、調査は個別の時空間予測モデルをトレーニングし、その最適化されたネットワーク パラメーターを保存します。各領域のモデル パラメーターは、モデルがそれぞれの領域の特性に最適に適応できるように、パラメーターを共有することなく個別に最適化されます。
2. 拡散モデルの事前トレーニング: このフレームワークは、収集された事前トレーニングされたモデル パラメーターをトレーニング データとして使用して、拡散モデルをトレーニングし、モデル パラメーターの生成プロセスを学習します。拡散モデルは、ランダムな初期化から始まるパラメータ最適化プロセスと同様のプロセスである段階的なノイズ除去を通じてパラメータを生成するため、対象都市のデータ分布によりよく適応できます。
3. ニューラル ネットワーク パラメーターの生成: 事前トレーニング後、ターゲット都市の地域的な手がかりを使用してパラメーターを生成できます。このアプローチでは、ヒントを活用して知識の伝達と正確なパラメーターのマッチングを促進し、都市間地域間の類似点を最大限に活用します。
プレトレーニングキュー微調整フレームワークでは、特定の領域の特性を捉えることができる限り、キューの選択は非常に柔軟であることに注目する価値があります。たとえば、人口、地域、機能、興味のある地点 (POI) の分布などのさまざまな静的特徴を使用して、この目的を達成できます。
この研究では、空間的および時間的側面の両方から地域的な手がかりを利用しています。空間的な手がかりは、都市知識グラフ [1,2] のノード表現から得られます。地域的な隣接性や機能的類似性などの関係のみを使用します。これらの関係は、容易に理解できます。すべての都市で利用可能であり、時間的手がかりは自己教師あり学習モデルのエンコーダーから得られます。プロンプトデザインの詳細については、元の記事を参照してください。
さらに、この研究では、さまざまなキュー導入方法も調査され、事前知識に基づくキュー導入が最適なパフォーマンスを発揮することが実験で検証されました。つまり、空間キューを使用して、空間相関をモデル化するためのニューラル ネットワーク パラメーターの生成をガイドします。 、および時間プロンプトを使用して、時間ニューラル ネットワーク パラメーターの生成をガイドします。
実験結果
チームは、他の研究者が結果を再現できるように、論文の中で実験設定を詳細に説明しました。彼らはまた、オリジナルの論文とオープンソース データ コードを提供しました。ここではその実験結果に焦点を当てます。
提案されたフレームワークの有効性を評価するために、この研究では、複数の都市データセットを対象として、群衆の流れ予測と交通速度予測という 2 つの古典的な時空間予測タスクに関する実験を実施しました。
図表 1 は、4 つのデータセットに関する最先端のベースライン手法との比較結果を示しています。これらの結果に基づいて、次のことがわかります。
1) GPD は、ベースライン モデルと比較してパフォーマンスに大きな利点を示し、さまざまなデータ シナリオで一貫して優れたパフォーマンスを示します。これは、GPD が効果的なニューラル ネットワーク パラメーター レベルの知識伝達を達成していることを示しています。
2) GPD は長期予測シナリオで良好なパフォーマンスを示します。この重要な傾向は、フレームワークによるより重要な知識のマイニングに起因し、長期的な時空間パターンの知識を対象都市に伝達するのに役立ちます。
図 3 さまざまな時空間予測モデルのパフォーマンスの比較
さらに、この研究では、さまざまな時空間予測に適応するための GPD フレームワークの柔軟性も検証されました。モデル。古典的な時空間グラフ手法 STGCN に加えて、この研究では時空間予測モデルとして GWN と STID も導入し、拡散モデルを使用してそれらのネットワーク パラメーターを生成します。
実験の結果、フレームワークの優位性はモデルの選択に影響されず、さまざまな先進的なモデルに適応できることがわかりました。
さらに、この研究では、2 つの合成データセットのパターン類似性を操作することによってケース分析を実行します。
図 4 は、領域 A と B が非常に類似した時系列パターンを持っているのに対し、領域 C は大きく異なるパターンを示していることを示しています。一方、図 5 は、ノード A とノード B が対称な空間位置を持っていることを示しています。
したがって、領域 A と B は非常によく似た時空間パターンを持つ一方で、C とは明らかな違いがあると推測できます。モデルによって生成されたニューラル ネットワークのパラメーター分布の結果は、A と B のパラメーター分布は似ていますが、C のパラメーター分布とは大きく異なることを示しています。これにより、GPD フレームワークが多様な時空間パターンを持つニューラル ネットワーク パラメーターを効果的に生成できることがさらに検証されました。
図 4 さまざまな地域における時系列とニューラル ネットワーク パラメーターの分布の視覚化
図 5 地域別のシミュレーション データ セットspace 接続関係
参考:
https://www.php.cn/link/6644cb08d30b2ca55c284344a9750c2e
[1] Liu, Yu, 他al.「Urbankg: 都市型ナレッジ グラフ システム」ACM Transactions on Intelligent Systems and Technology 14.4 (2023): 1-25.
[2] Zhou、Zhilun、他「階層型ナレッジ グラフ学習が可能」位置ベースのソーシャル ネットワークにおける社会経済指標の予測。」ACM Web Conference 2023 の議事録。2023.
以上が「データ不足」問題に対する賢明な解決策!清華社オープンソース GPD: 拡散モデルを使用してニューラル ネットワーク パラメーターを生成の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









従来のコンピューティングを超える能力を備えているだけでなく、より低コストでより効率的なパフォーマンスを実現する人工知能モデルを想像してみてください。これは SF ではありません。世界で最も強力なオープンソース MoE モデルである DeepSeek-V2[1] が登場しました。 DeepSeek-V2 は、経済的なトレーニングと効率的な推論の特徴を備えた強力な専門家混合 (MoE) 言語モデルです。これは 236B のパラメータで構成されており、そのうち 21B は各マーカーをアクティブにするために使用されます。 DeepSeek67B と比較して、DeepSeek-V2 はパフォーマンスが優れていると同時に、トレーニング コストを 42.5% 節約し、KV キャッシュを 93.3% 削減し、最大生成スループットを 5.76 倍に高めます。 DeepSeek は一般的な人工知能を研究する会社です

今月初め、MIT やその他の機関の研究者らは、MLP に代わる非常に有望な代替案である KAN を提案しました。 KAN は、精度と解釈可能性の点で MLP よりも優れています。また、非常に少数のパラメーターを使用して、多数のパラメーターを使用して実行する MLP よりも優れたパフォーマンスを発揮できます。たとえば、著者らは、KAN を使用して、より小規模なネットワークと高度な自動化で DeepMind の結果を再現したと述べています。具体的には、DeepMind の MLP には約 300,000 個のパラメーターがありますが、KAN には約 200 個のパラメーターしかありません。 KAN は、MLP が普遍近似定理に基づいているのに対し、KAN はコルモゴロフ-アーノルド表現定理に基づいているのと同様に、強力な数学的基礎を持っています。以下の図に示すように、KAN は

Boston Dynamics Atlas は正式に電動ロボットの時代に突入します!昨日、油圧式アトラスが歴史の舞台から「涙ながらに」撤退したばかりですが、今日、ボストン・ダイナミクスは電動式アトラスが稼働することを発表しました。ボストン・ダイナミクス社は商用人型ロボットの分野でテスラ社と競争する決意を持っているようだ。新しいビデオが公開されてから、わずか 10 時間ですでに 100 万人以上が視聴しました。古い人が去り、新しい役割が現れるのは歴史的な必然です。今年が人型ロボットの爆発的な年であることは間違いありません。ネットユーザーは「ロボットの進歩により、今年の開会式は人間のように見え、人間よりもはるかに自由度が高い。しかし、これは本当にホラー映画ではないのか?」とコメントした。ビデオの冒頭では、アトラスは仰向けに見えるように地面に静かに横たわっています。次に続くのは驚くべきことです

AI は確かに数学を変えつつあります。最近、この問題に細心の注意を払っている陶哲軒氏が『米国数学協会会報』(米国数学協会会報)の最新号を送ってくれた。 「機械は数学を変えるのか?」というテーマを中心に、多くの数学者が意見を述べ、そのプロセス全体は火花に満ち、ハードコアで刺激的でした。著者には、フィールズ賞受賞者のアクシャイ・ベンカテシュ氏、中国の数学者鄭楽軍氏、ニューヨーク大学のコンピューター科学者アーネスト・デイビス氏、その他業界で著名な学者を含む強力な顔ぶれが揃っている。 AI の世界は劇的に変化しています。これらの記事の多くは 1 年前に投稿されたものです。

Google が推進する JAX のパフォーマンスは、最近のベンチマーク テストで Pytorch や TensorFlow のパフォーマンスを上回り、7 つの指標で 1 位にランクされました。また、テストは最高の JAX パフォーマンスを備えた TPU では行われませんでした。ただし、開発者の間では、依然として Tensorflow よりも Pytorch の方が人気があります。しかし、将来的には、おそらくより大規模なモデルが JAX プラットフォームに基づいてトレーニングされ、実行されるようになるでしょう。モデル 最近、Keras チームは、ネイティブ PyTorch 実装を使用して 3 つのバックエンド (TensorFlow、JAX、PyTorch) をベンチマークし、TensorFlow を使用して Keras2 をベンチマークしました。まず、主流のセットを選択します

テスラのロボット「オプティマス」の最新映像が公開され、すでに工場内で稼働可能となっている。通常の速度では、バッテリー(テスラの4680バッテリー)を次のように分類します:公式は、20倍の速度でどのように見えるかも公開しました - 小さな「ワークステーション」上で、ピッキング、ピッキング、ピッキング:今回は、それがリリースされたハイライトの1つビデオの内容は、オプティマスが工場内でこの作業を完全に自律的に行い、プロセス全体を通じて人間の介入なしに完了するというものです。そして、オプティマスの観点から見ると、自動エラー修正に重点を置いて、曲がったバッテリーを拾い上げたり配置したりすることもできます。オプティマスのハンドについては、NVIDIA の科学者ジム ファン氏が高く評価しました。オプティマスのハンドは、世界の 5 本指ロボットの 1 つです。最も器用。その手は触覚だけではありません

目標検出は自動運転システムにおいて比較的成熟した問題であり、その中でも歩行者検出は最も初期に導入されたアルゴリズムの 1 つです。ほとんどの論文では非常に包括的な研究が行われています。ただし、サラウンドビューに魚眼カメラを使用した距離認識については、あまり研究されていません。放射状の歪みが大きいため、標準のバウンディング ボックス表現を魚眼カメラに実装するのは困難です。上記の説明を軽減するために、拡張バウンディング ボックス、楕円、および一般的な多角形の設計を極/角度表現に探索し、これらの表現を分析するためのインスタンス セグメンテーション mIOU メトリックを定義します。提案された多角形モデルの FisheyeDetNet は、他のモデルよりも優れたパフォーマンスを示し、同時に自動運転用の Valeo 魚眼カメラ データセットで 49.5% の mAP を達成しました。

FP8 以下の浮動小数点数値化精度は、もはや H100 の「特許」ではありません。 Lao Huang は誰もが INT8/INT4 を使用できるようにしたいと考え、Microsoft DeepSpeed チームは NVIDIA からの公式サポートなしで A100 上で FP6 の実行を開始しました。テスト結果は、A100 での新しい方式 TC-FPx の FP6 量子化が INT4 に近いか、場合によってはそれよりも高速であり、後者よりも精度が高いことを示しています。これに加えて、エンドツーエンドの大規模モデルのサポートもあり、オープンソース化され、DeepSpeed などの深層学習推論フレームワークに統合されています。この結果は、大規模モデルの高速化にも即座に影響します。このフレームワークでは、シングル カードを使用して Llama を実行すると、スループットはデュアル カードのスループットの 2.65 倍になります。 1つ
