目次
TF-GNN 1.0 が初リリース
GNN: コンテキスト内のオブジェクトの予測
ホームページ テクノロジー周辺機器 AI Google が TensorFlow-GNN 1.0 のリリースを正式に発表しました。大規模なグラフ ニューラル ネットワークを構築するための動的かつインタラクティブなサンプリング

Google が TensorFlow-GNN 1.0 のリリースを正式に発表しました。大規模なグラフ ニューラル ネットワークを構築するための動的かつインタラクティブなサンプリング

Feb 07, 2024 pm 09:50 PM
データ モデル ソーシャルネットワーク

2005 年、画期的な著作「グラフ ニューラル ネットワーク モデル」のリリースにより、グラフ ニューラル ネットワークがすべての人に知られるようになりました。

これ以前は、科学者がグラフ データを処理する方法は、データの前処理段階でグラフを一連の「ベクトル表現」に変換することでした。

CNN の出現により、情報損失というこの欠点は完全に変わりました。過去 20 年間、モデルの世代が進化し続け、ML 分野の進歩を促進しました。

本日、Google は TensorFlow GNN 1.0 (TF-GNN) のリリースを正式に発表しました。これは、大規模な GNN を構築するための実稼働テスト済みライブラリです。

谷歌官宣TensorFlow-GNN 1.0发布!动态和交互采样,大规模构建图神经网络

TensorFlow でのモデリングとトレーニングの両方をサポートするだけでなく、大規模なデータ ストアからの入力グラフの抽出もサポートします。

TF-GNN は、オブジェクトと関係のタイプがノードとエッジの異なるセットで表される異種グラフ向けにゼロから構築されています。

実世界のオブジェクトとその関係はさまざまなタイプで表示されますが、TF-GNN の異種混合の焦点により、それらの表現が非常に自然になります。

Google の科学者 Anton Tsitsulin 氏は、複雑な異種モデリングが戻ってきたと述べました。

谷歌官宣TensorFlow-GNN 1.0发布!动态和交互采样,大规模构建图神经网络

TF-GNN 1.0 が初リリース

#世界中のどこにでも存在するオブジェクトとその関係。

関係性は、オブジェクトを理解する上で、輸送ネットワーク、生産ネットワーク、ナレッジ グラフ、ソーシャル ネットワークなど、オブジェクト自体のプロパティを個別に見るのと同じくらい重要です。

離散数学とコンピューターサイエンスは、長い間、さまざまな不規則な方法でエッジによって任意に接続された「ノード」で構成される、このようなネットワークをグラフとして形式化してきました。

ただし、ほとんどの機械学習アルゴリズムでは、ピクセルのグリッド、単語のシーケンスなど、入力オブジェクト間の規則的かつ均一な関係のみが許可されるか、まったく関係が許可されません。

グラフィック ニューラル ネットワーク (略して GNN) は、グラフの接続性 (初期のアルゴリズム DeepWalk や Node2Vec など) とさまざまなノードおよびエッジ入力機能の両方を活用できる強力なテクノロジです。 。

谷歌官宣TensorFlow-GNN 1.0发布!动态和交互采样,大规模构建图神经网络

GNN は、グラフ全体 (この分子は何らかの方法で反応しますか?)、または個々のノード (引用文によると、この文書のトピックは何ですか?)、予測のための潜在的なエッジ (この製品は別の製品と一緒に購入される可能性がありますか?)。

GNN は、グラフで予測を行うだけでなく、より一般的なニューラル ネットワークの使用例とのギャップを埋めるための強力なツールです。

グラフの離散関係情報を連続的にエンコードし、別の深層学習システムに自然に組み込むことができます。

Google は本日、大規模な GNN を構築するための実稼働テスト済みライブラリである TensorFlow GNN 1.0 (TF-GNN) を正式に発表しました。

TensorFlow では、このようなグラフは tfgnn.GraphTensor 型のオブジェクトによって表されます。

これは、tf.data.Dataset、tf.function などの「ファーストクラス オブジェクト」として受け入れられる複合テンソル型 (Python クラスのテンソルのコレクション) です。

グラフ構造だけでなく、ノード、エッジ、グラフ全体の特性も保存できます。

GraphTensor のトレーニング可能な変換は、高レベルの Kera API で Layers オブジェクトとして定義するか、tfgnn.GraphTensor プリミティブを直接使用して定義できます。

GNN: コンテキスト内のオブジェクトの予測

次に、TF-GNN についてさらに説明します。典型的なアプリケーションの 1 つを見てみましょう。

## 巨大なデータベース内の相互参照テーブルによって定義されたグラフ内の特定のタイプのノードの属性を予測します

たとえば、コンピューター サイエンス (CS) 引用データベース arxiv 論文には、1 対多の引用と多対 1 の引用関係があり、これにより対象分野を予測できます。各紙。

ほとんどのニューラル ネットワークと同様、GNN は多くのラベル付きサンプル (約数百万) のデータ セットでトレーニングされますが、各トレーニング ステップは小さな多数のトレーニング サンプル (たとえば、何百)。

数百万のサンプルにスケールするために、GNN は基礎となるグラフ内の適度に小さいサブグラフのストリームでトレーニングされます。各サブグラフには、中央のラベル付きノードの GNN 結果を計算し、モデルをトレーニングするのに十分な生データが含まれています。

このプロセスはサブグラフ サンプリングと呼ばれることがあり、GNN トレーニングにとって非常に重要です。

既存のツールのほとんどは、バッチ モードでサンプリングを完了し、トレーニング用の静的なサブグラフを生成します。

TF-GNN は、動的かつ対話型のサンプリングを通じてこれを改善するツールを提供します。

谷歌官宣TensorFlow-GNN 1.0发布!动态和交互采样,大规模构建图神经网络

サブグラフ サンプリング プロセス、つまり、大きなグラフから実用的な小さなサブグラフを抽出して、GNN トレーニング用の入力例を作成します。

TF-GNN 1.0 では、関連するすべてのスケールで動的またはバッチのサブグラフ サンプリングを構成するための柔軟な Python API が導入されています。Colab ノートのインタラクティブ サンプリングです。

具体的には、単一のトレーニング ホストのメイン メモリに保存されている小さなデータ セット、または Apache Beam 経由でネットワーク ファイル システムに保存されている大規模なデータ セット (最大数百) の「効率的なサンプリング」です。分散サンプリングの場合、数百万のノードと数十億のエッジ)。

これらの同じサンプリングされたサブグラフ上で、GNN のタスクは、ルート ノードの隠れた (または潜在的な) 状態を計算することです。隠れた状態は、ルート ノードの近傍の関連情報を集約してエンコードします。 。

#一般的な方法は「メッセージ パッシング ニューラル ネットワーク」です。

メッセージングの各ラウンドで、ノードは入力エッジに沿って隣接ノードからメッセージを受信し、これらのエッジから自身の非表示状態を更新します。

n ラウンド後、ルート ノードの非表示状態は、n エッジ内のすべてのノードの集約情報を反映します (下の図に示すように、n=2)。メッセージと新しい隠れ状態は、ニューラル ネットワークの隠れ層によって計算されます。

異種グラフでは、多くの場合、さまざまな種類のノードとエッジに対して個別にトレーニングされた隠れ層を使用することが合理的です。

谷歌官宣TensorFlow-GNN 1.0发布!动态和交互采样,大规模构建图神经网络

#図は単純な「メッセージ パッシング ニューラル ネットワーク」を示しています。このネットワークでは、ノードのステータスが外部ノードから内部ノードに伝播されます。各ステップでノードが生成され、内部ノード収集を通じて新しいノードのステータスが計算されます。ルート ノードに到達すると、最終的な予測を行うことができます。

トレーニング セットアップは、ラベル付きノードの GNN の隠れ状態の上に出力層を配置し、 (予測誤差を測定するため) 損失を計算し、バックプロパゲーションを通じてモデルの重みを更新します。これは、ニューラル ネットワークのトレーニングでは一般的です。

教師ありトレーニングに加えて、GNN は教師なしでトレーニングすることもできるため、ノードとその特徴の離散グラフ構造の連続表現 (または埋め込み) を計算できます。

これらの表現は、他の ML システムで一般的に使用されます。

このようにして、グラフによってエンコードされた離散リレーショナル情報を、より一般的なニューラル ネットワークの使用例に組み込むことができます。 TF-GNN は、異種グラフ上の教師なしターゲットの詳細な指定をサポートします。

GNN アーキテクチャの構築

TF-GNN ライブラリは、さまざまな抽象化レベルでの GNN の構築とトレーニングをサポートします。

最高レベルでは、ユーザーはライブラリにバンドルされている事前定義モデル (Kera レイヤーとして表される) を使用できます。

研究文献からの少数のモデル セットに加えて、TF-GNN には、慎重に精選されたモデリングの選択肢を提供する、高度に構成可能なモデル テンプレートが付属しています。

Google は、これらの選択肢が社内の問題の多くに対する強力なベースラインを提供することを発見しました。テンプレートは GNN 層を実装しており、ユーザーは Kera 層から初期化するだけで済みます。

うわー

在最低层,用户可以根据用于在图中传递数据的原语,从头开始编写GNN模型,比如将数据从节点广播到其所有传出边,或将数据从其所有传入边汇集到节点中。

当涉及到特征或隐藏状态时,TF-GNN 的图数据模型对节点、边和整个输入图一视同仁。

因此,它不仅可以直接表示像MPNN那样以节点为中心的模型,而且还可以表示更一般形式的的图网络。

这可以(但不一定)使用Kera作为核心TensorFlow顶部的建模框架来完成。

训练编排

虽然高级用户可以自由地进行定制模型训练,但TF-GNN Runner还提供了一种简洁的方法,在常见情况下协调Kera模型的训练。

一个简单的调用可能如下所示:

from tensorflow_gnn import runnerrunner.run( task=runner.RootNodeBinaryClassification("papers", ...), model_fn=model_fn, trainer=runner.KerasTrainer(tf.distribute.MirroredStrategy(), model_dir="/tmp/model"), optimizer_fn=tf.keras.optimizers.Adam, epochs=10, global_batch_size=128, train_ds_provider=runner.TFRecordDatasetProvider("/tmp/train*"), valid_ds_provider=runner.TFRecordDatasetProvider("/tmp/validation*"), gtspec=...,)
ログイン後にコピー

Runner为ML Pain提供了现成的解决方案,如分布式训练和云TPU上固定形状的 tfgnn.GraphTensor 填充。

除了单一任务的训练(如上所示)外,它还支持多个(两个或更多)任务的联合训练。

例如,非监督任务可以与监督任务混合,以形成具有特定于应用的归纳偏差的最终连续表示(或嵌入)。调用方只需将任务参数替换为任务映射:

from tensorflow_gnn import runnerfrom tensorflow_gnn.models import contrastive_lossesrunner.run( task={"classification": runner.RootNodeBinaryClassification("papers", ...),"dgi": contrastive_losses.DeepGraphInfomaxTask("papers"),},...)
ログイン後にコピー

此外,TF-GNN Runner还包括用于模型归因的集成梯度实现。

集成梯度输出是一个GraphTensor,其连接性与观察到的GraphTensor相同,但其特征用梯度值代替,在GNN预测中,较大的梯度值比较小的梯度值贡献更多。

总之,谷歌希望TF-GNN将有助于推动GNN在TensorFlow中的大规模应用,并推动该领域的进一步创新。

以上がGoogle が TensorFlow-GNN 1.0 のリリースを正式に発表しました。大規模なグラフ ニューラル ネットワークを構築するための動的かつインタラクティブなサンプリングの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

世界で最も強力なオープンソース MoE モデルが登場。GPT-4 に匹敵する中国語機能を備え、価格は GPT-4-Turbo のわずか 1% 近くです 世界で最も強力なオープンソース MoE モデルが登場。GPT-4 に匹敵する中国語機能を備え、価格は GPT-4-Turbo のわずか 1% 近くです May 07, 2024 pm 04:13 PM

従来のコンピューティングを超える能力を備えているだけでなく、より低コストでより効率的なパフォーマンスを実現する人工知能モデルを想像してみてください。これは SF ではありません。世界で最も強力なオープンソース MoE モデルである DeepSeek-V2[1] が登場しました。 DeepSeek-V2 は、経済的なトレーニングと効率的な推論の特徴を備えた強力な専門家混合 (MoE) 言語モデルです。これは 236B のパラメータで構成されており、そのうち 21B は各マーカーをアクティブにするために使用されます。 DeepSeek67B と比較して、DeepSeek-V2 はパフォーマンスが優れていると同時に、トレーニング コストを 42.5% 節約し、KV キャッシュを 93.3% 削減し、最大生成スループットを 5.76 倍に高めます。 DeepSeek は一般的な人工知能を研究する会社です

MLP に代わる KAN は、オープンソース プロジェクトによって畳み込みまで拡張されました MLP に代わる KAN は、オープンソース プロジェクトによって畳み込みまで拡張されました Jun 01, 2024 pm 10:03 PM

今月初め、MIT やその他の機関の研究者らは、MLP に代わる非常に有望な代替案である KAN を提案しました。 KAN は、精度と解釈可能性の点で MLP よりも優れています。また、非常に少数のパラメーターを使用して、多数のパラメーターを使用して実行する MLP よりも優れたパフォーマンスを発揮できます。たとえば、著者らは、KAN を使用して、より小規模なネットワークと高度な自動化で DeepMind の結果を再現したと述べています。具体的には、DeepMind の MLP には約 300,000 個のパラメーターがありますが、KAN には約 200 個のパラメーターしかありません。 KAN は、MLP が普遍近似定理に基づいているのに対し、KAN はコルモゴロフ-アーノルド表現定理に基づいているのと同様に、強力な数学的基礎を持っています。以下の図に示すように、KAN は

iPhoneのセルラーデータインターネット速度が遅い:修正 iPhoneのセルラーデータインターネット速度が遅い:修正 May 03, 2024 pm 09:01 PM

iPhone のモバイル データ接続に遅延や遅い問題が発生していませんか?通常、携帯電話の携帯インターネットの強度は、地域、携帯ネットワークの種類、ローミングの種類などのいくつかの要因によって異なります。より高速で信頼性の高いセルラー インターネット接続を実現するためにできることがいくつかあります。解決策 1 – iPhone を強制的に再起動する 場合によっては、デバイスを強制的に再起動すると、携帯電話接続を含む多くの機能がリセットされるだけです。ステップ 1 – 音量を上げるキーを 1 回押して放します。次に、音量小キーを押して、もう一度放します。ステップ 2 – プロセスの次の部分は、右側のボタンを押し続けることです。 iPhone の再起動が完了するまで待ちます。セルラーデータを有効にし、ネットワーク速度を確認します。もう一度確認してください 修正 2 – データ モードを変更する 5G はより優れたネットワーク速度を提供しますが、信号が弱い場合はより適切に機能します

アメリカ空軍が初のAI戦闘機を公開し注目を集める!大臣はプロセス全体を通じて干渉することなく個人的にテストを実施し、10万行のコードが21回にわたってテストされました。 アメリカ空軍が初のAI戦闘機を公開し注目を集める!大臣はプロセス全体を通じて干渉することなく個人的にテストを実施し、10万行のコードが21回にわたってテストされました。 May 07, 2024 pm 05:00 PM

最近、軍事界は、米軍戦闘機が AI を使用して完全自動空戦を完了できるようになったというニュースに圧倒されました。そう、つい最近、米軍のAI戦闘機が初めて公開され、その謎が明らかになりました。この戦闘機の正式名称は可変安定性飛行シミュレーター試験機(VISTA)で、アメリカ空軍長官が自ら飛行させ、一対一の空戦をシミュレートした。 5 月 2 日、フランク ケンダル米国空軍長官は X-62AVISTA でエドワーズ空軍基地を離陸しました。1 時間の飛行中、すべての飛行動作が AI によって自律的に完了されたことに注目してください。ケンダル氏は「過去数十年にわたり、私たちは自律型空対空戦闘の無限の可能性について考えてきたが、それは常に手の届かないものだと思われてきた」と語った。しかし今では、

テスラのロボットは工場で働く、マスク氏:手の自由度は今年22に達する! テスラのロボットは工場で働く、マスク氏:手の自由度は今年22に達する! May 06, 2024 pm 04:13 PM

テスラのロボット「オプティマス」の最新映像が公開され、すでに工場内で稼働可能となっている。通常の速度では、バッテリー(テスラの4680バッテリー)を次のように分類します:公式は、20倍の速度でどのように見えるかも公開しました - 小さな「ワークステーション」上で、ピッキング、ピッキング、ピッキング:今回は、それがリリースされたハイライトの1つビデオの内容は、オプティマスが工場内でこの作業を完全に自律的に行​​い、プロセス全体を通じて人間の介入なしに完了するというものです。そして、オプティマスの観点から見ると、自動エラー修正に重点を置いて、曲がったバッテリーを拾い上げたり配置したりすることもできます。オプティマスのハンドについては、NVIDIA の科学者ジム ファン氏が高く評価しました。オプティマスのハンドは、世界の 5 本指ロボットの 1 つです。最も器用。その手は触覚だけではありません

総合的にDPOを超える:Chen Danqi氏のチームはシンプルなプリファレンス最適化SimPOを提案し、最強の8Bオープンソースモデルも洗練させた 総合的にDPOを超える:Chen Danqi氏のチームはシンプルなプリファレンス最適化SimPOを提案し、最強の8Bオープンソースモデルも洗練させた Jun 01, 2024 pm 04:41 PM

大規模言語モデル (LLM) を人間の価値観や意図に合わせるには、人間のフィードバックを学習して、それが有用で、正直で、無害であることを確認することが重要です。 LLM を調整するという点では、ヒューマン フィードバックに基づく強化学習 (RLHF) が効果的な方法です。 RLHF 法の結果は優れていますが、最適化にはいくつかの課題があります。これには、報酬モデルをトレーニングし、その報酬を最大化するためにポリシー モデルを最適化することが含まれます。最近、一部の研究者はより単純なオフライン アルゴリズムを研究しており、その 1 つが直接優先最適化 (DPO) です。 DPO は、RLHF の報酬関数をパラメータ化することで、選好データに基づいてポリシー モデルを直接学習するため、明示的な報酬モデルの必要性がなくなります。この方法は簡単で安定しています

OpenAI データは必要ありません。大規模なコード モデルのリストに加わりましょう。 UIUC が StarCoder-15B-Instruct をリリース OpenAI データは必要ありません。大規模なコード モデルのリストに加わりましょう。 UIUC が StarCoder-15B-Instruct をリリース Jun 13, 2024 pm 01:59 PM

ソフトウェア テクノロジの最前線に立つ UIUC Zhang Lingming のグループは、BigCode 組織の研究者とともに、最近 StarCoder2-15B-Instruct 大規模コード モデルを発表しました。この革新的な成果により、コード生成タスクにおいて大きな進歩が達成され、CodeLlama-70B-Instruct を上回り、コード生成パフォーマンス リストのトップに到達しました。 StarCoder2-15B-Instruct のユニークな特徴は、その純粋な自己調整戦略であり、トレーニング プロセス全体がオープンで透過的で、完全に自律的で制御可能です。このモデルは、高価な手動アノテーションに頼ることなく、StarCoder-15B 基本モデルの微調整に応じて、StarCoder2-15B を介して数千の命令を生成します。

Yolov10: 詳細な説明、展開、アプリケーションがすべて 1 か所にまとめられています。 Yolov10: 詳細な説明、展開、アプリケーションがすべて 1 か所にまとめられています。 Jun 07, 2024 pm 12:05 PM

1. はじめに ここ数年、YOLO は、計算コストと検出パフォーマンスの効果的なバランスにより、リアルタイム物体検出の分野で主流のパラダイムとなっています。研究者たちは、YOLO のアーキテクチャ設計、最適化目標、データ拡張戦略などを調査し、大きな進歩を遂げました。同時に、後処理に非最大抑制 (NMS) に依存すると、YOLO のエンドツーエンドの展開が妨げられ、推論レイテンシに悪影響を及ぼします。 YOLO では、さまざまなコンポーネントの設計に包括的かつ徹底的な検査が欠けており、その結果、大幅な計算冗長性が生じ、モデルの機能が制限されます。効率は最適ではありませんが、パフォーマンス向上の可能性は比較的大きくなります。この作業の目標は、後処理とモデル アーキテクチャの両方から YOLO のパフォーマンス効率の境界をさらに改善することです。この目的を達成するために

See all articles