


Google secara rasmi mengumumkan keluaran TensorFlow-GNN 1.0! Persampelan dinamik dan interaktif untuk membina rangkaian saraf graf pada skala
Pada tahun 2005, kemunculan karya pembuatan zaman "The Graph Neural Network Model" membawa rangkaian saraf graf kepada semua orang.
Sebelum ini, cara saintis memproses data graf adalah dengan menukar graf kepada satu set "perwakilan vektor" semasa peringkat prapemprosesan data.
Kemunculan CNN telah mengubah sepenuhnya kelemahan kehilangan maklumat ini Dalam tempoh 20 tahun yang lalu, generasi model terus berkembang, mempromosikan kemajuan dalam bidang ML.
Hari ini, Google secara rasmi mengumumkan keluaran TensorFlow GNN 1.0 (TF-GNN) - perpustakaan yang diuji pengeluaran untuk membina GNN pada skala.
Ia menyokong kedua-dua pemodelan dan latihan dalam TensorFlow, serta mengekstrak graf input daripada stor data yang besar.
TF-GNN dibina dari bawah untuk graf heterogen, di mana jenis objek dan perhubungan diwakili oleh set nod dan tepi yang berbeza.
Objek dan hubungannya di dunia nyata muncul dalam jenis yang berbeza, dan tumpuan heterogen TF-GNN menjadikannya sangat semula jadi untuk mewakilinya.
Saintis Google Anton Tsitsulin berkata bahawa pemodelan heterogen kompleks telah kembali!
TF-GNN 1.0 pertama kali dikeluarkan
Objek dan hubungannya ada di mana-mana di dunia kita.
Kepentingan hubungan untuk memahami objek tidak kurang pentingnya daripada melihat sifat objek itu sendiri secara berasingan, seperti rangkaian pengangkutan, rangkaian pengeluaran, graf pengetahuan atau rangkaian sosial.
Matematik diskret dan sains komputer telah lama memformalkan rangkaian seperti graf, yang terdiri daripada "nod" yang disambungkan secara sewenang-wenang oleh tepi dalam pelbagai cara yang tidak teratur.
Walau bagaimanapun, kebanyakan algoritma pembelajaran mesin hanya membenarkan perhubungan tetap dan seragam antara objek input, seperti grid piksel, urutan perkataan atau tiada perhubungan langsung.
Graphic Neural Network, atau singkatannya GNN, ialah teknologi berkuasa yang bukan sahaja boleh mengeksploitasi ketersambungan graf (seperti algoritma awal DeepWalk dan Node2Vec), tetapi juga menggunakan ciri input nod dan tepi yang berbeza.
GNN boleh berfungsi pada graf secara keseluruhan (adakah molekul ini bertindak balas dalam beberapa cara?), nod individu (mengikut petikan, apakah topik dokumen ini?), tepi berpotensi (ini Is produk yang mungkin dibeli dengan produk lain ) untuk ramalan.
Selain membuat ramalan pada graf, GNN ialah alat yang berkuasa untuk merapatkan jurang daripada kes penggunaan rangkaian saraf yang lebih tipikal.
Mereka mengekod maklumat hubungan diskret graf secara berterusan, membolehkannya digabungkan secara semula jadi ke dalam sistem pembelajaran mendalam yang lain.
Google hari ini secara rasmi mengumumkan TensorFlow GNN 1.0 (TF-GNN), perpustakaan yang diuji pengeluaran untuk membina GNN pada skala.
Dalam TensorFlow, graf sedemikian diwakili oleh objek jenis tfgnn.GraphTensor.
Ini ialah jenis tensor komposit (kumpulan tensor dalam kelas Python), diterima sebagai "objek kelas pertama" dalam tf.data.Dataset , tf.function dsb.
Ia boleh menyimpan bukan sahaja struktur graf, tetapi juga ciri-ciri nod, tepi dan keseluruhan graf.
Transformasi yang boleh dilatih untuk GraphTensors boleh ditakrifkan sebagai objek Lapisan dalam API Kera peringkat tinggi, atau terus menggunakan tfgnn.GraphTensor primitif.
GNN: Ramalan objek dalam konteks
Seterusnya, terangkan lagi TF-GNN, anda boleh melihat salah satu aplikasi biasa:
Ramalan rujukan silang dalam pangkalan data rujukan silang yang besar jenis nod tertentu dalam graf yang ditakrifkan oleh jadual
Sebagai contoh, dalam kertas arxiv pangkalan data sains komputer (CS), terdapat petikan satu-dengan-banyak dan hubungan petikan banyak-dengan-satu, yang boleh meramalkan kawasan subjek setiap kertas.
Seperti kebanyakan rangkaian saraf, GNN dilatih pada set data dengan banyak sampel berlabel (kira-kira berjuta-juta), tetapi setiap langkah latihan hanya terdiri daripada sekumpulan sampel latihan yang jauh lebih kecil (seperti Beratus-ratus).
Untuk menskalakan kepada berjuta-juta sampel, GNN dilatih pada aliran subgraf yang agak kecil dalam graf asas. Setiap subgraf mengandungi data mentah yang mencukupi untuk mengira keputusan GNN bagi nod berlabel pusat dan melatih model.
Proses ini, selalunya dipanggil pensampelan subgraf, amat penting untuk latihan GNN.
Kebanyakan alatan sedia ada melengkapkan pensampelan dalam cara kelompok dan menjana subgraf statik untuk latihan.
Dan TF-GNN menyediakan alatan untuk menambah baik perkara ini melalui pensampelan dinamik dan interaktif.
Proses pensampelan subgraf, yang mengekstrak subgraf kecil yang boleh diambil tindakan daripada graf yang lebih besar untuk mencipta contoh input untuk latihan GNN
TF-GNN 1.0 memperkenalkan subgraf Python yang fleksibel, atau untuk subconfiguring API flexible pensampelan semua skala yang berkaitan: pensampelan interaktif dalam nota Colab.
Secara khusus, "pensampelan cekap" set data kecil yang disimpan dalam memori utama hos latihan tunggal, atau set data besar (sehingga ratusan juta nod dan data) yang disimpan dalam sistem fail rangkaian melalui Apache Beam tepi) untuk pensampelan teragih.
Pada subgraf sampel yang sama ini, tugas GNN adalah untuk mengira keadaan tersembunyi (atau potensi) nod punca agregat keadaan tersembunyi dan mengekod maklumat yang berkaitan kejiranan nod akar.
Kaedah biasa ialah "message passing neural network".
Dalam setiap pusingan pemesejan, nod menerima mesej daripada nod jiran di sepanjang tepi masuk dan mengemas kini keadaan tersembunyinya sendiri daripada tepi ini.
Selepas n pusingan, keadaan tersembunyi nod punca mencerminkan maklumat agregat semua nod dalam n tepi (seperti ditunjukkan dalam rajah di bawah, n=2). Mesej dan keadaan tersembunyi baharu dikira oleh lapisan tersembunyi rangkaian saraf.
Dalam graf heterogen, selalunya masuk akal untuk menggunakan lapisan tersembunyi yang dilatih secara berasingan untuk pelbagai jenis nod dan tepi. . nod. Setelah nod akar dicapai, ramalan akhir boleh dibuat
Persediaan latihan adalah dengan meletakkan lapisan output di atas keadaan tersembunyi GNN nod berlabel, mengira kerugian (untuk mengukur ralat ramalan) dan mengemas kini model melalui perambatan belakang Ini dilakukan menggunakan pemberat, yang biasa dalam mana-mana latihan rangkaian saraf.
Selain latihan diselia, GNN juga boleh dilatih dengan cara tanpa pengawasan, membolehkan kami mengira perwakilan berterusan (atau pembenaman) struktur graf diskret nod dan cirinya.
Perwakilan ini kemudiannya biasanya digunakan dalam sistem ML lain.
Dengan cara ini, maklumat hubungan diskret yang dikodkan oleh graf boleh digabungkan ke dalam kes penggunaan rangkaian saraf yang lebih tipikal. TF-GNN menyokong spesifikasi terperinci bagi sasaran yang tidak diawasi pada graf heterogen.
Membina seni bina GNN
Perpustakaan TF-GNN menyokong pembinaan dan latihan GNN pada tahap abstraksi yang berbeza.
Pada tahap tertinggi, pengguna boleh menggunakan mana-mana model pratakrif yang digabungkan dengan perpustakaan, yang diwakili sebagai lapisan Kera.
Selain set kecil model daripada literatur penyelidikan, TF-GNN didatangkan dengan templat model yang sangat boleh dikonfigurasikan yang menyediakan pilihan pemodelan yang dipilih dengan teliti.
Google menemui pilihan ini, memberikan garis dasar yang kukuh untuk banyak isu dalaman kami. Templat melaksanakan lapisan GNN pengguna hanya perlu memulakannya bermula dari lapisan Kera.
import tensorflow_gnn as tfgnnfrom tensorflow_gnn.models import mt_albisdef model_fn(graph_tensor_spec: tfgnn.GraphTensorSpec):"""Builds a GNN as a Keras model."""graph = inputs = tf.keras.Input(type_spec=graph_tensor_spec)# Encode input features (callback omitted for brevity).graph = tfgnn.keras.layers.MapFeatures(node_sets_fn=set_initial_node_states)(graph)# For each round of message passing...for _ in range(2):# ... create and apply a Keras layer.graph = mt_albis.MtAlbisGraphUpdate(units=128, message_dim=64,attention_type="none", simple_conv_reduce_type="mean",normalization_type="layer", next_state_type="residual",state_dropout_rate=0.2, l2_regularizatinotallow=1e-5,)(graph)return tf.keras.Model(inputs, graph)
在最低层,用户可以根据用于在图中传递数据的原语,从头开始编写GNN模型,比如将数据从节点广播到其所有传出边,或将数据从其所有传入边汇集到节点中。
当涉及到特征或隐藏状态时,TF-GNN 的图数据模型对节点、边和整个输入图一视同仁。
因此,它不仅可以直接表示像MPNN那样以节点为中心的模型,而且还可以表示更一般形式的的图网络。
这可以(但不一定)使用Kera作为核心TensorFlow顶部的建模框架来完成。
训练编排
虽然高级用户可以自由地进行定制模型训练,但TF-GNN Runner还提供了一种简洁的方法,在常见情况下协调Kera模型的训练。
一个简单的调用可能如下所示:
from tensorflow_gnn import runnerrunner.run( task=runner.RootNodeBinaryClassification("papers", ...), model_fn=model_fn, trainer=runner.KerasTrainer(tf.distribute.MirroredStrategy(), model_dir="/tmp/model"), optimizer_fn=tf.keras.optimizers.Adam, epochs=10, global_batch_size=128, train_ds_provider=runner.TFRecordDatasetProvider("/tmp/train*"), valid_ds_provider=runner.TFRecordDatasetProvider("/tmp/validation*"), gtspec=...,)
Runner为ML Pain提供了现成的解决方案,如分布式训练和云TPU上固定形状的 tfgnn.GraphTensor 填充。
除了单一任务的训练(如上所示)外,它还支持多个(两个或更多)任务的联合训练。
例如,非监督任务可以与监督任务混合,以形成具有特定于应用的归纳偏差的最终连续表示(或嵌入)。调用方只需将任务参数替换为任务映射:
from tensorflow_gnn import runnerfrom tensorflow_gnn.models import contrastive_lossesrunner.run( task={"classification": runner.RootNodeBinaryClassification("papers", ...),"dgi": contrastive_losses.DeepGraphInfomaxTask("papers"),},...)
此外,TF-GNN Runner还包括用于模型归因的集成梯度实现。
集成梯度输出是一个GraphTensor,其连接性与观察到的GraphTensor相同,但其特征用梯度值代替,在GNN预测中,较大的梯度值比较小的梯度值贡献更多。
总之,谷歌希望TF-GNN将有助于推动GNN在TensorFlow中的大规模应用,并推动该领域的进一步创新。
Atas ialah kandungan terperinci Google secara rasmi mengumumkan keluaran TensorFlow-GNN 1.0! Persampelan dinamik dan interaktif untuk membina rangkaian saraf graf pada skala. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Bayangkan model kecerdasan buatan yang bukan sahaja mempunyai keupayaan untuk mengatasi pengkomputeran tradisional, tetapi juga mencapai prestasi yang lebih cekap pada kos yang lebih rendah. Ini bukan fiksyen sains, DeepSeek-V2[1], model MoE sumber terbuka paling berkuasa di dunia ada di sini. DeepSeek-V2 ialah gabungan model bahasa pakar (MoE) yang berkuasa dengan ciri-ciri latihan ekonomi dan inferens yang cekap. Ia terdiri daripada 236B parameter, 21B daripadanya digunakan untuk mengaktifkan setiap penanda. Berbanding dengan DeepSeek67B, DeepSeek-V2 mempunyai prestasi yang lebih kukuh, sambil menjimatkan 42.5% kos latihan, mengurangkan cache KV sebanyak 93.3% dan meningkatkan daya pemprosesan penjanaan maksimum kepada 5.76 kali. DeepSeek ialah sebuah syarikat yang meneroka kecerdasan buatan am

Awal bulan ini, penyelidik dari MIT dan institusi lain mencadangkan alternatif yang sangat menjanjikan kepada MLP - KAN. KAN mengatasi MLP dari segi ketepatan dan kebolehtafsiran. Dan ia boleh mengatasi prestasi MLP berjalan dengan bilangan parameter yang lebih besar dengan bilangan parameter yang sangat kecil. Sebagai contoh, penulis menyatakan bahawa mereka menggunakan KAN untuk menghasilkan semula keputusan DeepMind dengan rangkaian yang lebih kecil dan tahap automasi yang lebih tinggi. Khususnya, MLP DeepMind mempunyai kira-kira 300,000 parameter, manakala KAN hanya mempunyai kira-kira 200 parameter. KAN mempunyai asas matematik yang kukuh seperti MLP berdasarkan teorem penghampiran universal, manakala KAN berdasarkan teorem perwakilan Kolmogorov-Arnold. Seperti yang ditunjukkan dalam rajah di bawah, KAN telah

Baru-baru ini, bulatan tentera telah terharu dengan berita: jet pejuang tentera AS kini boleh melengkapkan pertempuran udara automatik sepenuhnya menggunakan AI. Ya, baru-baru ini, jet pejuang AI tentera AS telah didedahkan buat pertama kali, mendedahkan misterinya. Nama penuh pesawat pejuang ini ialah Variable Stability Simulator Test Aircraft (VISTA). Ia diterbangkan sendiri oleh Setiausaha Tentera Udara AS untuk mensimulasikan pertempuran udara satu lawan satu. Pada 2 Mei, Setiausaha Tentera Udara A.S. Frank Kendall berlepas menggunakan X-62AVISTA di Pangkalan Tentera Udara Edwards Ambil perhatian bahawa semasa penerbangan selama satu jam, semua tindakan penerbangan telah diselesaikan secara autonomi oleh AI! Kendall berkata - "Sejak beberapa dekad yang lalu, kami telah memikirkan tentang potensi tanpa had pertempuran udara-ke-udara autonomi, tetapi ia sentiasa kelihatan di luar jangkauan." Namun kini,

Video terbaru robot Tesla Optimus dikeluarkan, dan ia sudah boleh berfungsi di kilang. Pada kelajuan biasa, ia mengisih bateri (bateri 4680 Tesla) seperti ini: Pegawai itu juga mengeluarkan rupanya pada kelajuan 20x - pada "stesen kerja" kecil, memilih dan memilih dan memilih: Kali ini ia dikeluarkan Salah satu sorotan video itu ialah Optimus menyelesaikan kerja ini di kilang, sepenuhnya secara autonomi, tanpa campur tangan manusia sepanjang proses. Dan dari perspektif Optimus, ia juga boleh mengambil dan meletakkan bateri yang bengkok, memfokuskan pada pembetulan ralat automatik: Berkenaan tangan Optimus, saintis NVIDIA Jim Fan memberikan penilaian yang tinggi: Tangan Optimus adalah robot lima jari di dunia paling cerdik. Tangannya bukan sahaja boleh disentuh

Untuk menyelaraskan model bahasa besar (LLM) dengan nilai dan niat manusia, adalah penting untuk mempelajari maklum balas manusia untuk memastikan bahawa ia berguna, jujur dan tidak berbahaya. Dari segi penjajaran LLM, kaedah yang berkesan ialah pembelajaran pengukuhan berdasarkan maklum balas manusia (RLHF). Walaupun keputusan kaedah RLHF adalah cemerlang, terdapat beberapa cabaran pengoptimuman yang terlibat. Ini melibatkan latihan model ganjaran dan kemudian mengoptimumkan model dasar untuk memaksimumkan ganjaran tersebut. Baru-baru ini, beberapa penyelidik telah meneroka algoritma luar talian yang lebih mudah, salah satunya ialah pengoptimuman keutamaan langsung (DPO). DPO mempelajari model dasar secara langsung berdasarkan data keutamaan dengan meparameterkan fungsi ganjaran dalam RLHF, sekali gus menghapuskan keperluan untuk model ganjaran yang jelas. Kaedah ini mudah dan stabil

Di barisan hadapan teknologi perisian, kumpulan UIUC Zhang Lingming, bersama penyelidik dari organisasi BigCode, baru-baru ini mengumumkan model kod besar StarCoder2-15B-Instruct. Pencapaian inovatif ini mencapai kejayaan ketara dalam tugas penjanaan kod, berjaya mengatasi CodeLlama-70B-Instruct dan mencapai bahagian atas senarai prestasi penjanaan kod. Keunikan StarCoder2-15B-Instruct terletak pada strategi penjajaran diri yang tulen Keseluruhan proses latihan adalah terbuka, telus, dan sepenuhnya autonomi dan boleh dikawal. Model ini menjana beribu-ribu arahan melalui StarCoder2-15B sebagai tindak balas kepada penalaan halus model asas StarCoder-15B tanpa bergantung pada anotasi manual yang mahal.

Minggu lalu, di tengah gelombang peletakan jawatan dalaman dan kritikan luar, OpenAI dibelenggu oleh masalah dalaman dan luaran: - Pelanggaran kakak balu itu mencetuskan perbincangan hangat global - Pekerja menandatangani "fasal tuan" didedahkan satu demi satu - Netizen menyenaraikan " Ultraman " tujuh dosa maut" ” Pembasmi khabar angin: Menurut maklumat dan dokumen bocor yang diperolehi oleh Vox, kepimpinan kanan OpenAI, termasuk Altman, sangat mengetahui peruntukan pemulihan ekuiti ini dan menandatanganinya. Di samping itu, terdapat isu serius dan mendesak yang dihadapi oleh OpenAI - keselamatan AI. Pemergian lima pekerja berkaitan keselamatan baru-baru ini, termasuk dua pekerjanya yang paling terkemuka, dan pembubaran pasukan "Penjajaran Super" sekali lagi meletakkan isu keselamatan OpenAI dalam perhatian. Majalah Fortune melaporkan bahawa OpenA

Ditulis di atas & pemahaman peribadi pengarang: Kertas kerja ini didedikasikan untuk menyelesaikan cabaran utama model bahasa besar multimodal semasa (MLLM) dalam aplikasi pemanduan autonomi, iaitu masalah melanjutkan MLLM daripada pemahaman 2D kepada ruang 3D. Peluasan ini amat penting kerana kenderaan autonomi (AV) perlu membuat keputusan yang tepat tentang persekitaran 3D. Pemahaman spatial 3D adalah penting untuk AV kerana ia memberi kesan langsung kepada keupayaan kenderaan untuk membuat keputusan termaklum, meramalkan keadaan masa depan dan berinteraksi dengan selamat dengan alam sekitar. Model bahasa besar berbilang mod semasa (seperti LLaVA-1.5) selalunya hanya boleh mengendalikan input imej resolusi rendah (cth.) disebabkan oleh had resolusi pengekod visual, had panjang jujukan LLM. Walau bagaimanapun, aplikasi pemanduan autonomi memerlukan
