Lernen und Nachdenken über Graph Computing
Gute Software wird nicht durch Programmanalyse und Fehlerprüfung gefunden, sondern wird von den richtigen Leuten erstellt.
Grafiken sind zu einem immer wichtigeren Rechenobjekt geworden. Die Grafikstruktur ist eine Abstraktion von Gruppenbeziehungen und kann umfangreiche Objekte und Beziehungen beschreiben. Der Kern der Graphenberechnung besteht darin, wie man Daten in eine Graphenstruktur modelliert und wie man die Lösung des Problems in ein Rechenproblem auf der Graphenstruktur umwandelt. Wenn das Problem eine Korrelationsanalyse beinhaltet, kann die Graphenberechnung oft die Lösung des Problems auf natürliche Weise herstellen ausgedrückt als eine Reihe von Operationen und Berechnungen an Graphstrukturen. Beispielsweise wird der PageRank-Algorithmus verwendet, der auf der Diagrammstruktur von Webseitenlinks basiert, um das Gewicht der Webseite zu ermitteln, das als Referenz für das Suchmaschinenranking verwendet wird. Die Benutzerverhaltensdaten der Diagrammstruktur werden verwendet, um genaue Informationen zu erhalten Gruppenpräferenzanalyse und personalisierte Produktempfehlungsergebnisse.
1. Was ist Graph Computing?
Graph Computing ist eine Technologie, die Dinge in der menschlichen Welt und die Beziehungen zwischen Dingen untersucht und sie beschreibt, charakterisiert, analysiert und berechnet. Der Graph hier ist „Graph“, nicht der Graph „Bild“, der aus der Graphentheorie in der Mathematik stammt.
Grafiken sind die flexibelste Verbindungsmethode und ermöglichen die uneingeschränkte Verbindung von Entitäten. Graph Computing ist nicht nur eine Technologie, sondern eine Möglichkeit, die Welt zu verstehen. Diagrammdaten können die Verbindungen zwischen Dingen gut beschreiben, einschließlich der Beschreibung der Richtung und Attribute der Verbindungen. Aus Sicht der Datenstruktur sind Diagramme ein nativer Ausdruck der Beziehungen zwischen Dingen. Bis zu einem gewissen Grad sollten relationale Datenbanken als Tabellendatenbanken bezeichnet werden, während Diagrammdatenbanken als relationale Datenbanken bezeichnet werden sollten. Im weitesten Sinne bezieht sich Graph Computing auf verschiedene Verarbeitungen basierend auf Graphdaten, einschließlich Graphdatenbanken.
Die Graph-Computing-Technologie löst die Probleme der geringen Effizienz und der hohen Kosten der damit verbundenen Abfragen in herkömmlichen Computermodi. Sie stellt die Beziehungen im Problembereich vollständig dar und verfügt über umfassende, effiziente und agile Datenanalysefunktionen:
- Datenmodell basierend auf der Graphabstraktion
- Parallele Abstraktion des Graphdatenmodells
- Systemoptimierung des Graphenmodells
Für die Graphberechnung sind Leistungskosten, Fehlertoleranzmechanismus und Skalierbarkeit sehr wichtig.
2. Betrachtung des Graphenrechnens aus der Perspektive der historischen Entwicklung
Graphenrechnen lässt sich auf baumstrukturierte Datenbanken in den 1970er und 1980er Jahren zurückführen, wie zum Beispiel LDM ( Logisches Datenmodell) usw. . Bis 2007 wurde die erste kommerzielle Graphdatenbank Neo4j eingerichtet, was den Eintritt des Graph Computing in eine Entwicklungsphase markierte.
Der eigentliche Beginn der Graph-Computing-Forschung ist, dass Google 2004 MapReduce entwickelte, ein Computermodell für die Parallelverarbeitung von Big Data. Die Einführung dieses Modells brachte einen enormen revolutionären Einfluss auf die Parallelverarbeitung von Big Data. Anschließend führte das Apache Hadoop-Team im Jahr 2006 das Hadoop Distributed File System (HDFS) und das neue Hadoop MapReduce-Framework ein. Im Jahr 2009 entwickelte das AMP Lab der University of California in Berkeley das Spark-System.
Seit 2010 haben Forschungsrichtungen im Bereich Graph Computing wie groß angelegte verteilte Architektur, multimodale Unterstützung und Design von Graph-Abfragesprachen nach und nach Aufmerksamkeit erregt. Google schlug Pregel vor, ein verteiltes Graph-Computing-System, das für die Eigenschaften von Graph-Algorithmen entwickelt wurde und dem BSP-Computing-Modell folgt. Anschließend schlug das CMU Select Laboratory GraphLab-Projektteam das GAS-Computing-Modell vor. . Obwohl Pregel und GraphLab beide Verarbeitungsframeworks für komplexe Berechnungen des maschinellen Lernens sind und für Iterationsberechnungen verwendet werden, gehen ihre Implementierungsmethoden unterschiedliche Wege: Pregel basiert auf einem Nachrichtenübermittlungsmechanismus für große Blöcke, und GraphLab basiert auf dem Speicherfreigabemechanismus einen tiefgreifenden Einfluss auf das spätere Design anderer Graph-Computing-Systeme.
Google hat im Mai 2012 das Konzept des Wissensgraphen vorgeschlagen, das eine neue Art der Verknüpfung von Informationen darstellt. Seine Grundeinheit ist das „Entitäts-Beziehungs-Entitäts“-Triplett, und Entitäten sind durch Beziehungen miteinander verbunden und bilden ein vernetztes Wissen Struktur. Der Kern der Erstellung von Wissensgraphen ist der Wissensschlussmechanismus von Computern, und Graph Computing bietet wichtige zugrunde liegende technische Unterstützung dafür.
Im Jahr 2015 öffnete sich mit dem rasanten Wachstum des Datenvolumens der Anwendungsmarkt schrittweise und die Nachfrage nach Skalierbarkeit und Effizienz von Graph-Computing-Systemen stieg weiter an. Die akademische und industrielle Forschung auf dem Gebiet des Graph-Computing in China hat damit begonnen, nach und nach eigene Graph-Computing-Systeme und -Plattformen zu entwickeln, wie beispielsweise Gemini der Tsinghua-Universität.
Mit der Entwicklung der Technologie der künstlichen Intelligenz haben in den letzten Jahren auch graphische neuronale Netze ihr Können in der Branche unter Beweis gestellt.
3. Betrachtung des Graph-Computing anhand des Framework-Modells
Das Framework des Graph-Computing folgt grundsätzlich dem BSP-Computing-Modell (Bulk Synchronous Parallell). Das einzigartige Merkmal des Massensynchronisationsmechanismus im BSP-Modus liegt in der Einführung des Superstep-Konzepts. Ein Berechnungsprozess besteht aus einer Reihe globaler Superschritte. Jeder Superschritt umfasst drei Phasen: parallele Berechnung (lokale Berechnung), globale Kommunikation (nicht lokale Datenkommunikation) und Zaunsynchronisierung (Warten auf das Ende des Kommunikationsverhaltens).
Der BSP-Modus weist die folgenden Merkmale auf:
Unterteilt Berechnungen nacheinander in Superschritte und vermeidet so effektiv Deadlocks;
Trennt Prozessoren und Router und betont die Trennung von Rechenaufgaben und Kommunikationsaufgaben, während Router nur Punkt-zu-Punkt-Nachrichtenübermittlung durchführen und bietet keine Funktionen wie Assemblieren, Kopieren und Senden, was nicht nur die spezifische Verbindungsnetzwerktopologie maskiert, sondern auch das Kommunikationsprotokoll vereinfacht
Übernehmen Sie den Synchronmodus, um eine globale Synchronisierung und eine steuerbare grobkörnige Ebene in der Hardware zu implementieren, um eng gekoppelte synchrone parallele Algorithmen auszuführen.
Einige repräsentative Graph-Computing-Frameworks sind wie folgt:
- Neo4j-APOC: Basierend auf der Graph-Datenbank unterstützt es einige grundlegende Graph-Algorithmen, und die verteilte Version ist nicht Open Source.
- Pgel: 2009 von Google vorgeschlagen, ist es der Begründer des Graph-Computing-Modells und viele nachfolgende Arbeiten wurden von seinen Ideen beeinflusst. Nicht Open Source.
- Giraph: Facebooks Open-Source-Implementierung basierend auf Pregels Ideen.
- Gemini: Die Tsinghua-Universität hat eine Reihe von Verbesserungen basierend auf Pregel-Ideen mit hervorragender Leistung umgesetzt. Es wird nur eine kostenlose Demo bereitgestellt, die kommerzielle Version ist nicht Open Source.
- KnightKing: Ein Graph-Computing-Framework, das speziell für Walker-Walking-Algorithmen entwickelt wurde und nicht universell ist.
- GraphX: Ein von der Apache Foundation implementiertes Graph-Computing-Framework auf Basis von Spark mit hoher Community-Aktivität.
- GraphLab (PowerGraph): kommerzielle Software, nicht Open Source. Wurde von Apple übernommen.
- Plato: Tencents C++-Open-Source-Implementierung basierend auf den Ideen von Gemini und KnightKing. Es handelt sich um ein leistungsstarkes, skalierbares und einfach anzuschließendes Graph-Computing-Framework.
4. Betrachtung von Graphberechnungen aus der Perspektive von Algorithmen
Der Graphalgorithmus bezieht sich auf eine einfache Methode, die bestimmte Eckpunkte und Kanten verwendet, um Antworten zu finden. Viele häufig verwendete Graphalgorithmen können für ungerichtete Graphen, gerichtete Graphen und Netzwerke verwendet werden. Für Diagrammdaten bilden Traversalalgorithmen (zuerst Tiefe/Breite) die Grundlage für andere Algorithmen. Zu den typischen Diagrammalgorithmen gehören PageRank, kürzester Pfad, verbundener Zweig, maximaler unabhängiger Satz, minimaler Spannbaum und Bayesian Belief Propagation. Der minimale Spannbaum eines Diagramms stellt häufig die niedrigsten Kosten oder minimalen Lebenskosten dar, und häufig werden der Prim-Algorithmus und der Kruskal-Algorithmus verwendet. Community Discovery, kürzester Pfad, topologische Sortierung und kritischer Pfad verfügen ebenfalls über entsprechende Algorithmen.
Graph-Algorithmen umfassen verschiedene Datenanalysetechnologien wie Suche, Matching, Klassifizierung und Auswertung. Sie können grob in zwei Kategorien aus der Algorithmusstrukturdimension unterteilt werden: durchquerungszentrierte Algorithmen und berechnungszentrierte Algorithmen. Traversierungszentrierte Algorithmen müssen den Graphen von bestimmten Eckpunkten aus auf eine bestimmte Weise durchlaufen, und es gibt eine große Menge an Direktzugriffen. Berechnungszentrierte Algorithmen erfordern eine große Anzahl von Operationen in einem Iterationszyklus und weisen eine relativ gute Datenlokalität auf.
5. Betrachtet man Graph Computing aus der Perspektive der Computerarchitektur? Bei Graph Computing handelt es sich im Allgemeinen um eine datengesteuerte Berechnung. Die Computerstruktur kann vor der Ausführung nicht genau vorhergesagt werden Es ist schwierig, es effizient und mit hoher Qualität aufzuteilen. Bestehende Caching-Mechanismen können den Datenzugriff oft nur mit guter Lokalität beschleunigen. Der Zugriff auf große Datenmengen führt häufig dazu, dass der Prozessor auf E/A wartet.
Die Belastung durch die Berechnung von Graphen ist komplex und es gibt keine repräsentativste Belastung für die Berechnung von Graphen. Die Kanten, die die Eckpunkte verbinden, stellen nur einen kleinen Teil der unzähligen möglichen Verbindungen dar und sind äußerst unregelmäßig. Beim Graphenrechnen ist die räumlich-zeitliche Lokalität des Lesens und Schreibens schwer zu erfassen und die Bandbreitenbelegung schwer vorherzusagen.
Die meisten Algorithmen belegen möglicherweise weniger als 50 % der Speicherbandbreite. Was begrenzt die Nutzung der Speicherbandbreite? Der Prozessor muss Anweisungen erhalten, zwischen den Befehlsfenstern ist Platz und die Registeroperanden müssen warten, bis die Operanden verfügbar sind, und die zugehörigen Abhängigkeiten werden nicht freigegeben. Aufgrund der hohen Befehlstrefferrate kann die Parallelität auf Speicherebene verringert sein, was es schwierig macht, die Speicherbandbreite der Plattform vollständig auszunutzen. Ein niedriges Cache-Datennutzungsverhältnis bedeutet, dass es für Anwendungen schwierig ist, von der räumlichen Lokalität zu profitieren, und die Strategie zum Vorabrufen von Daten wird ineffektiv sein. Das Vorabrufen von Daten trägt im Allgemeinen zur Verbesserung der Leistung bei, erzeugt jedoch auch eine große Anzahl nutzloser Vorabrufvorgänge. Bei Anwendungen mit begrenzter Speicherbandbreite oder Cache-Kapazität kann das Vorabrufen von Daten zu einer gewissen Ressourcenverschwendung führen. Im Fall von Multi-Thread-Computing wird das Auslösen von Remote-Speicherzugriffen mit höherer Latenz auch die Vorteile von Multi-Threading zunichte machen.
Welcher Prozessorkern wird für Graph Computing benötigt? Im Allgemeinen wird eine Architektur mit vielen kleinen Rechenkernen und einer hohen Anzahl von Threads verwendet, die sich für die Verarbeitung großer Diagrammberechnungen eignet, für die herkömmliche Mehrkernprozessoren nicht geeignet sind. Bei der gleichzeitigen Berechnung mehrerer Diagramme gibt es zwei Strategien: gemeinsame Zuweisung und exklusive Zuweisung. Die Shared Allocation-Strategie bedeutet, dass jede der m Anfragen parallel mit n logischen Kernen verarbeitet wird und das Betriebssystem die Vermittlung verschiedener Anfragen auf den logischen Kernen verwaltet. Die exklusive Zuweisungsstrategie bezieht sich auf die Zuweisung von n/m logischen Kernen zu jeder Anforderung, sodass die logischen Kerne nicht zwischen Aufgaben wechseln müssen. Die exklusive Zuordnungsstrategie eignet sich besser für gleichzeitige Diagrammberechnungen und kann normalerweise die Gesamtlaufzeit für dieselben gleichzeitigen Anforderungen verkürzen. Die geringe Konkurrenz des Neuordnungscache kann der Grund dafür sein, dass die exklusive Strategie in gleichzeitigen Graph-Computing-Szenarien besser ist als die gemeinsame Strategie.
Was den durch die Diagrammberechnung verursachten Stromverbrauch betrifft, führen Laständerungen zu Schwankungen der Systemleistung und Spitzen und Täler können schwanken. Zunehmende gleichzeitige Aufgaben verändern das Spitzen-Tief-Verhältnis und erhöhen den Stromverbrauch. Im Allgemeinen verbrauchen berechnungszentrierte Algorithmen im Durchschnitt viel Energie pro Befehl, während durchlaufzentrierte Algorithmen in Bezug auf den Speicherstromverbrauch den gegenteiligen Effekt haben und berechnungszentrierte Algorithmen weniger Speicher verbrauchen. Der durchschnittliche Energieverbrauch ist gering, und das Gegenteil gilt für durchquerungszentrierte Algorithmen.
Die meisten auf Graph-Computing basierenden Anwendungen sind speicherbegrenzt, es gibt jedoch auch eine unzureichende Speicherauslastung, die durch Einschränkungen der Kernkomponenten verursacht wird. Genügend aktive Threads sorgen für gleichzeitigen Zugriff, was die Auslastung verbessern kann. Es werden mehr Threads benötigt, aber aufgrund des Ungleichgewichts zwischen den Threads können diese möglicherweise nicht effizient genutzt werden. Es muss eine skalierbarere Parallelstrategie bereitgestellt werden, um die Speichernutzung mit hoher Bandbreite von Mehrkernprozessoren zu optimieren. Der Stromverbrauch und das Energieverbrauchsverhalten unterscheiden sich von der Anweisungsperspektive und der Scheitelpunktberechnungsperspektive, was präzise Energieverwaltungsmethoden erfordert und umfangreiche Anpassungen möglicherweise nicht effektiv sind.
6. Graph-Computing vom System aus betrachten
Basierend auf den Nutzungsszenarien und der Computerplattformarchitektur großer Graph-Computing-Systeme können sie in Einzel-Memory-Graph-Computing-Systeme und Einzel-Maschine-External-Memory-Graph-Computing-Systeme unterteilt werden und verteilte Speicher-Graph-Computing-Systeme und verteilte Speicher-Graph-Computing-Systeme.
Das Einzelmaschinen-Speicherdiagrammverarbeitungssystem ist ein Diagrammverarbeitungssystem, das in einer Einzelmaschinenumgebung ausgeführt wird und alle Diagrammdaten im Speicher puffert. Das eigenständige externe Speicherdiagrammverarbeitungssystem ist ein effizienter Diagrammalgorithmus, bei dem das Diagrammverarbeitungssystem in einer eigenständigen Umgebung ausgeführt wird und durch die Berechnung von Diagrammdaten kontinuierlich mit dem Speicher und der Festplatte interagiert. Das verteilte Speichersystem ist ein Diagrammverarbeitungssystem, das in einer verteilten Clusterumgebung ausgeführt wird und alle Diagrammdaten in den Speicher lädt. Das verteilte externe Speicher-Graph-Computing-System erweitert Einzelmaschinen-Out-of-Core-Systeme zu Clustern und kann Graphen mit Kanten in der Größenordnung von Billionen verarbeiten.
7. Betrachtung von Graph Computing durch KI
Das durch die Fusion von KI und Graph Computing erzeugte Graph Neural Network (GNN) ist derzeit ein sich schnell entwickelndes und wichtiges Feld. Wie lassen sich die Beziehungsdaten zwischen verschiedenen Entitäten mit neuronalen Netzen kombinieren? Das neuronale Netzwerk des Graphen nutzt das Repräsentationslernen. Durch die Struktur des Graphen wird jeder Knoten oder jede Kante zunächst durch einen Vektor dargestellt und dann mithilfe eines neuronalen Netzwerks weiterverarbeitet. Dies erweitert den Anwendungsbereich neuronaler Netzwerke und führt die Beziehung zwischen Entitäten in die KI-Verarbeitung ein.
Graphisches neuronales Netzwerk kann als Lernprozess für Graphenmerkmale angesehen werden, z. B. repräsentative Merkmale von Knoten oder repräsentative Merkmale auf Diagrammebene. Es verwendet im Allgemeinen die Attribute des Diagramms und die Struktur des Diagramms als Eingabe und gibt eine Reihe von aus aktualisierte Knotendarstellungen. Im Allgemeinen wird dieser Vorgang auch als Diagrammfiltervorgang bezeichnet. Durch die Diagrammfilterung werden Knotenfunktionen aktualisiert, die Struktur des Diagramms jedoch nicht geändert. Die Entwicklung graphischer neuronaler Netze basiert beispielsweise auf einer Faltungsverallgemeinerung der nichteuklidischen Distanz, die meisten GNNs basieren jedoch auf neuronalen Nachrichtenübermittlungsmethoden Übergangsalgorithmus, vorgeschlagen durch Analogie zum probabilistischen Denken in grafischen Modellen.
Ob es sich um eine Spektralmethode oder eine weltraumbasierte Idee handelt, das graphische neuronale Netzwerk kann endlich in einem auf Nachrichtenübermittlung basierenden Framework vereinheitlicht werden. Die Grundidee des GNN-Message-Passing-Frameworks besteht darin, dass jeder Knoten bei jeder Iteration die Informationen seiner Nachbarknoten aggregiert. Mit zunehmender Anzahl der Iterationen enthält jeder Knoten einen größeren Informationsbereich im Diagramm. Beispielsweise kann der zentrale Knoten nach k Iterationen die Informationen seiner k-Hop-Nachbarn erhalten. Die Schlüsselidee besteht darin, Knotendarstellungen basierend auf der Diagrammstruktur und bekannten Merkmalsinformationen zu generieren. GNN verwendet die Struktur- und Knotenmerkmalsinformationen im Diagramm, um Darstellungen mit tiefer Einbettung zu generieren, während die herkömmliche Methode zum Einbetten von Diagrammen nur die Strukturinformationen des Diagramms verwendet, um Ebeneneinbettungen durch Tabellensuche zu generieren.
7.1 GNN VS MLP/CNN/RNN
Knotennachbarn in Diagrammdaten weisen zwei Merkmale auf: Erstens ist die Anzahl unsicher, und zweitens ist die Reihenfolge so, dass MLP/CNN/RNN solche Nicht-Nachbarn nicht direkt verarbeiten kann. Europäische Daten können nur mit GNN modelliert werden. Tatsächlich kann GNN als allgemeineres Modell betrachtet werden. Beispielsweise entspricht RNN dem GNN in einem linearen Diagramm und Transformer entspricht dem GNN in einem vollständigen Diagramm.
7.2 GNN VS Graph Embedding
Viele Graph Embedding-Methoden sind vor GNN entstanden und werden häufig in der Vektorrückrufphase von Suchdiensten verwendet. Solche Methoden sind von Word2vec inspiriert, vom ursprünglichen Item2Vec bis hin zu Node2Vec Das Ausbalancieren von Homogenität und Struktur, die Verbesserung von MetaPath2Vec basierend auf der Heterogenität des Diagramms und die Einführung von Attributdaten zur Linderung der Spärlichkeit von Verhaltensdaten folgen alle dem Skip-Gram-Paradigma.
Im Vergleich zu diesen Methoden kann GNN Ende-zu-Ende basierend auf der Zielaufgabe trainiert werden, während das Einbetten von Diagrammen eher einem Vortraining ähnelt. Das Einbetten, das es erlernt, hängt nicht unbedingt mit der Zielaufgabe zusammen, insbesondere in Geschäftsszenarien Bei großen Stichprobengrößen ist die Einbettung durch End-to-End-Training effektiver als die Einbettung durch Vortraining.
Die hierarchische Netzwerkstruktur von GNN lässt sich leicht mit anderen Deep-Learning-Technologien wie GCN+Attentinotallow=GAT kombinieren. GNN kann auf induktive Aufgaben angewendet werden, d. h. wenn sich die Struktur des Diagramms ändert und einige neue Knoten hinzugefügt werden. Wenn es sich um eine Methode zur Einbettung von Diagrammen handelt, muss das Modell neu trainiert werden, und GNN kann eine dem GraphSage Node ähnliche Methode verwenden -Wise Sampling, wobei das bereits trainierte Modell direkt neue Knoten ableitet, und im Nachrichtenübermittlungsprozess können verschiedene Funktionen verwendet werden.
7.3 GNN VS Feature Concat & Collaborative Filtering & Proximity Loss
Feature Concat bedeutet, Features zusammenzufügen und dann Attributassoziationsinformationen erster Ordnung durch Feature-Schnittpunkt zu lernen. Collaborative Filtering kann auch Verhaltenskorrelationsinformationen erster Ordnung durch historisches Benutzerverhalten lernen. Näherungsverlust bedeutet, der Verlustfunktion reguläre Terme hinzuzufügen, um benachbarte Knoten ähnlicher zu machen. Einerseits ist dies jedoch eine implizite Methode. Wenn Sie andererseits sicherstellen möchten, dass Ähnlichkeitsbeziehungen höherer Ordnung gelernt werden, müssen Sie hinzufügen komplexer Der reguläre Term der K-Ordnung ist auch einer der Ausgangspunkte, als GCN vorgeschlagen wurde. Im Vergleich zu diesen drei Methoden kann GNN durch Stapeln mehrerer Schichten explizit Korrelationsinformationen höherer Ordnung lernen.
Beim Entwurf von graphischen neuronalen Netzen muss eine Schlüsselbedingung erfüllt sein, nämlich Permutationsinvarianz oder Permutationsäquivarianz. Das heißt, wenn die entworfene Funktion Diagrammdaten verarbeitet, wird sie nicht von der Reihenfolge der Knoten beeinflusst Die Reihenfolge der Ausgabe der sequentiellen Transformationsdomäne ist konsistent.
8. Zusammenfassung
Graph ist die flexibelste Verbindungsmethode, mit der Entitäten ohne Einschränkungen verbunden werden können. Graph Computing ist ein Bereich, der untersucht, wie Diagrammdaten in großen Datenmengen effizient berechnet, gespeichert und verwaltet werden. Es kann auf eine Vielzahl von Geschäftsszenarien angewendet werden, wie z. B. Kapitalmarktrisikomanagement, Life-Science-Forschung, Gesundheitsversorgung und Überwachung und Reaktion auf Verkehrsunfälle, intelligentes Infrastrukturmanagement usw. Graph Computing, das große Datenmengen effizient verarbeitet, kann die Entwicklung neuer Anwendungsbereiche wie die Analyse sozialer Netzwerke, die semantische Webanalyse, die Analyse biologischer Informationsnetzwerke und die Verarbeitung natürlicher Sprache fördern.
[Referenzmaterialien]
„Graph Computing of Artificial Intelligence“, Tsinghua University Institute of Artificial Intelligence, Beijing Zhiyuan Institute of Artificial Intelligence, Tsinghua-Academy of Engineering Knowledge Intelligence Joint Research Center, 2019-2
https : //www.php.cn/link/c9e5c2b59d98488fe1070e744041ea0e
https://www.php.cn/link/d40d35b3063c11244fbf38e9b55074be
https://www.php.cn / link/315f006f691ef2e689125614ea22cc61
https://www.php.cn/link/51d1cd3a02276948f566e6ea0a7d78cb
Das obige ist der detaillierte Inhalt vonLernen und Nachdenken über Graph Computing. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



DDREASE ist ein Tool zum Wiederherstellen von Daten von Datei- oder Blockgeräten wie Festplatten, SSDs, RAM-Disks, CDs, DVDs und USB-Speichergeräten. Es kopiert Daten von einem Blockgerät auf ein anderes, wobei beschädigte Blöcke zurückbleiben und nur gute Blöcke verschoben werden. ddreasue ist ein leistungsstarkes Wiederherstellungstool, das vollständig automatisiert ist, da es während der Wiederherstellungsvorgänge keine Unterbrechungen erfordert. Darüber hinaus kann es dank der ddasue-Map-Datei jederzeit gestoppt und fortgesetzt werden. Weitere wichtige Funktionen von DDREASE sind: Es überschreibt die wiederhergestellten Daten nicht, füllt aber die Lücken im Falle einer iterativen Wiederherstellung. Es kann jedoch gekürzt werden, wenn das Tool explizit dazu aufgefordert wird. Stellen Sie Daten aus mehreren Dateien oder Blöcken in einer einzigen wieder her

0.Was bewirkt dieser Artikel? Wir schlagen DepthFM vor: ein vielseitiges und schnelles generatives monokulares Tiefenschätzungsmodell auf dem neuesten Stand der Technik. Zusätzlich zu herkömmlichen Tiefenschätzungsaufgaben demonstriert DepthFM auch hochmoderne Fähigkeiten bei nachgelagerten Aufgaben wie dem Tiefen-Inpainting. DepthFM ist effizient und kann Tiefenkarten innerhalb weniger Inferenzschritte synthetisieren. Lassen Sie uns diese Arbeit gemeinsam lesen ~ 1. Titel der Papierinformationen: DepthFM: FastMonocularDepthEstimationwithFlowMatching Autor: MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

Wenn Sie wissen müssen, wie Sie die Filterung mit mehreren Kriterien in Excel verwenden, führt Sie das folgende Tutorial durch die Schritte, um sicherzustellen, dass Sie Ihre Daten effektiv filtern und sortieren können. Die Filterfunktion von Excel ist sehr leistungsstark und kann Ihnen dabei helfen, aus großen Datenmengen die benötigten Informationen zu extrahieren. Diese Funktion kann Daten entsprechend den von Ihnen festgelegten Bedingungen filtern und nur die Teile anzeigen, die die Bedingungen erfüllen, wodurch die Datenverwaltung effizienter wird. Mithilfe der Filterfunktion können Sie Zieldaten schnell finden und so Zeit beim Suchen und Organisieren von Daten sparen. Diese Funktion kann nicht nur auf einfache Datenlisten angewendet werden, sondern auch nach mehreren Bedingungen gefiltert werden, um Ihnen dabei zu helfen, die benötigten Informationen genauer zu finden. Insgesamt ist die Filterfunktion von Excel sehr praktisch

Die von Google geförderte Leistung von JAX hat in jüngsten Benchmark-Tests die von Pytorch und TensorFlow übertroffen und belegt bei 7 Indikatoren den ersten Platz. Und der Test wurde nicht auf der TPU mit der besten JAX-Leistung durchgeführt. Obwohl unter Entwicklern Pytorch immer noch beliebter ist als Tensorflow. Aber in Zukunft werden möglicherweise mehr große Modelle auf Basis der JAX-Plattform trainiert und ausgeführt. Modelle Kürzlich hat das Keras-Team drei Backends (TensorFlow, JAX, PyTorch) mit der nativen PyTorch-Implementierung und Keras2 mit TensorFlow verglichen. Zunächst wählen sie eine Reihe von Mainstream-Inhalten aus

Stehen Sie vor einer Verzögerung oder einer langsamen mobilen Datenverbindung auf dem iPhone? Normalerweise hängt die Stärke des Mobilfunk-Internets auf Ihrem Telefon von mehreren Faktoren ab, wie z. B. der Region, dem Mobilfunknetztyp, dem Roaming-Typ usw. Es gibt einige Dinge, die Sie tun können, um eine schnellere und zuverlässigere Mobilfunk-Internetverbindung zu erhalten. Fix 1 – Neustart des iPhone erzwingen Manchmal werden durch einen erzwungenen Neustart Ihres Geräts viele Dinge zurückgesetzt, einschließlich der Mobilfunkverbindung. Schritt 1 – Drücken Sie einfach einmal die Lauter-Taste und lassen Sie sie los. Drücken Sie anschließend die Leiser-Taste und lassen Sie sie wieder los. Schritt 2 – Der nächste Teil des Prozesses besteht darin, die Taste auf der rechten Seite gedrückt zu halten. Lassen Sie das iPhone den Neustart abschließen. Aktivieren Sie Mobilfunkdaten und überprüfen Sie die Netzwerkgeschwindigkeit. Überprüfen Sie es erneut. Fix 2 – Datenmodus ändern 5G bietet zwar bessere Netzwerkgeschwindigkeiten, funktioniert jedoch besser, wenn das Signal schwächer ist

Ich weine zu Tode. Die Daten im Internet reichen überhaupt nicht aus. Das Trainingsmodell sieht aus wie „Die Tribute von Panem“, und KI-Forscher auf der ganzen Welt machen sich Gedanken darüber, wie sie diese datenhungrigen Esser ernähren sollen. Dieses Problem tritt insbesondere bei multimodalen Aufgaben auf. Zu einer Zeit, als sie ratlos waren, nutzte ein Start-up-Team der Abteilung der Renmin-Universität von China sein eigenes neues Modell, um als erstes in China einen „modellgenerierten Datenfeed selbst“ in die Realität umzusetzen. Darüber hinaus handelt es sich um einen zweigleisigen Ansatz auf der Verständnisseite und der Generierungsseite. Beide Seiten können hochwertige, multimodale neue Daten generieren und Datenrückmeldungen an das Modell selbst liefern. Was ist ein Modell? Awaker 1.0, ein großes multimodales Modell, das gerade im Zhongguancun-Forum erschienen ist. Wer ist das Team? Sophon-Motor. Gegründet von Gao Yizhao, einem Doktoranden an der Hillhouse School of Artificial Intelligence der Renmin University.

Das neueste Video von Teslas Roboter Optimus ist veröffentlicht und er kann bereits in der Fabrik arbeiten. Bei normaler Geschwindigkeit sortiert es Batterien (Teslas 4680-Batterien) so: Der Beamte hat auch veröffentlicht, wie es bei 20-facher Geschwindigkeit aussieht – auf einer kleinen „Workstation“, pflücken und pflücken und pflücken: Dieses Mal wird es freigegeben. Eines der Highlights Der Vorteil des Videos besteht darin, dass Optimus diese Arbeit in der Fabrik völlig autonom und ohne menschliches Eingreifen während des gesamten Prozesses erledigt. Und aus Sicht von Optimus kann es auch die krumme Batterie aufnehmen und platzieren, wobei der Schwerpunkt auf der automatischen Fehlerkorrektur liegt: In Bezug auf die Hand von Optimus gab der NVIDIA-Wissenschaftler Jim Fan eine hohe Bewertung ab: Die Hand von Optimus ist der fünffingrige Roboter der Welt am geschicktesten. Seine Hände sind nicht nur taktil

Diese Woche gab FigureAI, ein Robotikunternehmen, an dem OpenAI, Microsoft, Bezos und Nvidia beteiligt sind, bekannt, dass es fast 700 Millionen US-Dollar an Finanzmitteln erhalten hat und plant, im nächsten Jahr einen humanoiden Roboter zu entwickeln, der selbstständig gehen kann. Und Teslas Optimus Prime hat immer wieder gute Nachrichten erhalten. Niemand zweifelt daran, dass dieses Jahr das Jahr sein wird, in dem humanoide Roboter explodieren. SanctuaryAI, ein in Kanada ansässiges Robotikunternehmen, hat kürzlich einen neuen humanoiden Roboter auf den Markt gebracht: Phoenix. Beamte behaupten, dass es viele Aufgaben autonom und mit der gleichen Geschwindigkeit wie Menschen erledigen kann. Pheonix, der weltweit erste Roboter, der Aufgaben autonom in menschlicher Geschwindigkeit erledigen kann, kann jedes Objekt sanft greifen, bewegen und elegant auf der linken und rechten Seite platzieren. Es kann Objekte autonom identifizieren
