NTU hat ein neues RAM-Modell vorgeschlagen, bei dem Meta verwendet wird, um alles aufzuteilen und eine Beziehung herzustellen. Der Sneak-Attack-Effekt mit Gesang und Tanz ist hervorragend!

王林
Freigeben: 2023-05-10 10:22:09
nach vorne
966 Leute haben es durchsucht

Anfang dieses Monats schockierte das von Meta eingeführte „Split Everything“-Modell den gesamten CV-Kreis.

In den letzten Tagen ist ein maschinelles Lernmodell namens „Relate-Anything-Model (RAM)“ aufgetaucht. Es gibt dem Segment Anything Model (SAM) die Möglichkeit, verschiedene visuelle Beziehungen zwischen verschiedenen visuellen Konzepten zu identifizieren.

Es versteht sich, dass das Modell vom MMLab-Team der Nanyang Technological University und Studenten des VisCom Laboratory des King's College London und der Tongji University in ihrer Freizeit entwickelt wurde.

NTU hat ein neues RAM-Modell vorgeschlagen, bei dem Meta verwendet wird, um alles aufzuteilen und eine Beziehung herzustellen. Der Sneak-Attack-Effekt mit Gesang und Tanz ist hervorragend!

Demo-Adresse: https://huggingface.co/spaces/mmlab-ntu/relate-anything-model

Code-Adresse: https://github.com/ Luodian/RelateAnything

Datensatzadresse: https://github.com/Jingkang50/OpenPSG

Effektdemonstration

Werfen wir zunächst einen Blick auf „Relate-Anything-Model (RAM)“ „Anwendungsbeispiele!

Zum Beispiel sind die folgenden Bildanalyseergebnisse der RAM-Modellimplementierung von Fußballspielen, Tanzen und Freundschaften schließen sehr beeindruckend und zeigen deutlich die hervorragende Leistung und das Potenzial des Modells für vielfältige Anwendungen.

NTU hat ein neues RAM-Modell vorgeschlagen, bei dem Meta verwendet wird, um alles aufzuteilen und eine Beziehung herzustellen. Der Sneak-Attack-Effekt mit Gesang und Tanz ist hervorragend!

NTU hat ein neues RAM-Modell vorgeschlagen, bei dem Meta verwendet wird, um alles aufzuteilen und eine Beziehung herzustellen. Der Sneak-Attack-Effekt mit Gesang und Tanz ist hervorragend!

NTU hat ein neues RAM-Modell vorgeschlagen, bei dem Meta verwendet wird, um alles aufzuteilen und eine Beziehung herzustellen. Der Sneak-Attack-Effekt mit Gesang und Tanz ist hervorragend!

Vorkenntnisse: Vollständige Szenendiagramm-Generierung PSG-Aufgabe

RAM-Modell basierend auf ECCV'22 SenseHuman Workshop & International Algorithmus-Beispielwettbewerb „Panoptic Scene Graph“. Generation“-Streckenmeisterschaftsprogramm.

NTU hat ein neues RAM-Modell vorgeschlagen, bei dem Meta verwendet wird, um alles aufzuteilen und eine Beziehung herzustellen. Der Sneak-Attack-Effekt mit Gesang und Tanz ist hervorragend!

Papieradresse: https://arxiv.org/abs/2302.02651

Die PSG Challenge hat ein Preisgeld von einer Million und hat verschiedene Lösungen von 100 Teams aus der ganzen Welt erhalten Zu den Lösungen gehören die Verwendung fortschrittlicher Bildsegmentierungsmethoden und die Lösung von Long-Tail-Problemen. Darüber hinaus erhielt der Wettbewerb auch einige innovative Ansätze, wie beispielsweise szenengraphenspezifische Datenanreicherungstechniken.

Nach der Bewertung stach das GRNet des Xiaohongshu-Teams aufgrund von Überlegungen wie Leistungsindikatoren, Neuheit und Bedeutung der Lösung als Gewinnermethode hervor.

NTU hat ein neues RAM-Modell vorgeschlagen, bei dem Meta verwendet wird, um alles aufzuteilen und eine Beziehung herzustellen. Der Sneak-Attack-Effekt mit Gesang und Tanz ist hervorragend!

Wettbewerbsdetails: https://github.com/Jingkang50/OpenPSG

Bevor wir die Lösung vorstellen, stellen wir zunächst zwei klassische PSG-Grundlinienmethoden vor, darunter eine zweistufige Methode und die andere ist eine einstufige Methode.

Für die zweistufige Basislinienmethode, wie in Abbildung a dargestellt, wird in der ersten Stufe das vorab trainierte Panorama-Segmentierungsmodell Panoptic FPN verwendet, um Merkmale, Segmentierung und Klassifizierungsvorhersagen zu extrahieren aus dem Bild. Die Merkmale jedes einzelnen Objekts werden dann in der zweiten Stufe einem klassischen Szenengraphgenerator wie IMP zur Generierung von Szenengraphen zugeführt, die an die PSG-Aufgabe angepasst sind. Durch diesen zweistufigen Ansatz kann die klassische SGG-Methode mit minimalen Modifikationen an die PSG-Aufgabe angepasst werden.

Wie in Abbildung b gezeigt, verwendet die einstufige Basismethode PSGTR zunächst CNN, um Bildmerkmale zu extrahieren, und verwendet dann einen Transformator Encoder ähnlich dem DETR-Decoder zum direkten Lernen von Triplettdarstellungen. Der ungarische Matcher wird verwendet, um vorhergesagte Triples mit Ground-Truth-Triples zu vergleichen. Das Optimierungsziel besteht dann darin, die Kosten der Matcher-Berechnung zu maximieren, und der Gesamtverlust wird unter Verwendung des Kreuzentropie-DICE/F-1-Verlusts für die Kennzeichnung und Segmentierung berechnet. #🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜#RAM Model Architecture#🎜🎜 ## 🎜🎜 ## 🎜🎜 #Im Entwurfsprozess des RAM-Modells verwies der Autor auf das zweistufige Strukturparadigma der Meisterschaftslösung GRNet von PSG. Obwohl die Forschung im ursprünglichen PSG-Artikel zeigt, dass einstufige Modelle derzeit eine bessere Leistung erbringen als zweistufige Modelle, können einstufige Modelle häufig nicht die gleiche gute Segmentierungsleistung wie zweistufige Modelle erzielen.

NTU hat ein neues RAM-Modell vorgeschlagen, bei dem Meta verwendet wird, um alles aufzuteilen und eine Beziehung herzustellen. Der Sneak-Attack-Effekt mit Gesang und Tanz ist hervorragend!

Nach der Beobachtung verschiedener Modellstrukturen wird spekuliert, dass die hervorragende Leistung des einstufigen Modells bei der Vorhersage relationaler Tripel darauf zurückzuführen sein könnte Zur Erfassung von Zusammenhängen sind direkte Überwachungssignale aus Bildmerkmalskarten von Vorteil.

Basierend auf dieser Beobachtung zielt das Design von RAM wie GRNet darauf ab, durch Fokussierung einen Kompromiss zwischen den beiden Modi zu finden auf dem zweistufigen Paradigma und gibt ihm die Möglichkeit, einen globalen Kontext zu erhalten, der dem einstufigen Paradigma ähnelt.

Insbesondere wird Segment Anything Model (SAM) zunächst als Merkmalsextraktor verwendet, um Objekte im Bild zu identifizieren und zu segmentieren -spezifische Zwischenmerkmalskarten vom SAM-Segmentierer werden mit ihren entsprechenden Segmentierungen zusammengeführt, um Merkmale auf Objektebene zu erhalten.

Anschließend wird der Transformer als globales Kontextmodul verwendet und die erhaltenen Funktionen auf Objektebene werden nach linearer Zuordnung darin eingegeben . Durch den Cross-Attention-Mechanismus im Transformer-Encoder sammeln die Ausgabeobjektfunktionen mehr globale Informationen von anderen Objekten.

Abschließend wird für jede vom Transformer ausgegebene Funktion auf Objektebene der Selbstaufmerksamkeitsmechanismus verwendet, um die Kontextinformationen weiter anzureichern und sorgen Sie dafür, dass jedes Objekt die Interaktion vervollständigt.

Bitte beachten Sie, dass hier auch eine Kategorieeinbettung hinzugefügt wird, um die Kategorie des Objekts anzugeben, und daraus erhalten wir Objektpaare und Vorhersage der Beziehung zwischen ihnen.

RAM-Beziehungsklassifizierung Während des Trainingsprozesses muss für jede Beziehungskategorie eine Beziehung zwei sein führte eine Metaklassifizierungsaufgabe durch, um festzustellen, ob eine Beziehung zwischen Objektpaaren besteht.

Ähnlich wie bei GRNet gibt es einige besondere Überlegungen für relationale binäre Klassifizierungsaufgaben. PSG-Datensätze enthalten beispielsweise normalerweise zwei Objekte mit mehreren Beziehungen, z. B. „Menschen schauen sich Elefanten an“ und „Menschen füttern Elefanten“ existieren gleichzeitig. Um das Multi-Label-Problem zu lösen, konvertieren die Autoren die Beziehungsvorhersage von einem Single-Label-Klassifizierungsproblem in ein Multi-Label-Klassifizierungsproblem.

Darüber hinaus verbessert der PSG-Datensatz die Leistung, indem er vom Annotator verlangt, ein spezifisches und präzises Prädikat auszuwählen (z. B. „Stopp bei“. „anstelle eines allgemeineren „在“), um Genauigkeit und Korrelation zu verfolgen, ist es möglicherweise nicht zum Erlernen von Grenzbeziehungen geeignet (z. B. „在“ existiert tatsächlich gleichzeitig mit „stop“). Um dieses Problem zu lösen, wendet RAM eine Selbsttrainingsstrategie an, die selbstdestillierte Etiketten für die Beziehungsklassifizierung verwendet und einen exponentiellen gleitenden Durchschnitt verwendet, um Etiketten dynamisch zu aktualisieren.

Andere RAM-Designs

Bei der Berechnung des relationalen binären Klassifizierungsverlusts muss jedes vorhergesagte Objekt mit seinem entsprechenden Grundwahrheitsobjekt gepaart werden. Hierzu wird der ungarische Matching-Algorithmus verwendet.

Dieser Algorithmus ist jedoch anfällig für Instabilität, insbesondere in den frühen Trainingsphasen, wenn die Netzwerkgenauigkeit gering ist. Dies kann zu unterschiedlichen Matching-Ergebnissen für dieselbe Eingabe führen, was zu inkonsistenten Netzwerkoptimierungsrichtungen führt und das Training schwieriger macht.

Im RAM kann der Autor im Gegensatz zur vorherigen Lösung mithilfe des leistungsstarken SAM-Modells eine vollständige und detaillierte Segmentierung nahezu jedes Bildes durchführen. Daher wird RAM beim Matching von Vorhersage und GT auf natürliche Weise entworfen Neue GT-Matching-Methode: Verwenden Sie den PSG-Datensatz, um das Modell zu trainieren.

Für jedes Trainingsbild segmentiert SAM mehrere Objekte, aber nur wenige stimmen mit der Ground Truth (GT)-Maske von PSG überein. Die Autoren führen ein einfaches Matching basierend auf ihren Intersektions-Union-Scores (IOU) durch, sodass (fast) jede GT-Maske einer SAM-Maske zugeordnet wird. Anschließend generierte der Autor das Beziehungsdiagramm basierend auf der SAM-Maske neu, was natürlich mit den Vorhersagen des Modells übereinstimmte.

Zusammenfassung des RAM-Modells

Im RAM-Modell verwendet der Autor das Segment Anything Model (SAM), um Objekte im Bild zu identifizieren und zu segmentieren und die Merkmale jedes segmentierten Objekts zu extrahieren. Das Transformer-Modul wird dann verwendet, um zwischen segmentierten Objekten zu interagieren und neue Funktionen zu erhalten. Nachdem diese Merkmale schließlich in Kategorien eingebettet wurden, werden die Vorhersageergebnisse über den Selbstaufmerksamkeitsmechanismus ausgegeben.

Insbesondere während des Trainingsprozesses schlägt der Autor eine neue GT-Matching-Methode vor und berechnet basierend auf dieser Methode die Paarungsbeziehung zwischen Vorhersagen und GT und klassifiziert ihre gegenseitigen Beziehungen. Der Autor betrachtet den überwachten Lernprozess der Beziehungsklassifizierung als ein Klassifizierungsproblem mit mehreren Etiketten und wendet eine Selbsttrainingsstrategie an, um die Grenzbeziehungen von Etiketten zu lernen.

Abschließend hoffe ich, dass das RAM-Modell Ihnen mehr Inspiration und Innovation bringen kann. Wenn Sie auch ein maschinelles Lernmodell trainieren möchten, das Zusammenhänge finden kann, können Sie die Arbeit dieses Teams verfolgen und jederzeit Feedback und Vorschläge geben.

NTU hat ein neues RAM-Modell vorgeschlagen, bei dem Meta verwendet wird, um alles aufzuteilen und eine Beziehung herzustellen. Der Sneak-Attack-Effekt mit Gesang und Tanz ist hervorragend!

Projektadresse: https://github.com/Jingkang50/OpenPSG

Das obige ist der detaillierte Inhalt vonNTU hat ein neues RAM-Modell vorgeschlagen, bei dem Meta verwendet wird, um alles aufzuteilen und eine Beziehung herzustellen. Der Sneak-Attack-Effekt mit Gesang und Tanz ist hervorragend!. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage
Über uns Haftungsausschluss Sitemap
Chinesische PHP-Website:Online-PHP-Schulung für das Gemeinwohl,Helfen Sie PHP-Lernenden, sich schnell weiterzuentwickeln!