Inhaltsverzeichnis
Kommt aus der SOTA-Modellentwicklungspraxis
Das Sprachmodell hat einen größeren Einfluss auf die Gesamtleistung.
Wählen Sie den Architekturtyp entsprechend Ihren Anforderungen.
Erfahrungen in der Trainingsphase
Datenvielfalt und Verarbeitungsstrategien
Heim Technologie-Peripheriegeräte KI HuggingFace zeigt Ihnen, wie Sie ein visuelles SOTA-Modell erstellen

HuggingFace zeigt Ihnen, wie Sie ein visuelles SOTA-Modell erstellen

Jun 05, 2024 pm 09:39 PM
模型 视觉 sota

Bevor es GPT-4o von OpenAI gab und später die Erfolgsserie Advanced Multi-Modal Large Models auf den Markt kam.

Andere Praktizierende waren schockiert und begannen darüber nachzudenken, wie sie diese Supermodels wieder einholen könnten.

In diesem Artikel von HuggingFace und der Sorbonne-Universität in Frankreich fassten sie die wichtigsten Erfahrungen beim Aufbau großer visueller Modelle zusammen und zeigten Entwicklern einen Weg auf.

HuggingFace zeigt Ihnen, wie Sie ein visuelles SOTA-Modell erstellenBilder

Diese Erfahrungen decken viele Aspekte ab, wie z. B. die Auswahl der Modellarchitektur, Trainingsmethoden, Trainingsdaten usw. Der Autor gab nach mehreren Vergleichen eine detaillierte Zusammenfassung:

  • Wenn Sie bei großen visuellen Modellen gute Arbeit leisten möchten, ist die Wahl der Architektur sehr wichtig.
  • Das Sprachmodell hat einen größeren Einfluss auf die Gesamtleistung als das visuelle Modul.
  • Die Einführung einer abgestuften Pre-Training-Strategie ist förderlicher für den Aufbau von Modellfähigkeiten.
  • Trainingsdaten sollten mehrere Typen enthalten und auf die Ausgewogenheit zwischen ihnen achten.

Man kann sagen, dass HF auf der Grundlage dieser Erfahrungen Idefics2 erstellen konnte, ein visuelles SOTA-Modell im gleichen Maßstab.

Idefics2 basiert auf Mistral-7B. Es hat ein Gesamtparametervolumen von 8B und kann handgeschriebene Schriftarten genau erkennen.

HuggingFace zeigt Ihnen, wie Sie ein visuelles SOTA-Modell erstellenBilder

Dies ist eine gute Rezension von Fachleuten, die sagen, dass dies ein guter Umfragebericht ist und für Entwickler visueller Modelle sehr hilfreich ist, gleichzeitig aber auch daran erinnert wird, ihn nicht als Allheilmittel zu betrachten .

HuggingFace zeigt Ihnen, wie Sie ein visuelles SOTA-Modell erstellenBilder

Natürlich scherzen manche Leute, dass alle Architekturdaten nur eine Cloud seien und eine GPU das Wichtigste sei.

HuggingFace zeigt Ihnen, wie Sie ein visuelles SOTA-Modell erstellenBilder

Da ist etwas Wahres dran, aber Spaß beiseite, werfen wir einen Blick auf die Erfahrungen, die HuggingFace uns beschert hat.

Kommt aus der SOTA-Modellentwicklungspraxis

Diese Erfahrungen im HuggingFace-Paper stammen aus dem Entwicklungsprozess des visuellen Modells Idefics2.

Verglichen mit der Vorgängergeneration Idefics1 und Flamingo, dem gleichen Maßstab ex-SOTA, schneidet Idefics2 bei mehreren Datensätzen gut ab und übertrifft sogar das größere 13B-Modell.

Gleichzeitig verbraucht Idefics2 im Vergleich zu MM1, das im COCO-Datensatz etwas besser ist als Idefics2, deutlich weniger Token für jedes Bild.

HuggingFace zeigt Ihnen, wie Sie ein visuelles SOTA-Modell erstellenBilder

Aus der tatsächlichen Entwicklung von Idefics2 umfasst die Erfahrung, die HuggingFace uns bringt, mindestens die folgenden Aspekte:

  • Auswahl von Backbone und Architektur
  • Trainingsmethoden und -strategien
  • Datenvielfalt und Verarbeitungsstrategie

Das Sprachmodell hat einen größeren Einfluss auf die Gesamtleistung.

Aktuelle große visuelle Modelle werden hauptsächlich in Form eines Sprachmodells + eines visuellen Encoders entwickelt. Der Autor hat die Auswirkungen der beiden auf die Gesamtleistung separat bewertet.

Die Ergebnisse zeigen, dass die Qualität des Sprachmodells wichtiger ist als die des visuellen Modells.

Bei gleicher Anzahl von Parametern kann die Verwendung eines besseren Sprachmodells (z. B. das Ersetzen von Llama-7B durch Mistral-7B) die Leistung großer visueller Modelle bei nachgelagerten Aufgaben erheblich verbessern.

Die Verbesserung durch die Aktualisierung des visuellen Encoders ist relativ begrenzt. Der beste Weg, Kompromisse einzugehen, besteht daher darin, stärkeren Sprachmodellen Vorrang einzuräumen.

HuggingFace zeigt Ihnen, wie Sie ein visuelles SOTA-Modell erstellenBilder

Dies bedeutet natürlich nicht, dass ein Upgrade des visuellen Encoders keine Auswirkungen hat. Wenn die Bedingungen es zulassen, kann die Wahl eines besseren visuellen Encoders auch zu bestimmten Leistungsverbesserungen führen.

Außerdem sollte darauf geachtet werden, dass die Auswahl den nachgelagerten Aufgaben entspricht. Beispielsweise sollte bei Texterkennungsaufgaben ein visueller Encoder verwendet werden, der eine variable Auflösung unterstützt. Wenn die Aufgabe eine hohe Inferenzgeschwindigkeit erfordert, kann ein leichteres Modell verwendet werden ausgewählt werden.

Und in praktischen Anwendungen sind auch Inferenzgeschwindigkeit und Speichernutzung Faktoren, die abgewogen werden müssen. Der von Idefics2 ausgewählte SigLIP-SO400M hat eine gute Balance zwischen Leistung und Effizienz erreicht.

Wählen Sie den Architekturtyp entsprechend Ihren Anforderungen.

In Bezug auf die Wahl der Architektur werden in diesem Artikel die beiden häufigsten Architekturtypen besprochen: vollständig autoregressiv und kreuzweise.

Die vollständig autoregressive Architektur generiert jede Ausgabe auf autoregressive Weise und berücksichtigt dabei die Abhängigkeiten der gesamten Sequenz.

Letzteres ermöglicht es dem Modell, sich bei der Verarbeitung einer Modalität dynamisch auf verschiedene Teile einer anderen Modalität zu konzentrieren und so eine flexiblere Interaktion zwischen ihnen zu erreichen Modalitäten.

In konkreten Arbeiten stellte der Autor fest, dass die bessere Leistung der Architektur davon abhängt, ob das vorab trainierte Backbone eingefroren ist.

(Einfach ausgedrückt: Wenn das vorab trainierte Rückgrat am formellen Trainingsprozess teilnimmt, ist es nicht eingefroren, und wenn es nicht teilnimmt, ist es eingefroren.)

Wenn es nicht eingefroren ist, ist die Leistung vollständig autoregressiv Architektur ist besser, und umgekehrt ist die Cross-Attention-Architektur besser gut.

HuggingFace zeigt Ihnen, wie Sie ein visuelles SOTA-Modell erstellenBilder

Ob das Backbone eingefroren werden muss, hängt vom Schwerpunkt der Anforderungen des Entwicklers ab.

Wenn Sie bei begrenzten Ressourcen eine hohe Leistung benötigen und sehr empfindlich auf Latenz reagieren, ist das Einfrieren besser geeignet.

Wenn Sie eine höhere Flexibilität und Anpassungsfähigkeit des Modells wünschen, sollten Sie die nicht einfrierende Trainingsmethode wählen.

Speziell für Idefics2 haben wir uns dafür entschieden, das Backbone nicht einzufrieren, und haben daher eine vollständig autoregressive Architektur übernommen.

HuggingFace zeigt Ihnen, wie Sie ein visuelles SOTA-Modell erstellenBilder

Erfahrungen in der Trainingsphase

Während des Trainingsprozesses von Idefics2 ist die Auswahl der geeigneten Architektur wichtig. Der Autor hat diese Erfahrungen als Referenz zusammengefasst:

Der erste besteht darin, als Ganzes eine abgestufte Pre-Training-Strategie zu übernehmen, in der Anfangsphase Bilder mit niedrigerer Auflösung zu verwenden und dann PDF-Dokumente mit höherer Auflösung einzuführen. Dieser Ansatz kann schrittweise die vielfältigen Funktionen des Modells aufbauen.

Die zweite besteht darin, Learned Pooling zu verwenden, anstatt Bildfunktionen direkt in das Sprachmodell einzuspeisen, was die Anzahl der Bildtoken erheblich reduzieren, die Trainings- und Inferenzeffizienz erheblich verbessern und auch Leistungsverbesserungen bewirken kann.

Die dritte Methode besteht darin, das Bild in mehrere Teilbilder aufzuteilen und diese während des Trainings an das Modell zu senden. Dies ist besonders effektiv bei Aufgaben wie der Texterkennung , aber das ist nicht der Fall. Alle Bilder müssen auf diese Weise behandelt werden.

Viertens kann die Verwendung vielfältigerer Daten und Aufgaben in der Feinabstimmungsphase der Anweisungen die Verallgemeinerung und Robustheit des Modells verbessern.

Um das Training zu stabilisieren, verwendet der Autor außerdem die LoRA-Technologie, um die Parameter vor dem Training anzupassen, wenn das vorab trainierte Single-Modal-Backbone am Training teilnimmt (nicht eingefroren).

Datenvielfalt und Verarbeitungsstrategien

Neben dem Trainingsprozess selbst haben auch die ausgewählten Daten einen erheblichen Einfluss auf die Leistung des Modells.

Von Beginn der Erfassungsphase an sollte auf die Auswahl mehrerer Datentypen geachtet werden. Die von Idefics2 verwendeten Daten umfassen beispielsweise drei Kategorien – Dokumente mit Bild- und Textausrichtung (z. B. Webseiten), Bild-Text-Paare (z. B. Bildtitel) und PDF-Dokumente mit OCR-Anmerkung.

Auch die Anteile verschiedener Datentypen sollten entsprechend den tatsächlichen Bedürfnissen angemessen ausgewogen sein und nicht einfach in gleiche Teile aufgeteilt werden.

Was die Datengröße betrifft, gilt: je mehr, desto besser, sofern die Bedingungen dies zulassen. Natürlich sollte darauf geachtet werden, Daten von geringer Qualität herauszufiltern.

Natürlich ist die Erfassung nur ein Schritt, um Trainingsdaten zu erhalten. Wenn Sie das Modell gut trainieren möchten, ist eine bestimmte Verarbeitung erforderlich.

Verwenden Sie unterschiedliche Vorverarbeitungs- und Verbesserungsstrategien für verschiedene Datentypen. Beispielsweise ist es für OCR-Daten erforderlich, Bilder mit höherer Auflösung zu verwenden, während andere Daten eine niedrigere Auflösung verwenden können.

Es ist zu beachten, dass bei der Verarbeitung von Bildern das ursprüngliche Seitenverhältnis und die ursprüngliche Auflösung beibehalten werden sollten, was den Rechenaufwand für Training und Inferenz erheblich einsparen und gleichzeitig die Anpassungsfähigkeit des Modells verbessern kann.

Wenn Sie der Meinung sind, dass diese Erfahrungen Sie inspiriert haben, können Sie das Originalpapier für weitere Details lesen. Sie können Ihre Entwicklungserfahrungen auch gerne im Kommentarbereich teilen.

Papieradresse: https://www.php.cn/link/52c8b8d56837155b4870fc2658b676f0

Das obige ist der detaillierte Inhalt vonHuggingFace zeigt Ihnen, wie Sie ein visuelles SOTA-Modell erstellen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Das weltweit leistungsstärkste Open-Source-MoE-Modell ist da, mit chinesischen Fähigkeiten, die mit GPT-4 vergleichbar sind, und der Preis beträgt nur fast ein Prozent von GPT-4-Turbo Das weltweit leistungsstärkste Open-Source-MoE-Modell ist da, mit chinesischen Fähigkeiten, die mit GPT-4 vergleichbar sind, und der Preis beträgt nur fast ein Prozent von GPT-4-Turbo May 07, 2024 pm 04:13 PM

Stellen Sie sich ein Modell der künstlichen Intelligenz vor, das nicht nur die Fähigkeit besitzt, die traditionelle Datenverarbeitung zu übertreffen, sondern auch eine effizientere Leistung zu geringeren Kosten erzielt. Dies ist keine Science-Fiction, DeepSeek-V2[1], das weltweit leistungsstärkste Open-Source-MoE-Modell, ist da. DeepSeek-V2 ist ein leistungsstarkes MoE-Sprachmodell (Mix of Experts) mit den Merkmalen eines wirtschaftlichen Trainings und einer effizienten Inferenz. Es besteht aus 236B Parametern, von denen 21B zur Aktivierung jedes Markers verwendet werden. Im Vergleich zu DeepSeek67B bietet DeepSeek-V2 eine stärkere Leistung, spart gleichzeitig 42,5 % der Trainingskosten, reduziert den KV-Cache um 93,3 % und erhöht den maximalen Generierungsdurchsatz auf das 5,76-fache. DeepSeek ist ein Unternehmen, das sich mit allgemeiner künstlicher Intelligenz beschäftigt

KI untergräbt die mathematische Forschung! Der Gewinner der Fields-Medaille und der chinesisch-amerikanische Mathematiker führten 11 hochrangige Arbeiten an | Gefällt mir bei Terence Tao KI untergräbt die mathematische Forschung! Der Gewinner der Fields-Medaille und der chinesisch-amerikanische Mathematiker führten 11 hochrangige Arbeiten an | Gefällt mir bei Terence Tao Apr 09, 2024 am 11:52 AM

KI verändert tatsächlich die Mathematik. Vor kurzem hat Tao Zhexuan, der diesem Thema große Aufmerksamkeit gewidmet hat, die neueste Ausgabe des „Bulletin of the American Mathematical Society“ (Bulletin der American Mathematical Society) weitergeleitet. Zum Thema „Werden Maschinen die Mathematik verändern?“ äußerten viele Mathematiker ihre Meinung. Der gesamte Prozess war voller Funken, knallhart und aufregend. Der Autor verfügt über eine starke Besetzung, darunter der Fields-Medaillengewinner Akshay Venkatesh, der chinesische Mathematiker Zheng Lejun, der NYU-Informatiker Ernest Davis und viele andere bekannte Wissenschaftler der Branche. Die Welt der KI hat sich dramatisch verändert. Viele dieser Artikel wurden vor einem Jahr eingereicht.

Jenseits von ORB-SLAM3! SL-SLAM: Szenen mit wenig Licht, starkem Jitter und schwacher Textur werden verarbeitet Jenseits von ORB-SLAM3! SL-SLAM: Szenen mit wenig Licht, starkem Jitter und schwacher Textur werden verarbeitet May 30, 2024 am 09:35 AM

Heute diskutieren wir darüber, wie Deep-Learning-Technologie die Leistung von visionbasiertem SLAM (Simultaneous Localization and Mapping) in komplexen Umgebungen verbessern kann. Durch die Kombination von Methoden zur Tiefenmerkmalsextraktion und Tiefenanpassung stellen wir hier ein vielseitiges hybrides visuelles SLAM-System vor, das die Anpassung in anspruchsvollen Szenarien wie schlechten Lichtverhältnissen, dynamischer Beleuchtung, schwach strukturierten Bereichen und starkem Jitter verbessern soll. Unser System unterstützt mehrere Modi, einschließlich erweiterter Monokular-, Stereo-, Monokular-Trägheits- und Stereo-Trägheitskonfigurationen. Darüber hinaus wird analysiert, wie visuelles SLAM mit Deep-Learning-Methoden kombiniert werden kann, um andere Forschungen zu inspirieren. Durch umfangreiche Experimente mit öffentlichen Datensätzen und selbst abgetasteten Daten demonstrieren wir die Überlegenheit von SL-SLAM in Bezug auf Positionierungsgenauigkeit und Tracking-Robustheit.

Google ist begeistert: JAX-Leistung übertrifft Pytorch und TensorFlow! Es könnte die schnellste Wahl für das GPU-Inferenztraining werden Google ist begeistert: JAX-Leistung übertrifft Pytorch und TensorFlow! Es könnte die schnellste Wahl für das GPU-Inferenztraining werden Apr 01, 2024 pm 07:46 PM

Die von Google geförderte Leistung von JAX hat in jüngsten Benchmark-Tests die von Pytorch und TensorFlow übertroffen und belegt bei 7 Indikatoren den ersten Platz. Und der Test wurde nicht auf der TPU mit der besten JAX-Leistung durchgeführt. Obwohl unter Entwicklern Pytorch immer noch beliebter ist als Tensorflow. Aber in Zukunft werden möglicherweise mehr große Modelle auf Basis der JAX-Plattform trainiert und ausgeführt. Modelle Kürzlich hat das Keras-Team drei Backends (TensorFlow, JAX, PyTorch) mit der nativen PyTorch-Implementierung und Keras2 mit TensorFlow verglichen. Zunächst wählen sie eine Reihe von Mainstream-Inhalten aus

Hallo, elektrischer Atlas! Der Boston Dynamics-Roboter erwacht wieder zum Leben, seltsame 180-Grad-Bewegungen machen Musk Angst Hallo, elektrischer Atlas! Der Boston Dynamics-Roboter erwacht wieder zum Leben, seltsame 180-Grad-Bewegungen machen Musk Angst Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas tritt offiziell in die Ära der Elektroroboter ein! Gestern hat sich der hydraulische Atlas einfach „unter Tränen“ von der Bühne der Geschichte zurückgezogen. Heute gab Boston Dynamics bekannt, dass der elektrische Atlas im Einsatz ist. Es scheint, dass Boston Dynamics im Bereich kommerzieller humanoider Roboter entschlossen ist, mit Tesla zu konkurrieren. Nach der Veröffentlichung des neuen Videos wurde es innerhalb von nur zehn Stunden bereits von mehr als einer Million Menschen angesehen. Die alten Leute gehen und neue Rollen entstehen. Das ist eine historische Notwendigkeit. Es besteht kein Zweifel, dass dieses Jahr das explosive Jahr der humanoiden Roboter ist. Netizens kommentierten: Die Weiterentwicklung der Roboter hat dazu geführt, dass die diesjährige Eröffnungsfeier wie Menschen aussieht, und der Freiheitsgrad ist weitaus größer als der von Menschen. Aber ist das wirklich kein Horrorfilm? Zu Beginn des Videos liegt Atlas ruhig auf dem Boden, scheinbar auf dem Rücken. Was folgt, ist atemberaubend

KAN, das MLP ersetzt, wurde durch Open-Source-Projekte auf Faltung erweitert KAN, das MLP ersetzt, wurde durch Open-Source-Projekte auf Faltung erweitert Jun 01, 2024 pm 10:03 PM

Anfang dieses Monats schlugen Forscher des MIT und anderer Institutionen eine vielversprechende Alternative zu MLP vor – KAN. KAN übertrifft MLP in Bezug auf Genauigkeit und Interpretierbarkeit. Und es kann MLP, das mit einer größeren Anzahl von Parametern ausgeführt wird, mit einer sehr kleinen Anzahl von Parametern übertreffen. Beispielsweise gaben die Autoren an, dass sie KAN nutzten, um die Ergebnisse von DeepMind mit einem kleineren Netzwerk und einem höheren Automatisierungsgrad zu reproduzieren. Konkret verfügt DeepMinds MLP über etwa 300.000 Parameter, während KAN nur etwa 200 Parameter hat. KAN hat eine starke mathematische Grundlage wie MLP und basiert auf dem universellen Approximationssatz, während KAN auf dem Kolmogorov-Arnold-Darstellungssatz basiert. Wie in der folgenden Abbildung gezeigt, hat KAN

FisheyeDetNet: der erste Zielerkennungsalgorithmus basierend auf einer Fischaugenkamera FisheyeDetNet: der erste Zielerkennungsalgorithmus basierend auf einer Fischaugenkamera Apr 26, 2024 am 11:37 AM

Die Zielerkennung ist ein relativ ausgereiftes Problem in autonomen Fahrsystemen, wobei die Fußgängererkennung einer der ersten Algorithmen ist, die eingesetzt werden. In den meisten Arbeiten wurde eine sehr umfassende Recherche durchgeführt. Die Entfernungswahrnehmung mithilfe von Fischaugenkameras für die Rundumsicht ist jedoch relativ wenig untersucht. Aufgrund der großen radialen Verzerrung ist es schwierig, die standardmäßige Bounding-Box-Darstellung in Fischaugenkameras zu implementieren. Um die obige Beschreibung zu vereinfachen, untersuchen wir erweiterte Begrenzungsrahmen-, Ellipsen- und allgemeine Polygondesigns in Polar-/Winkeldarstellungen und definieren eine mIOU-Metrik für die Instanzsegmentierung, um diese Darstellungen zu analysieren. Das vorgeschlagene Modell „fisheyeDetNet“ mit polygonaler Form übertrifft andere Modelle und erreicht gleichzeitig 49,5 % mAP auf dem Valeo-Fisheye-Kameradatensatz für autonomes Fahren

Tesla-Roboter arbeiten in Fabriken, Musk: Der Freiheitsgrad der Hände wird dieses Jahr 22 erreichen! Tesla-Roboter arbeiten in Fabriken, Musk: Der Freiheitsgrad der Hände wird dieses Jahr 22 erreichen! May 06, 2024 pm 04:13 PM

Das neueste Video von Teslas Roboter Optimus ist veröffentlicht und er kann bereits in der Fabrik arbeiten. Bei normaler Geschwindigkeit sortiert es Batterien (Teslas 4680-Batterien) so: Der Beamte hat auch veröffentlicht, wie es bei 20-facher Geschwindigkeit aussieht – auf einer kleinen „Workstation“, pflücken und pflücken und pflücken: Dieses Mal wird es freigegeben. Eines der Highlights Der Vorteil des Videos besteht darin, dass Optimus diese Arbeit in der Fabrik völlig autonom und ohne menschliches Eingreifen während des gesamten Prozesses erledigt. Und aus Sicht von Optimus kann es auch die krumme Batterie aufnehmen und platzieren, wobei der Schwerpunkt auf der automatischen Fehlerkorrektur liegt: In Bezug auf die Hand von Optimus gab der NVIDIA-Wissenschaftler Jim Fan eine hohe Bewertung ab: Die Hand von Optimus ist der fünffingrige Roboter der Welt am geschicktesten. Seine Hände sind nicht nur taktil

See all articles