


Mit dem 8-Milliarden-Parameter OtterHD vermittelt Ihnen das chinesische Team der Nanyang Polytechnic die Erfahrung des Kamelzählens in „Entlang des Flusses während des Qingming-Festivals'.
Möchten Sie wissen, wie viele Kamele es in „Entlang des Flusses während des Qingming-Festivals“ gibt? Werfen wir einen Blick auf dieses multimodale Modell, das UHD-Eingabe unterstützt.
Kürzlich hat ein chinesisches Team von der Nanyang Polytechnic das multimodale Großmodell OtterHD mit 8 Milliarden Parametern auf Basis von Fuyu-8B gebaut.
Papieradresse: https://arxiv.org/abs/2311.04219
Im Gegensatz zu herkömmlichen Modellen, die auf visuelle Encoder mit fester Größe beschränkt sind, ist OtterHD-8B in der Lage, flexible Eingabegrößen zu verarbeiten. Dies gewährleistet seine Vielseitigkeit bei unterschiedlichen Argumentationsanforderungen.
Gleichzeitig schlug das Team auch einen neuen Benchmark-Test MagnifierBench vor, mit dem die Fähigkeit von LLM, kleinste Details und räumliche Beziehungen von Objekten in großformatigen Bildern zu unterscheiden, sorgfältig bewertet werden kann.
Experimentelle Ergebnisse zeigen, dass die Leistung von OtterHD-8B bei der direkten Verarbeitung hochauflösender Eingaben deutlich besser ist als bei ähnlichen Modellen Qingming-Fest (Wie viele Kamele gibt es in diesem Teil), die Bildeingabe erreicht 2446 x 1766 Pixel und das Modell kann die Frage erfolgreich beantworten.
Angesichts des Apfelzählproblems, das GPT4-V einst verwirrte, berechnete das Modell erfolgreich, dass es 11 Äpfel enthielt
Zusätzlich zu der angezeigten hochauflösenden Eingabe Im Artikel haben wir beispielsweise auch einige Tests durchgeführt. In der folgenden Abbildung lassen wir das Modell davon ausgehen, dass der Benutzer ein Doktortitel der Universität Cambridge ist, und erklären, was diese Zahl bedeutet.
Die Antwort des Modells identifizierte die Informationen zum Schwarzen Loch und zum Weißen Loch im Bild genau, identifizierte es als tunnelartige Struktur und gab dann eine detaillierte Erklärung.
In der folgenden Tabelle wird das Modell gebeten, die Situation bezüglich des Energieanteils zu erläutern. Das Modell hat mehrere im Bild gezeigte Energiearten erfolgreich identifiziert und ihre Proportionen im Zeitverlauf genau dargestellt. Das folgende Flussdiagramm handelt vom Auswechseln einer Glühbirne. Schritt-für-Schritt-Anleitung. OtterHD-8B von Fuyu-8B Es lohnt sich Hinweis
Darüber hinaus kann es während der Inferenz weiter auf größere Auflösungen (z. B. 1440 × 1440) erweitert werden.
In Um diese Probleme zu lösen, führte das Team eine Feinabstimmung der Anweisungen durch, passte das Fuyu-Modell basierend auf 370.000 gemischten Daten an und verwies auf die ähnliche Anweisungsvorlage von LLaVA-1.5, um das Format der Modellantworten zu standardisieren
In der Schulung In dieser Phase werden alle Datensätze in Befehls-/Antwortpaaren organisiert, in einem einheitlichen Datenlader zusammengefasst und einheitlich abgetastet, um repräsentative Integrität sicherzustellen.
Um die Leistung des Modellierungscodes zu verbessern, übernahm das Team FlashAttention-2 und die Operator-Fusion-Technologie in der FlashAttention-Ressourcenbibliothek.
Mit Hilfe der vereinfachten Architektur von Fuyu, wie in Abbildung 2 dargestellt, wurden diese Änderungen erheblich vorgenommen verbessert Verbesserte GPU-Auslastung und -Durchsatz
Konkret kann die vom Team vorgeschlagene Methode ein Vollparameter-Training mit einer Geschwindigkeit von 3 Stunden/Epoche auf einer 8×A100-GPU abschließen, während jede Epoche nur 1 Stunde benötigt.
Beim Training des Modells mit dem AdamW-Optimierer beträgt die Stapelgröße 64, die Lernrate ist auf 1×10^-5 eingestellt und der Gewichtsabfall beträgt 0,1.
Ultrafeiner Bewertungs-Benchmark MagnifierBench
Das menschliche visuelle System kann auf natürliche Weise die Details von Objekten im Sichtfeld wahrnehmen, aber die aktuellen Benchmarks, die zum Testen von LMMs verwendet werden, konzentrieren sich nicht speziell auf die Bewertung dieser Fähigkeit.
Mit der Einführung der Fuyu- und OtterHD-Modelle erweitern wir erstmals die Auflösung der Eingabebilder auf einen größeren Bereich.
Zu diesem Zweck erstellte das Team einen neuen Test-Benchmark MagnifierBench, der 166 Bilder und insgesamt 283 Fragensätze auf der Grundlage des Panoptic Scene Graph Generation (PVSG)-Datensatzes abdeckt.
Der PVSG-Datensatz besteht aus Videodaten, die eine große Anzahl komplexer und chaotischer Szenen enthalten, insbesondere Hausarbeitsvideos aus der ersten Person.
Während der Annotationsphase untersuchte das Team jedes Frage-Antwort-Paar im Datensatz sorgfältig und eliminierte diejenigen, bei denen es sich um große Objekte handelte oder die mit gesundem Menschenverstand leicht zu beantworten waren. Beispielsweise sind die meisten Fernbedienungen schwarz, was leicht zu erraten ist, aber Farben wie Rot und Gelb sind in dieser Liste nicht enthalten.
Wie in Abbildung 3 dargestellt, umfassen die von MagnifierBench entwickelten Fragetypen Erkennungs-, Zahlen- und farbbezogene Fragen usw. Ein wichtiges Kriterium für diesen Datensatz ist, dass die Fragen so komplex sein müssen, dass sich sogar der Annotator im Vollbildmodus befinden und sogar in das Bild hineinzoomen muss, um genau zu antworten.
LMM eignet sich besser für Konversationsantworten als für kurze Antwortumgebung zum Generieren erweiterter Antworten.
- Multiple-Choice-Fragen
Das Problem bei diesem Modell besteht darin, dass mehrere Optionen zur Auswahl stehen. Um das Modell bei der Auswahl eines Buchstabens (z. B. A, B, C) als Antwort anzuleiten, stellte das Team der Frage als Aufforderung einen Buchstaben aus einer bestimmten Auswahl voran. In diesem Fall gilt nur die Antwort als richtige Antwort, die genau mit der richtigen Option übereinstimmt
- Offene Frage
Mehrere Optionen vereinfachen die Aufgabe, da zufälliges Raten eine Chance von 25 % hat, richtig zu sein . Darüber hinaus spiegelt dies nicht die realen Szenarien wider, mit denen Chat-Assistenten konfrontiert sind, da Benutzer dem Modell normalerweise keine vordefinierten Optionen zur Verfügung stellen. Um diese potenzielle Verzerrung zu beseitigen, stellte das Team den Modellfragen außerdem auf unkomplizierte, offene Weise und ohne Eingabeaufforderungen.
Experimentelle Analyse
Forschungsergebnisse zeigen, dass viele Modelle zwar bei etablierten Benchmarks wie MME und POPE hohe Werte erzielen, ihre Leistung bei MagnifierBench jedoch oft unbefriedigend ist. Der OtterHD-8B hingegen schnitt beim MagnifierBench gut ab.
Um den Effekt einer Erhöhung der Auflösung weiter zu untersuchen und die Generalisierungsfähigkeit von OtterHD bei verschiedenen, möglicherweise höheren Auflösungen zu testen, trainierte das Team Otter8B mit festen oder dynamischen Auflösungen
x-Achse. Es zeigt, dass mit zunehmender Auflösung Es werden mehr Bild-Tokens an den Sprachdecoder gesendet, wodurch mehr Bilddetails bereitgestellt werden.
Experimentelle Ergebnisse zeigen, dass sich mit zunehmender Auflösung auch die Leistung von MagnifierBench entsprechend verbessert
Mit zunehmender Auflösung nimmt das Verhältnis von Bildern zu Text allmählich zu. Dies liegt daran, dass die durchschnittliche Anzahl der Text-Tokens gleich bleibt
Diese Änderung unterstreicht die Bedeutung der LMM-Auflösung, insbesondere für Aufgaben, die komplexe visuelle Assoziationen erfordern.
Darüber hinaus verdeutlicht der Leistungsunterschied zwischen festen und dynamischen Trainingsmethoden die Vorteile der dynamischen Größenänderung, insbesondere bei der Verhinderung einer Überanpassung bei bestimmten Auflösungen.
Ein weiterer Vorteil der dynamischen Strategie besteht darin, dass sie es dem Modell ermöglicht, sich an höhere Auflösungen (1440) anzupassen, auch wenn dies während des Trainings nicht gesehen wurde
Einige Vergleiche
Fazit
Basierend auf der innovativen Architektur von Fuyu-8B schlug das Forschungsteam das OtterHD-8B-Modell vor, das Bilder verschiedener Auflösungen effektiv verarbeiten und die meisten davon entfernen kann LMM-Probleme Einschränkungen bei Eingaben mit fester Auflösung
Mittlerweile zeichnet sich der OtterHD-8B durch die Verarbeitung hochauflösender Bilder aus
Dies wird insbesondere im neuen MagnifierBench-Benchmark deutlich. Der Zweck dieses Benchmarks besteht darin, die Fähigkeit des LMM zu bewerten, Details in komplexen Szenen zu erkennen, und die Bedeutung einer flexibleren Unterstützung für verschiedene Auflösungen hervorzuheben
Das obige ist der detaillierte Inhalt vonMit dem 8-Milliarden-Parameter OtterHD vermittelt Ihnen das chinesische Team der Nanyang Polytechnic die Erfahrung des Kamelzählens in „Entlang des Flusses während des Qingming-Festivals'.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



DDREASE ist ein Tool zum Wiederherstellen von Daten von Datei- oder Blockgeräten wie Festplatten, SSDs, RAM-Disks, CDs, DVDs und USB-Speichergeräten. Es kopiert Daten von einem Blockgerät auf ein anderes, wobei beschädigte Blöcke zurückbleiben und nur gute Blöcke verschoben werden. ddreasue ist ein leistungsstarkes Wiederherstellungstool, das vollständig automatisiert ist, da es während der Wiederherstellungsvorgänge keine Unterbrechungen erfordert. Darüber hinaus kann es dank der ddasue-Map-Datei jederzeit gestoppt und fortgesetzt werden. Weitere wichtige Funktionen von DDREASE sind: Es überschreibt die wiederhergestellten Daten nicht, füllt aber die Lücken im Falle einer iterativen Wiederherstellung. Es kann jedoch gekürzt werden, wenn das Tool explizit dazu aufgefordert wird. Stellen Sie Daten aus mehreren Dateien oder Blöcken in einer einzigen wieder her

0.Was bewirkt dieser Artikel? Wir schlagen DepthFM vor: ein vielseitiges und schnelles generatives monokulares Tiefenschätzungsmodell auf dem neuesten Stand der Technik. Zusätzlich zu herkömmlichen Tiefenschätzungsaufgaben demonstriert DepthFM auch hochmoderne Fähigkeiten bei nachgelagerten Aufgaben wie dem Tiefen-Inpainting. DepthFM ist effizient und kann Tiefenkarten innerhalb weniger Inferenzschritte synthetisieren. Lassen Sie uns diese Arbeit gemeinsam lesen ~ 1. Titel der Papierinformationen: DepthFM: FastMonocularDepthEstimationwithFlowMatching Autor: MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

Boston Dynamics Atlas tritt offiziell in die Ära der Elektroroboter ein! Gestern hat sich der hydraulische Atlas einfach „unter Tränen“ von der Bühne der Geschichte zurückgezogen. Heute gab Boston Dynamics bekannt, dass der elektrische Atlas im Einsatz ist. Es scheint, dass Boston Dynamics im Bereich kommerzieller humanoider Roboter entschlossen ist, mit Tesla zu konkurrieren. Nach der Veröffentlichung des neuen Videos wurde es innerhalb von nur zehn Stunden bereits von mehr als einer Million Menschen angesehen. Die alten Leute gehen und neue Rollen entstehen. Das ist eine historische Notwendigkeit. Es besteht kein Zweifel, dass dieses Jahr das explosive Jahr der humanoiden Roboter ist. Netizens kommentierten: Die Weiterentwicklung der Roboter hat dazu geführt, dass die diesjährige Eröffnungsfeier wie Menschen aussieht, und der Freiheitsgrad ist weitaus größer als der von Menschen. Aber ist das wirklich kein Horrorfilm? Zu Beginn des Videos liegt Atlas ruhig auf dem Boden, scheinbar auf dem Rücken. Was folgt, ist atemberaubend

Die von Google geförderte Leistung von JAX hat in jüngsten Benchmark-Tests die von Pytorch und TensorFlow übertroffen und belegt bei 7 Indikatoren den ersten Platz. Und der Test wurde nicht auf der TPU mit der besten JAX-Leistung durchgeführt. Obwohl unter Entwicklern Pytorch immer noch beliebter ist als Tensorflow. Aber in Zukunft werden möglicherweise mehr große Modelle auf Basis der JAX-Plattform trainiert und ausgeführt. Modelle Kürzlich hat das Keras-Team drei Backends (TensorFlow, JAX, PyTorch) mit der nativen PyTorch-Implementierung und Keras2 mit TensorFlow verglichen. Zunächst wählen sie eine Reihe von Mainstream-Inhalten aus

Stehen Sie vor einer Verzögerung oder einer langsamen mobilen Datenverbindung auf dem iPhone? Normalerweise hängt die Stärke des Mobilfunk-Internets auf Ihrem Telefon von mehreren Faktoren ab, wie z. B. der Region, dem Mobilfunknetztyp, dem Roaming-Typ usw. Es gibt einige Dinge, die Sie tun können, um eine schnellere und zuverlässigere Mobilfunk-Internetverbindung zu erhalten. Fix 1 – Neustart des iPhone erzwingen Manchmal werden durch einen erzwungenen Neustart Ihres Geräts viele Dinge zurückgesetzt, einschließlich der Mobilfunkverbindung. Schritt 1 – Drücken Sie einfach einmal die Lauter-Taste und lassen Sie sie los. Drücken Sie anschließend die Leiser-Taste und lassen Sie sie wieder los. Schritt 2 – Der nächste Teil des Prozesses besteht darin, die Taste auf der rechten Seite gedrückt zu halten. Lassen Sie das iPhone den Neustart abschließen. Aktivieren Sie Mobilfunkdaten und überprüfen Sie die Netzwerkgeschwindigkeit. Überprüfen Sie es erneut. Fix 2 – Datenmodus ändern 5G bietet zwar bessere Netzwerkgeschwindigkeiten, funktioniert jedoch besser, wenn das Signal schwächer ist

Was? Wird Zootopia durch heimische KI in die Realität umgesetzt? Zusammen mit dem Video wird ein neues groß angelegtes inländisches Videogenerationsmodell namens „Keling“ vorgestellt. Sora geht einen ähnlichen technischen Weg und kombiniert eine Reihe selbst entwickelter technologischer Innovationen, um Videos zu produzieren, die nicht nur große und vernünftige Bewegungen aufweisen, sondern auch die Eigenschaften der physischen Welt simulieren und über starke konzeptionelle Kombinationsfähigkeiten und Vorstellungskraft verfügen. Den Daten zufolge unterstützt Keling die Erstellung ultralanger Videos von bis zu 2 Minuten mit 30 Bildern pro Sekunde, mit Auflösungen von bis zu 1080p und unterstützt mehrere Seitenverhältnisse. Ein weiterer wichtiger Punkt ist, dass es sich bei Keling nicht um eine vom Labor veröffentlichte Demo oder Video-Ergebnisdemonstration handelt, sondern um eine Anwendung auf Produktebene, die von Kuaishou, einem führenden Anbieter im Bereich Kurzvideos, gestartet wurde. Darüber hinaus liegt das Hauptaugenmerk darauf, pragmatisch zu sein, keine Blankoschecks auszustellen und sofort nach der Veröffentlichung online zu gehen. Das große Modell von Ke Ling wurde bereits in Kuaiying veröffentlicht.

Ich weine zu Tode. Die Daten im Internet reichen überhaupt nicht aus. Das Trainingsmodell sieht aus wie „Die Tribute von Panem“, und KI-Forscher auf der ganzen Welt machen sich Gedanken darüber, wie sie diese datenhungrigen Esser ernähren sollen. Dieses Problem tritt insbesondere bei multimodalen Aufgaben auf. Zu einer Zeit, als sie ratlos waren, nutzte ein Start-up-Team der Abteilung der Renmin-Universität von China sein eigenes neues Modell, um als erstes in China einen „modellgenerierten Datenfeed selbst“ in die Realität umzusetzen. Darüber hinaus handelt es sich um einen zweigleisigen Ansatz auf der Verständnisseite und der Generierungsseite. Beide Seiten können hochwertige, multimodale neue Daten generieren und Datenrückmeldungen an das Modell selbst liefern. Was ist ein Modell? Awaker 1.0, ein großes multimodales Modell, das gerade im Zhongguancun-Forum erschienen ist. Wer ist das Team? Sophon-Motor. Gegründet von Gao Yizhao, einem Doktoranden an der Hillhouse School of Artificial Intelligence der Renmin University.

Kürzlich wurde die Militärwelt von der Nachricht überwältigt: US-Militärkampfflugzeuge können jetzt mithilfe von KI vollautomatische Luftkämpfe absolvieren. Ja, erst kürzlich wurde der KI-Kampfjet des US-Militärs zum ersten Mal der Öffentlichkeit zugänglich gemacht und sein Geheimnis gelüftet. Der vollständige Name dieses Jägers lautet „Variable Stability Simulator Test Aircraft“ (VISTA). Er wurde vom Minister der US-Luftwaffe persönlich geflogen, um einen Eins-gegen-eins-Luftkampf zu simulieren. Am 2. Mai startete US-Luftwaffenminister Frank Kendall mit einer X-62AVISTA auf der Edwards Air Force Base. Beachten Sie, dass während des einstündigen Fluges alle Flugaktionen autonom von der KI durchgeführt wurden! Kendall sagte: „In den letzten Jahrzehnten haben wir über das unbegrenzte Potenzial des autonomen Luft-Luft-Kampfes nachgedacht, aber es schien immer unerreichbar.“ Nun jedoch,
