Inhaltsverzeichnis
Papierübersicht
Multimodaler Chatbot
Testfeedback
Heim Technologie-Peripheriegeräte KI Lava Alpaca LLaVA ist da: Wie bei GPT-4 können Sie Bilder ansehen und chatten, es ist kein Einladungscode erforderlich und Sie können online spielen

Lava Alpaca LLaVA ist da: Wie bei GPT-4 können Sie Bilder ansehen und chatten, es ist kein Einladungscode erforderlich und Sie können online spielen

May 12, 2023 pm 02:28 PM
数据 训练

Lava Alpaca LLaVA ist da: Wie bei GPT-4 können Sie Bilder ansehen und chatten, es ist kein Einladungscode erforderlich und Sie können online spielen

Wann werden die Bilderkennungsfunktionen von GPT-4 online sein? Auf diese Frage gibt es noch keine Antwort.

Aber die Forschungsgemeinschaft kann nicht länger warten und hat mit dem Selbermachen begonnen. Das beliebteste ist ein Projekt namens MiniGPT-4. MiniGPT-4 weist viele ähnliche Funktionen wie GPT-4 auf, beispielsweise die Erstellung detaillierter Bildbeschreibungen und die Erstellung von Websites aus handschriftlichen Entwürfen. Darüber hinaus beobachteten die Autoren andere neue Funktionen von MiniGPT-4, darunter das Erstellen von Geschichten und Gedichten auf der Grundlage vorgegebener Bilder, die Bereitstellung von Lösungen für in Bildern gezeigte Probleme, das Erlernen des Kochens für Benutzer anhand von Lebensmittelfotos usw. Das Projekt erhielt innerhalb von drei Tagen nach seinem Start fast 10.000 Sterne.

Lava Alpaca LLaVA ist da: Wie bei GPT-4 können Sie Bilder ansehen und chatten, es ist kein Einladungscode erforderlich und Sie können online spielen

Das Projekt, das wir heute vorstellen werden – LLaVA (Large Language and Vision Assistant) ist ähnlich. Es handelt sich um eine multimodale Großsprache, die gemeinsam von Forschern der University of Wisconsin-Madison und Microsoft veröffentlicht wurde Forschung und Columbia University Modell.

Lava Alpaca LLaVA ist da: Wie bei GPT-4 können Sie Bilder ansehen und chatten, es ist kein Einladungscode erforderlich und Sie können online spielen

  • Papierlink: https://arxiv.org/pdf/2304.08485.pdf
  • Projektlink: https://llava-vl.github.io/

Dieses Modell zeigt einige Bild- und Textverständnisfähigkeiten, die dem multimodalen GPT-4 nahe kommen: Es erreichte einen relativen Wert von 85,1 % im Vergleich zu GPT-4. Bei einer Feinabstimmung der wissenschaftlichen Qualitätssicherung erreicht die Synergie von LLaVA und GPT-4 einen neuen SoTA mit einer Genauigkeit von 92,53 %.

Lava Alpaca LLaVA ist da: Wie bei GPT-4 können Sie Bilder ansehen und chatten, es ist kein Einladungscode erforderlich und Sie können online spielen

Das Folgende sind die Testergebnisse des Heart of the Machine (weitere Ergebnisse finden Sie am Ende des Artikels):

Lava Alpaca LLaVA ist da: Wie bei GPT-4 können Sie Bilder ansehen und chatten, es ist kein Einladungscode erforderlich und Sie können online spielen

Papierübersicht

Menschen interagieren mit der Welt über mehrere Kanäle B. Vision und Sprache, da verschiedene Kanäle ihre eigenen einzigartigen Vorteile bei der Darstellung und Vermittlung bestimmter Konzepte haben und ein Mehrkanalansatz zu einem besseren Verständnis der Welt beiträgt. Eines der Kernziele der künstlichen Intelligenz besteht darin, einen universellen Assistenten zu entwickeln, der multimodalen Anweisungen wie visuellen oder verbalen Anweisungen effektiv folgen, menschliche Absichten erfüllen und verschiedene Aufgaben in realen Umgebungen erledigen kann.

Zu diesem Zweck gibt es in der Community einen Trend, visuelle Modelle zu entwickeln, die auf Sprachverbesserung basieren. Dieser Modelltyp verfügt über leistungsstarke Funktionen für das visuelle Verständnis der offenen Welt, wie Klassifizierung, Erkennung, Segmentierung und Grafiken sowie visuelle Generierungs- und visuelle Bearbeitungsfunktionen. Jede Aufgabe wird unabhängig von einem großen visuellen Modell gelöst, wobei die Anforderungen der Aufgabe im Modelldesign implizit berücksichtigt werden. Darüber hinaus wird Sprache nur zur Beschreibung von Bildinhalten verwendet. Während dadurch Sprache eine wichtige Rolle bei der Zuordnung visueller Signale zur sprachlichen Semantik (einem gemeinsamen Kanal für die menschliche Kommunikation) spielt, führt dies zu Modellen, die oft über feste Schnittstellen mit Einschränkungen in der Interaktivität und Anpassungsfähigkeit an Benutzeranweisungen verfügen.

Große Sprachmodelle (LLMs) hingegen haben gezeigt, dass Sprache eine umfassendere Rolle spielen kann: als universelle interaktive Schnittstelle für universelle intelligente Assistenten. In einer gemeinsamen Schnittstelle können verschiedene Aufgabenanweisungen explizit in Sprache ausgedrückt werden und den durchgängig trainierten neuronalen Netzwerkassistenten anleiten, den Modus zu wechseln, um die Aufgabe abzuschließen. Beispielsweise demonstrierte der jüngste Erfolg von ChatGPT und GPT-4 die Leistungsfähigkeit von LLM bei der Befolgung menschlicher Anweisungen zur Erledigung von Aufgaben und löste eine Welle der Entwicklung von Open-Source-LLM aus. Unter diesen ist LLaMA ein Open-Source-LLM mit einer ähnlichen Leistung wie GPT-3. Alpaca, Vicuna, GPT-4-LLM nutzt verschiedene maschinengenerierte, hochwertige Instruktions-Trace-Beispiele, um die Ausrichtungsfähigkeiten von LLM zu verbessern und eine beeindruckende Leistung im Vergleich zu proprietären LLMs zu demonstrieren. Leider besteht die Eingabe in diese Modelle nur aus Text.

In diesem Artikel schlagen Forscher eine Methode zur visuellen Instruktionsabstimmung vor, die den ersten Versuch darstellt, die Instruktionsabstimmung auf den multimodalen Raum auszudehnen und so den Weg für die Entwicklung eines allgemeinen visuellen Assistenten zu ebnen.

Im Einzelnen leistet dieses Papier die folgenden Beiträge:

  • Multimodale Unterrichtsdaten. Eine der größten Herausforderungen ist heute der Mangel an visuellen und verbalen Befehlsdaten. In diesem Artikel wird ein Datenreorganisationsansatz unter Verwendung von ChatGPT/GPT-4 vorgeschlagen, um Bild-Text-Paare in geeignete Anweisungsformate umzuwandeln. Die Forscher entwickelten ein großes multimodales Modell (LMM) – LLaVA –, indem sie den Open-Source-Visual-Encoder und den Sprachdecoder LLaMA von CLIP verbanden, und führten eine durchgängige Feinabstimmung der generierten visuell-verbalen Befehlsdaten durch. Empirische Untersuchungen bestätigen die Wirksamkeit der Verwendung generierter Daten für die Abstimmung von LMM-Anweisungen und stellen praktischere Techniken für die Erstellung universeller Anweisungen bereit, die visuellen Agenten folgen. Mit GPT-4 erreichen wir modernste Leistung bei Science QA, einem multimodalen Inferenzdatensatz.
  • Open Source. Die Forscher stellten der Öffentlichkeit die folgenden Assets zur Verfügung: die generierten multimodalen Befehlsdaten, Codebibliotheken für die Datengenerierung und das Modelltraining, Modellkontrollpunkte und visuelle Chat-Demonstrationen.
  • LLaVA Architecture​
Das Hauptziel dieses Artikels besteht darin, die Leistungsfähigkeit vorab trainierter LLM- und Vision-Modelle effektiv zu nutzen. Die Netzwerkarchitektur ist in Abbildung 1 dargestellt. In diesem Artikel wird das LLaMA-Modell als LLM fφ(・) ausgewählt, da seine Wirksamkeit in mehreren Open-Source-Arbeiten zur Optimierung des reinen Sprachunterrichts nachgewiesen wurde.

Für das Eingabebild X_v verwendet dieser Artikel den vorab trainierten visuellen CLIP-Encoder ViT-L/14, um das visuelle Merkmal Z_v=g (X_v) zu verarbeiten und zu erhalten. Im Experiment wurden die Netzmerkmale vor und nach der letzten Transformer-Ebene verwendet. In diesem Artikel wird eine einfache lineare Ebene verwendet, um Bildfunktionen im Worteinbettungsraum zu verbinden. Konkret wird nach Anwendung der trainierbaren Projektionsmatrix W zur Transformation von Z_v in Spracheinbettungstoken H_q, die die gleichen Abmessungen wie der Worteinbettungsraum im Sprachmodell haben: Lava Alpaca LLaVA ist da: Wie bei GPT-4 können Sie Bilder ansehen und chatten, es ist kein Einladungscode erforderlich und Sie können online spielen

, eine Folge visueller Token H_v erhalten. Dieses einfache Projektionsschema ist leichtgewichtig, kostengünstig und kann schnell auf datenzentrierten Experimenten basieren. Man kann auch komplexere (aber kostspieligere) Schemata zur Verkettung von Bild- und Sprachfunktionen in Betracht ziehen, wie etwa den Gated-Cross-Attention-Mechanismus in Flamingo und den Q-Former in BLIP-2, oder andere visuelle Encoder, die Funktionen auf Objektebene bereitstellen, wie z SAM. Lava Alpaca LLaVA ist da: Wie bei GPT-4 können Sie Bilder ansehen und chatten, es ist kein Einladungscode erforderlich und Sie können online spielen

Experimentelle Ergebnisse

Multimodaler Chatbot

Die Forscher entwickelten ein Chatbot-Beispielprodukt, um die Bildverständnis- und Dialogfähigkeiten von LLaVA zu demonstrieren. Um weiter zu untersuchen, wie LLaVA visuelle Eingaben verarbeitet und seine Fähigkeit zur Verarbeitung von Anweisungen demonstriert, verwendeten die Forscher zunächst Beispiele aus dem ursprünglichen GPT-4-Papier, wie in den Tabellen 4 und 5 dargestellt. Der verwendete Prompt muss zum Bildinhalt passen. Zum Vergleich zitiert dieser Artikel die Aufforderungen und Ergebnisse des multimodalen Modells GPT-4 aus ihrer Arbeit.

Lava Alpaca LLaVA ist da: Wie bei GPT-4 können Sie Bilder ansehen und chatten, es ist kein Einladungscode erforderlich und Sie können online spielen

Obwohl LLaVA mit einem kleinen multimodalen Befehlsdatensatz (~80.000 einzelne Bilder) trainiert wurde, zeigt es überraschenderweise anhand der beiden oben genannten Beispiele, dass die Inferenzergebnisse dem multimodalen Modell sehr ähnlich sind GPT-4. Beachten Sie, dass beide Bilder außerhalb des Umfangs des LLaVA-Datensatzes liegen, der in der Lage ist, die Szene zu verstehen und die Fragenanweisungen zu beantworten. Im Gegensatz dazu konzentrieren sich BLIP-2 und OpenFlamingo auf die Beschreibung von Bildern und nicht darauf, Benutzeranweisungen angemessen zu beantworten. Weitere Beispiele sind in Abbildung 3, Abbildung 4 und Abbildung 5 dargestellt. Lava Alpaca LLaVA ist da: Wie bei GPT-4 können Sie Bilder ansehen und chatten, es ist kein Einladungscode erforderlich und Sie können online spielen

Lava Alpaca LLaVA ist da: Wie bei GPT-4 können Sie Bilder ansehen und chatten, es ist kein Einladungscode erforderlich und Sie können online spielen

Lava Alpaca LLaVA ist da: Wie bei GPT-4 können Sie Bilder ansehen und chatten, es ist kein Einladungscode erforderlich und Sie können online spielen

Lava Alpaca LLaVA ist da: Wie bei GPT-4 können Sie Bilder ansehen und chatten, es ist kein Einladungscode erforderlich und Sie können online spielen

Die quantitativen Auswertungsergebnisse sind in Tabelle 3 dargestellt.

Lava Alpaca LLaVA ist da: Wie bei GPT-4 können Sie Bilder ansehen und chatten, es ist kein Einladungscode erforderlich und Sie können online spielen

ScienceQA

ScienceQA enthält 21.000 multimodale Multiple-Choice-Fragen zu 3 Themen, 26 Themen, 127 Kategorien und 379 Fähigkeiten, mit großer Domänenvielfalt. Der Benchmark-Datensatz ist in Trainings-, Validierungs- und Testteile mit jeweils 12726, 4241 und 4241 Proben unterteilt. In diesem Artikel werden zwei repräsentative Methoden verglichen, darunter das GPT-3.5-Modell (text-davinci-002) und das GPT-3.5-Modell ohne Chain of Thought (CoT)-Version, LLaMA-Adapter und Multimodal Thought Chain (MM-CoT) [57 ], die aktuelle SoTA-Methode für diesen Datensatz, und die Ergebnisse sind in Tabelle 6 aufgeführt.

Lava Alpaca LLaVA ist da: Wie bei GPT-4 können Sie Bilder ansehen und chatten, es ist kein Einladungscode erforderlich und Sie können online spielen

Testfeedback

Auf der im Dokument angegebenen Seite zur Visualisierungsnutzung hat Machine Heart auch versucht, einige Bilder und Anweisungen einzugeben. Die erste ist eine häufige Mehrpersonenaufgabe bei Fragen und Antworten. Tests haben gezeigt, dass kleinere Ziele bei der Personenzählung ignoriert werden, es zu Erkennungsfehlern bei sich überschneidenden Personen kommt und es auch zu Erkennungsfehlern beim Geschlecht kommt.

Lava Alpaca LLaVA ist da: Wie bei GPT-4 können Sie Bilder ansehen und chatten, es ist kein Einladungscode erforderlich und Sie können online spielen

Lava Alpaca LLaVA ist da: Wie bei GPT-4 können Sie Bilder ansehen und chatten, es ist kein Einladungscode erforderlich und Sie können online spielen

Als nächstes haben wir einige generative Aufgaben ausprobiert, wie zum Beispiel die Bilder zu benennen oder eine Geschichte basierend auf den Bildern zu erzählen. Die vom Modell ausgegebenen Ergebnisse sind immer noch auf das Verständnis des Bildinhalts ausgerichtet und die Generierungsfähigkeiten müssen gestärkt werden.

Lava Alpaca LLaVA ist da: Wie bei GPT-4 können Sie Bilder ansehen und chatten, es ist kein Einladungscode erforderlich und Sie können online spielen

Lava Alpaca LLaVA ist da: Wie bei GPT-4 können Sie Bilder ansehen und chatten, es ist kein Einladungscode erforderlich und Sie können online spielen

Auf diesem Foto kann die Anzahl der Personen auch dann genau identifiziert werden, wenn sich die menschlichen Körper überschneiden. Aus Sicht der Bildbeschreibung und des Verständnisses gibt es in der Arbeit dieses Artikels noch Höhepunkte und es gibt Raum für eine zweite Schöpfung.


Das obige ist der detaillierte Inhalt vonLava Alpaca LLaVA ist da: Wie bei GPT-4 können Sie Bilder ansehen und chatten, es ist kein Einladungscode erforderlich und Sie können online spielen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Wie man alles in Myrise freischaltet
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Verwenden Sie ddrescue, um Daten unter Linux wiederherzustellen Verwenden Sie ddrescue, um Daten unter Linux wiederherzustellen Mar 20, 2024 pm 01:37 PM

DDREASE ist ein Tool zum Wiederherstellen von Daten von Datei- oder Blockgeräten wie Festplatten, SSDs, RAM-Disks, CDs, DVDs und USB-Speichergeräten. Es kopiert Daten von einem Blockgerät auf ein anderes, wobei beschädigte Blöcke zurückbleiben und nur gute Blöcke verschoben werden. ddreasue ist ein leistungsstarkes Wiederherstellungstool, das vollständig automatisiert ist, da es während der Wiederherstellungsvorgänge keine Unterbrechungen erfordert. Darüber hinaus kann es dank der ddasue-Map-Datei jederzeit gestoppt und fortgesetzt werden. Weitere wichtige Funktionen von DDREASE sind: Es überschreibt die wiederhergestellten Daten nicht, füllt aber die Lücken im Falle einer iterativen Wiederherstellung. Es kann jedoch gekürzt werden, wenn das Tool explizit dazu aufgefordert wird. Stellen Sie Daten aus mehreren Dateien oder Blöcken in einer einzigen wieder her

Open Source! Jenseits von ZoeDepth! DepthFM: Schnelle und genaue monokulare Tiefenschätzung! Open Source! Jenseits von ZoeDepth! DepthFM: Schnelle und genaue monokulare Tiefenschätzung! Apr 03, 2024 pm 12:04 PM

0.Was bewirkt dieser Artikel? Wir schlagen DepthFM vor: ein vielseitiges und schnelles generatives monokulares Tiefenschätzungsmodell auf dem neuesten Stand der Technik. Zusätzlich zu herkömmlichen Tiefenschätzungsaufgaben demonstriert DepthFM auch hochmoderne Fähigkeiten bei nachgelagerten Aufgaben wie dem Tiefen-Inpainting. DepthFM ist effizient und kann Tiefenkarten innerhalb weniger Inferenzschritte synthetisieren. Lassen Sie uns diese Arbeit gemeinsam lesen ~ 1. Titel der Papierinformationen: DepthFM: FastMonocularDepthEstimationwithFlowMatching Autor: MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

Hallo, elektrischer Atlas! Der Boston Dynamics-Roboter erwacht wieder zum Leben, seltsame 180-Grad-Bewegungen machen Musk Angst Hallo, elektrischer Atlas! Der Boston Dynamics-Roboter erwacht wieder zum Leben, seltsame 180-Grad-Bewegungen machen Musk Angst Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas tritt offiziell in die Ära der Elektroroboter ein! Gestern hat sich der hydraulische Atlas einfach „unter Tränen“ von der Bühne der Geschichte zurückgezogen. Heute gab Boston Dynamics bekannt, dass der elektrische Atlas im Einsatz ist. Es scheint, dass Boston Dynamics im Bereich kommerzieller humanoider Roboter entschlossen ist, mit Tesla zu konkurrieren. Nach der Veröffentlichung des neuen Videos wurde es innerhalb von nur zehn Stunden bereits von mehr als einer Million Menschen angesehen. Die alten Leute gehen und neue Rollen entstehen. Das ist eine historische Notwendigkeit. Es besteht kein Zweifel, dass dieses Jahr das explosive Jahr der humanoiden Roboter ist. Netizens kommentierten: Die Weiterentwicklung der Roboter hat dazu geführt, dass die diesjährige Eröffnungsfeier wie Menschen aussieht, und der Freiheitsgrad ist weitaus größer als der von Menschen. Aber ist das wirklich kein Horrorfilm? Zu Beginn des Videos liegt Atlas ruhig auf dem Boden, scheinbar auf dem Rücken. Was folgt, ist atemberaubend

Google ist begeistert: JAX-Leistung übertrifft Pytorch und TensorFlow! Es könnte die schnellste Wahl für das GPU-Inferenztraining werden Google ist begeistert: JAX-Leistung übertrifft Pytorch und TensorFlow! Es könnte die schnellste Wahl für das GPU-Inferenztraining werden Apr 01, 2024 pm 07:46 PM

Die von Google geförderte Leistung von JAX hat in jüngsten Benchmark-Tests die von Pytorch und TensorFlow übertroffen und belegt bei 7 Indikatoren den ersten Platz. Und der Test wurde nicht auf der TPU mit der besten JAX-Leistung durchgeführt. Obwohl unter Entwicklern Pytorch immer noch beliebter ist als Tensorflow. Aber in Zukunft werden möglicherweise mehr große Modelle auf Basis der JAX-Plattform trainiert und ausgeführt. Modelle Kürzlich hat das Keras-Team drei Backends (TensorFlow, JAX, PyTorch) mit der nativen PyTorch-Implementierung und Keras2 mit TensorFlow verglichen. Zunächst wählen sie eine Reihe von Mainstream-Inhalten aus

Langsame Internetgeschwindigkeiten für Mobilfunkdaten auf dem iPhone: Korrekturen Langsame Internetgeschwindigkeiten für Mobilfunkdaten auf dem iPhone: Korrekturen May 03, 2024 pm 09:01 PM

Stehen Sie vor einer Verzögerung oder einer langsamen mobilen Datenverbindung auf dem iPhone? Normalerweise hängt die Stärke des Mobilfunk-Internets auf Ihrem Telefon von mehreren Faktoren ab, wie z. B. der Region, dem Mobilfunknetztyp, dem Roaming-Typ usw. Es gibt einige Dinge, die Sie tun können, um eine schnellere und zuverlässigere Mobilfunk-Internetverbindung zu erhalten. Fix 1 – Neustart des iPhone erzwingen Manchmal werden durch einen erzwungenen Neustart Ihres Geräts viele Dinge zurückgesetzt, einschließlich der Mobilfunkverbindung. Schritt 1 – Drücken Sie einfach einmal die Lauter-Taste und lassen Sie sie los. Drücken Sie anschließend die Leiser-Taste und lassen Sie sie wieder los. Schritt 2 – Der nächste Teil des Prozesses besteht darin, die Taste auf der rechten Seite gedrückt zu halten. Lassen Sie das iPhone den Neustart abschließen. Aktivieren Sie Mobilfunkdaten und überprüfen Sie die Netzwerkgeschwindigkeit. Überprüfen Sie es erneut. Fix 2 – Datenmodus ändern 5G bietet zwar bessere Netzwerkgeschwindigkeiten, funktioniert jedoch besser, wenn das Signal schwächer ist

Die Vitalität der Superintelligenz erwacht! Aber mit der Einführung der sich selbst aktualisierenden KI müssen sich Mütter keine Sorgen mehr über Datenengpässe machen Die Vitalität der Superintelligenz erwacht! Aber mit der Einführung der sich selbst aktualisierenden KI müssen sich Mütter keine Sorgen mehr über Datenengpässe machen Apr 29, 2024 pm 06:55 PM

Ich weine zu Tode. Die Daten im Internet reichen überhaupt nicht aus. Das Trainingsmodell sieht aus wie „Die Tribute von Panem“, und KI-Forscher auf der ganzen Welt machen sich Gedanken darüber, wie sie diese datenhungrigen Esser ernähren sollen. Dieses Problem tritt insbesondere bei multimodalen Aufgaben auf. Zu einer Zeit, als sie ratlos waren, nutzte ein Start-up-Team der Abteilung der Renmin-Universität von China sein eigenes neues Modell, um als erstes in China einen „modellgenerierten Datenfeed selbst“ in die Realität umzusetzen. Darüber hinaus handelt es sich um einen zweigleisigen Ansatz auf der Verständnisseite und der Generierungsseite. Beide Seiten können hochwertige, multimodale neue Daten generieren und Datenrückmeldungen an das Modell selbst liefern. Was ist ein Modell? Awaker 1.0, ein großes multimodales Modell, das gerade im Zhongguancun-Forum erschienen ist. Wer ist das Team? Sophon-Motor. Gegründet von Gao Yizhao, einem Doktoranden an der Hillhouse School of Artificial Intelligence der Renmin University.

Die Kuaishou-Version von Sora „Ke Ling' steht zum Testen offen: Sie generiert über 120 Sekunden Videos, versteht die Physik besser und kann komplexe Bewegungen genau modellieren Die Kuaishou-Version von Sora „Ke Ling' steht zum Testen offen: Sie generiert über 120 Sekunden Videos, versteht die Physik besser und kann komplexe Bewegungen genau modellieren Jun 11, 2024 am 09:51 AM

Was? Wird Zootopia durch heimische KI in die Realität umgesetzt? Zusammen mit dem Video wird ein neues groß angelegtes inländisches Videogenerationsmodell namens „Keling“ vorgestellt. Sora geht einen ähnlichen technischen Weg und kombiniert eine Reihe selbst entwickelter technologischer Innovationen, um Videos zu produzieren, die nicht nur große und vernünftige Bewegungen aufweisen, sondern auch die Eigenschaften der physischen Welt simulieren und über starke konzeptionelle Kombinationsfähigkeiten und Vorstellungskraft verfügen. Den Daten zufolge unterstützt Keling die Erstellung ultralanger Videos von bis zu 2 Minuten mit 30 Bildern pro Sekunde, mit Auflösungen von bis zu 1080p und unterstützt mehrere Seitenverhältnisse. Ein weiterer wichtiger Punkt ist, dass es sich bei Keling nicht um eine vom Labor veröffentlichte Demo oder Video-Ergebnisdemonstration handelt, sondern um eine Anwendung auf Produktebene, die von Kuaishou, einem führenden Anbieter im Bereich Kurzvideos, gestartet wurde. Darüber hinaus liegt das Hauptaugenmerk darauf, pragmatisch zu sein, keine Blankoschecks auszustellen und sofort nach der Veröffentlichung online zu gehen. Das große Modell von Ke Ling wurde bereits in Kuaiying veröffentlicht.

Die U.S. Air Force präsentiert ihren ersten KI-Kampfjet mit großem Aufsehen! Der Minister führte die Testfahrt persönlich durch, ohne in den gesamten Prozess einzugreifen, und 100.000 Codezeilen wurden 21 Mal getestet. Die U.S. Air Force präsentiert ihren ersten KI-Kampfjet mit großem Aufsehen! Der Minister führte die Testfahrt persönlich durch, ohne in den gesamten Prozess einzugreifen, und 100.000 Codezeilen wurden 21 Mal getestet. May 07, 2024 pm 05:00 PM

Kürzlich wurde die Militärwelt von der Nachricht überwältigt: US-Militärkampfflugzeuge können jetzt mithilfe von KI vollautomatische Luftkämpfe absolvieren. Ja, erst kürzlich wurde der KI-Kampfjet des US-Militärs zum ersten Mal der Öffentlichkeit zugänglich gemacht und sein Geheimnis gelüftet. Der vollständige Name dieses Jägers lautet „Variable Stability Simulator Test Aircraft“ (VISTA). Er wurde vom Minister der US-Luftwaffe persönlich geflogen, um einen Eins-gegen-eins-Luftkampf zu simulieren. Am 2. Mai startete US-Luftwaffenminister Frank Kendall mit einer X-62AVISTA auf der Edwards Air Force Base. Beachten Sie, dass während des einstündigen Fluges alle Flugaktionen autonom von der KI durchgeführt wurden! Kendall sagte: „In den letzten Jahrzehnten haben wir über das unbegrenzte Potenzial des autonomen Luft-Luft-Kampfes nachgedacht, aber es schien immer unerreichbar.“ Nun jedoch,

See all articles