Inhaltsverzeichnis
Denkalgorithmen
Experiment
Diskutieren
Heim Technologie-Peripheriegeräte KI Neuer Titel: Aufdecken, warum große Modelle langsamer werden: Neue Wege für Algorithmen des menschlichen Geistes

Neuer Titel: Aufdecken, warum große Modelle langsamer werden: Neue Wege für Algorithmen des menschlichen Geistes

Sep 14, 2023 pm 02:53 PM
数据 训练

KI-Forscher ignorieren oft die menschliche Intuition, aber tatsächlich verstehen wir selbst ihre Subtilität nicht vollständig. Kürzlich hat ein Forschungsteam von Virginia Tech und Microsoft einen Algorithm of Thinking (AoT) vorgeschlagen, der intuitive Fähigkeiten mit algorithmischen Methoden kombiniert, um nicht nur die LLM-Leistung zu gewährleisten, sondern auch erheblich Kosten zu sparen.

Großes Sprachmodell Die jüngste Entwicklung verlief sehr schnell , und es hat bemerkenswerte außergewöhnliche Fähigkeiten bei der Lösung allgemeiner Probleme, der Generierung von Code und der Befolgung von Anweisungen bewiesen

Während frühe Modelle auf Strategien mit direkter Antwort beruhten, hat sich die aktuelle Forschung dem linearen Denkpfad zugewandt, der durch die Zerlegung des Problems in Unteraufgaben erfolgt Entdecken Sie Lösungen oder verwenden Sie externe Mechanismen, um die Token-Generierung durch Ändern des Kontexts zu ändern.

Ähnlich wie die menschliche Kognition schienen frühe LLM-Strategien das unmittelbare System 1 (schnelle Reaktionen) nachzuahmen, das durch impulsive Entscheidungsfindung gekennzeichnet ist. Im Gegensatz dazu spiegeln neuere Methoden wie Chain of Thoughts (CoT) und L2M (Least-to-Moest Prompting) die introspektive Natur von System 2 (langsames Denken) wider. Es ist erwähnenswert, dass die Fähigkeit zum arithmetischen Denken im LLM durch die Integration von Zwischenschritten zum Denken verbessert werden kann.

Neuer Titel: Aufdecken, warum große Modelle langsamer werden: Neue Wege für Algorithmen des menschlichen Geistes

Wenn die Aufgabe jedoch eine tiefere Planung und eine umfassendere mentale Erkundung erfordert, werden die Grenzen dieser Methoden deutlich. Obwohl CoT mit integrierter Selbstkonsistenz (CoT-SC) mehrere LLM-Ausgaben verwenden kann, um Konsensergebnisse zu erzielen, kann das Fehlen einer detaillierten Bewertung das Modell in die falsche Richtung führen. Der im Jahr 2023 entstehende Tree of Thinking (ToT) ist eine bemerkenswerte Lösung. Ein LLM dient der Generierung von Ideen und ein weiterer LLM dient der Bewertung der Vorzüge dieser Ideen, gefolgt von einem „Pause-Bewertung-Weiter“-Zyklus. Dieser auf der Baumsuche basierende iterative Prozess ist eindeutig effektiv, insbesondere bei Aufgaben mit langen Fortsetzungen. Die Forscher glauben, dass es sich bei dieser Entwicklung um den Einsatz externer Tools zur Verbesserung des LLM handelt, ähnlich wie Menschen Tools verwenden, um die Einschränkungen ihres eigenen Arbeitsgedächtnisses zu umgehen.

Andererseits weist die erweiterte LLM-Methode auch einige Mängel auf. Ein offensichtliches Problem besteht darin, dass die Anzahl der Abfragen und der Rechenaufwand erheblich zunehmen werden. Jede Abfrage an eine Online-LLM-API wie GPT-4 verursacht erheblichen Overhead und führt zu einer erhöhten Latenz, was besonders wichtig für Echtzeitanwendungen ist. Die kumulierte Latenz dieser Abfragen kann die Gesamteffizienz des Szenarios verringern. Auf der Infrastrukturseite belastet die ständige Interaktion das System, wodurch möglicherweise die Bandbreite eingeschränkt und die Modellverfügbarkeit verringert wird. Darüber hinaus sind die Auswirkungen auf die Umwelt nicht zu vernachlässigen. Häufige Abfragen werden den Energieverbrauch des ohnehin schon energieintensiven Rechenzentrums erhöhen und den CO2-Fußabdruck weiter erhöhen. Das Optimierungsziel der Forscher ist es, die aktuelle Zahl deutlich zu reduzieren der von der Multi-Query-Inferenzmethode verwendeten Abfragen. Eine solche Optimierung kann es Modellen ermöglichen, Aufgaben zu bewältigen, die eine kompetente Anwendung von Weltwissen erfordern, und Menschen dazu anleiten, KI-Ressourcen verantwortungsvoller und kompetenter zu nutzen

Wenn wir über die Entwicklung von LLM von System 1 zu System 2 nachdenken, können wir einen Schlüssel erkennen Der Faktor entstand: Algorithmen. Algorithmen sind methodisch und bieten Menschen die Möglichkeit, Problembereiche zu erkunden, Strategien zu formulieren und Lösungen zu entwickeln. Obwohl viele Mainstream-Literatur Algorithmen als externe Werkzeuge von LLM betrachtet, können wir angesichts der inhärenten generativen Wiederholungsfähigkeit von LLM diese iterative Logik leiten und den Algorithmus in LLM verinnerlichen?

Ein Forschungsteam von Virginia Tech und Microsoft hat die Raffinesse des menschlichen Denkens und die methodische Präzision algorithmischer Methoden zusammengebracht, mit dem Ziel, die Denkfähigkeiten innerhalb des LLM durch die Verschmelzung der beiden Aspekte zu verbessern

Nach bestehenden Forschungsergebnissen Menschen greifen bei der Lösung komplexer Probleme instinktiv auf frühere Erfahrungen zurück, um sicherzustellen, dass sie ganzheitlich denken und sich nicht nur auf ein einzelnes Detail konzentrieren. Der Generierungsbereich von LLM ist nur durch sein Token-Limit begrenzt und scheint dazu bestimmt zu sein, die Hindernisse des menschlichen Arbeitsgedächtnisses zu durchbrechen Durch Rückgriff auf vorherige Zwischenschritte, um undurchführbare Optionen auszuschließen – alles im Rahmen des LLM-Generierungszyklus. Menschen sind gut in der Intuition, während Algorithmen gut darin sind, organisierte und systematische Erkundungen durchzuführen. Aktuelle Technologien wie CoT neigen dazu, dieses Synergiepotenzial zu meiden und sich zu sehr auf die Vor-Ort-Genauigkeit von LLM zu konzentrieren. Durch die Nutzung der rekursiven Fähigkeiten von LLM entwickelten die Forscher einen Hybridansatz aus Mensch und Algorithmus. Dieser Ansatz wird durch die Verwendung algorithmischer Beispiele erreicht, die das Wesentliche der Exploration erfassen – von ersten Kandidaten bis hin zu bewährten Lösungen

Basierend auf diesen Beobachtungen schlugen Forscher den Algorithm of Thoughts (AoT) vor.

Neuer Titel: Aufdecken, warum große Modelle langsamer werden: Neue Wege für Algorithmen des menschlichen Geistes

Der Inhalt, der neu geschrieben werden muss, ist: Papier: https://arxiv.org/pdf/2308.10379.pdf

Neuer Titel: Aufdecken, warum große Modelle langsamer werden: Neue Wege für Algorithmen des menschlichen Geistes

Neuer Titel: Aufdecken, warum große Modelle langsamer werden: Neue Wege für Algorithmen des menschlichen Geistes

Aus einem breiteren Blickwinkel ist diese neue Methode It wird voraussichtlich ein neues Paradigma des kontextuellen Lernens hervorbringen. Anstatt das traditionelle überwachte Lernmodell [Frage, Antwort] oder [Frage, nachfolgende Schritte zum Erhalt der Antwort] zu verwenden, verwendet dieser neue Ansatz ein neues Modell [Frage, Suchprozess, Antwort]. Wenn ein LLM angewiesen wird, einen Algorithmus zu verwenden, erwarten wir natürlich normalerweise, dass der LLM einfach das iterative Denken dieses Algorithmus nachahmt. Interessant ist jedoch, dass LLM die Fähigkeit besitzt, seine eigene „Intuition“ einzubringen, wodurch seine Suche sogar effizienter wird als der Algorithmus selbst.

Denkalgorithmen

Die Forscher sagen, dass der Kern ihrer Forschungsstrategie darin besteht, die größten Mängel des aktuellen kontextuellen Lernparadigmas zu erkennen. Obwohl CoT die Konsistenz mentaler Verbindungen verbessern kann, treten gelegentlich Probleme auf, die zu falschen Zwischenschritten führen

Um dieses Phänomen zu veranschaulichen, haben Forscher ein Experiment entworfen. Bei der Abfrage von text-davinci-003 mit einer Rechenaufgabe (z. B. 11 − 2 =) stellten die Forscher mehrere Kontextgleichungen voran, die die gleiche Ausgabe liefern würden (z. B. 15 − 5 = 10, 8 + 2 = 10).

Neuer Titel: Aufdecken, warum große Modelle langsamer werden: Neue Wege für Algorithmen des menschlichen Geistes

Nach einer Untersuchung wurde festgestellt, dass die Ergebnisgenauigkeit stark abnahm, was darauf hindeutet, dass die bloße Angabe korrekter Argumente im Kontext unbeabsichtigt die zugrunde liegenden Rechenfähigkeiten von LLM beeinträchtigen kann.

Um diese Verzerrung zu verringern, sollten die Beispiele vielfältiger sein könnte eine praktikable Lösung sein, aber dies könnte die Verteilung der Ausgabe leicht verändern. Das einfache Hinzufügen einiger erfolgloser Versuche (z. B. einer zufälligen Suche) kann das Modell versehentlich dazu verleiten, es erneut zu versuchen, ohne das Problem tatsächlich zu lösen. Um die wahre Natur des algorithmischen Verhaltens zu verstehen (wobei fehlgeschlagene Suchvorgänge und anschließende Wiederherstellungen wichtig sind, sowie das Lernen aus diesen Versuchen), integrieren Forscher kontextbezogene Beispiele, indem sie dem Muster von Suchalgorithmen folgen, insbesondere der Tiefensuche (DFS) und Breitensuche (BFS). Abbildung 1 zeigt ein Beispiel.

Der Schwerpunkt dieser Arbeit liegt auf einer Klasse von Aufgaben, die Baumsuchproblemen ähneln.

Bei dieser Art von Aufgaben ist es notwendig, das Hauptproblem aufzuschlüsseln und für jeden Teil eine praktikable Lösung zu entwickeln. Wir müssen dann entscheiden, ob wir bestimmte Wege einschlagen oder aufgeben und uns möglicherweise dafür entscheiden, diejenigen mit größerem Potenzial neu zu bewerten. Der Ansatz der Forscher besteht darin, die iterativen Fähigkeiten von LLM zu nutzen, um in einem einheitlichen generativen Scan Abfragefragen zu lösen jede Teilmenge. Durch die Beschränkung auf nur eine oder zwei LLM-Interaktionen kann der Ansatz auf natürliche Weise Erkenntnisse früherer Kontextkandidaten integrieren und komplexe Probleme lösen, die eine eingehende Untersuchung des Lösungsbereichs erfordern. Die Forscher geben auch Einblicke in die Geistesgröße und darüber, welche Art von Kontextbeispielen LLM zur Verbesserung der Token-Effizienz bereitstellen sollten. Nachfolgend werden die Schlüsselkomponenten des Baumsuchalgorithmus und ihre Darstellung im neuen Framework vorgestellt

1.

Angesichts eines Problems ist die Erstellung eines Suchbaums, der mögliche Argumentationspfade beschreibt, bereits eine schwierige Aufgabe, auch ohne die eigentlichen Problemlösungsaspekte zu berücksichtigen. Bei jeder Zerlegung müssen nicht nur die Wechselbeziehungen zwischen Teilaufgaben, sondern auch die Leichtigkeit der Lösung jedes Problems berücksichtigt werden. Nehmen Sie als Beispiel die einfache Addition mehrerer Ziffern: Obwohl es für Computer effizient ist, numerische Werte in Binärzahlen umzuwandeln, empfinden Menschen Dezimalzahlen oft intuitiver. Darüber hinaus können die Ausführungsmethoden unterschiedlich sein, selbst wenn die Teilprobleme gleich sind. Intuition kann Abkürzungen zwischen Schritten zu einer Lösung finden, und ohne Intuition sind möglicherweise detailliertere Schritte erforderlich.

Um die richtige Eingabeaufforderung (d. h. ein Beispiel für einen kontextbezogenen Algorithmus) zu erstellen, sind diese Feinheiten sehr wichtig und bestimmen die Mindestanzahl an Token, die LLM benötigt, um eine zuverlässige Leistung zu erzielen. Dies erfüllt nicht nur die Kontextbeschränkungen von LLM, sondern ist auch wichtig für die Fähigkeit von LLM, Probleme, die mit seinem Kontext in Zusammenhang stehen, mit einer ähnlichen Menge an Token zu lösen.

2. Schlagen Sie eine Lösung für die Unterfrage vor. Eine der aktuellen Mainstream-Methoden besteht darin, die LLM-Token-Ausgabewahrscheinlichkeit direkt abzutasten. Obwohl diese Methode für einmalige Antworten (mit gewissen Einschränkungen) effektiv ist, ist sie auch für einige Szenarien nicht geeignet, beispielsweise wenn die Probensequenz in eine nachfolgende Eingabeaufforderung integriert oder in einer nachfolgenden Eingabeaufforderung ausgewertet werden muss. Um Modellabfragen zu minimieren, verwendeten die Forscher einen ununterbrochenen Prozess zur Lösungserstellung. Das heißt, direkt und kontinuierlich Lösungen für die Hauptteilprobleme ohne Generierungspausen generieren.

Umgeschriebener Inhalt: Diese Methode hat viele Vorteile. Erstens befinden sich alle generierten Antworten im selben gemeinsamen Kontext, wodurch die Notwendigkeit entfällt, für jede Antwort zur Auswertung separate Modellabfragen zu generieren. Zweitens: Obwohl es auf den ersten Blick kontraintuitiv erscheinen mag, führen isolierte Marker- oder Markergruppen-Wahrscheinlichkeiten möglicherweise nicht immer zu sinnvollen Auswahlen. Abbildung 4 zeigt ein einfaches Schema

Neuer Titel: Aufdecken, warum große Modelle langsamer werden: Neue Wege für Algorithmen des menschlichen Geistes

3 Messung der Aussichten von Teilproblemen. Wie oben erwähnt, stützen sich bestehende Techniken auf zusätzliche Hinweise, um das Potenzial von Baumknoten zu identifizieren und Entscheidungen über Explorationsrichtungen zu treffen. Unsere Beobachtungen deuten darauf hin, dass LLM von Natur aus dazu neigt, vielversprechende Kandidaten zu priorisieren, wenn sie in kontextbezogenen Beispielen zusammengefasst werden können. Dies reduziert den Bedarf an komplexem Prompt-Engineering und ermöglicht die Integration anspruchsvoller Heuristiken, unabhängig davon, ob diese intuitiv oder wissensgesteuert sind. Ebenso enthält die neue Methode keine unzusammenhängenden Eingabeaufforderungen, was eine sofortige Bewertung der Machbarkeit eines Kandidaten innerhalb desselben generierten Ergebnisses ermöglicht.

4. Zurück zu einem besseren Knoten. Die Entscheidung, welcher Knoten als nächstes untersucht werden soll (einschließlich Zurückverfolgen zu vorherigen Knoten), hängt im Wesentlichen vom gewählten Baumsuchalgorithmus ab. Obwohl in früheren Untersuchungen externe Methoden wie Codierungsmechanismen für den Suchprozess eingesetzt wurden, würde dies seine breitere Attraktivität einschränken und zusätzliche Anpassungen erfordern. Das in diesem Artikel vorgeschlagene neue Design übernimmt hauptsächlich die DFS-Methode, ergänzt durch Beschneiden. Das Ziel besteht darin, die Nähe zwischen untergeordneten Knoten mit demselben übergeordneten Knoten aufrechtzuerhalten und dadurch LLM zu ermutigen, lokalen Funktionen gegenüber entfernten Funktionen Vorrang einzuräumen. Darüber hinaus schlugen die Forscher auch Leistungsindikatoren der BFS-basierten AoT-Methode vor. Die Forscher sagen, dass die Notwendigkeit zusätzlicher Anpassungsmechanismen eliminiert werden kann, indem die inhärente Fähigkeit des Modells genutzt wird, Erkenntnisse aus kontextbezogenen Beispielen zu gewinnen.

Experiment

Die Forscher führten ein Experiment mit 24-Punkte- und 5x5-Miniwortspielen durch. Die Ergebnisse zeigen, dass die AoT-Methode Single-Prompt-Methoden (wie Standardmethoden, CoT, CoT-SC) in der Leistung übertrifft und auch mit Methoden vergleichbar ist, die externe Mechanismen verwenden (wie ToT)

Das ist deutlich zu erkennen Aus Tabelle 1 wurde festgestellt, dass die Baumsuchmethode mit LLM deutlich besser ist als die standardmäßige Prompt-Design-Methode, die CoT/CoT-SC kombiniert

Neuer Titel: Aufdecken, warum große Modelle langsamer werden: Neue Wege für Algorithmen des menschlichen Geistes

In der Mini-Wortfüllaufgabe zeigt Tabelle 3 die Wirksamkeit von AoT und Die Erfolgsquote beim Ausfüllen von Wörtern übertrifft frühere Methoden mit verschiedenen Aufforderungstechniken.

Neuer Titel: Aufdecken, warum große Modelle langsamer werden: Neue Wege für Algorithmen des menschlichen Geistes

Allerdings ist es schlechter als ToT. Eine wichtige Beobachtung ist, dass das von ToT verwendete Abfragevolumen enorm ist und das von AoT um mehr als das Hundertfache übersteigt. Ein weiterer Faktor, der AoT gegenüber ToT unterlegen macht, besteht darin, dass die den algorithmischen Beispielen innewohnenden Backtracking-Fähigkeiten nicht vollständig aktiviert sind. Wenn diese Fähigkeit vollständig freigeschaltet werden könnte, würde dies zu einer deutlich längeren Generationsphase führen. Im Gegensatz dazu hat ToT den Vorteil, dass für das Backtracking externer Speicher verwendet wird.

Diskutieren

Kann AoT durch die Nachahmung von DFS einen Durchbruch erzielen?

Wie in Abbildung 5 dargestellt, verwendet AoT insgesamt weniger Knoten als die DFS-Version. DFS verfolgt eine einheitliche Strategie bei der Auswahl der zu untersuchenden Teilbäume, während das LLM von AoT seine inhärenten Heuristiken integriert. Diese Erweiterung des Grundalgorithmus spiegelt die Vorteile der rekursiven Argumentationsfähigkeiten von LLM wider

Neuer Titel: Aufdecken, warum große Modelle langsamer werden: Neue Wege für Algorithmen des menschlichen Geistes

Wie wirkt sich die Wahl des Algorithmus auf die Leistung von AoT aus?

Die im Experiment gefundene Tabelle 5 zeigt, dass alle drei AoT-Varianten dem CoT für eine einzelne Abfrage überlegen sind

Neuer Titel: Aufdecken, warum große Modelle langsamer werden: Neue Wege für Algorithmen des menschlichen Geistes

Dieses Ergebnis ist wie erwartet, da unabhängig vom Algorithmus gesucht wird und potenzielle Fehler erneut berücksichtigt werden – entweder durch zufällige Versuche in der Zufallssuchvariante oder durch Backtracking in einer Konfiguration mit Tiefensuche (DFS) oder Breitensuche (BFS). Es ist erwähnenswert, dass die Effizienz der strukturierten Suche, der DFS-Version von AoT und der BFS-Version von AoT, beide besser ist als die der Zufallsversion von AoT, was die Vorteile algorithmischer Erkenntnisse bei der Lösungsfindung hervorhebt. Allerdings hinkt die BFS-Version von AoT der DFS-Version von AoT hinterher. Durch die weitere Analyse der Fehler der BFS-Version von AoT stellten die Forscher fest, dass die BFS-Version von AoT im Vergleich zur DFS-Version von AoT schwieriger zu identifizieren ist Achten Sie auf die Algorithmusbeispiele. Die Anzahl der Suchschritte

ist in Abbildung 6 dargestellt. Die Auswirkung der Gesamtzahl der Suchschritte ist in Abbildung 6 dargestellt. Unter diesen stellen AoT (lang) und AoT (kurz) jeweils längere bzw. kürzere Versionen im Vergleich zu den ursprünglich von AoT generierten Ergebnissen dar. Forschungsergebnisse zeigen, dass der Suchschritt eine implizite Verzerrung der Suchgeschwindigkeit von LLM hervorruft . Es ist wichtig zu beachten, dass es auch bei falschen Schritten immer noch wichtig ist, den Schwerpunkt auf die Erkundung von Richtungen mit Potenzial zu legen

Das obige ist der detaillierte Inhalt vonNeuer Titel: Aufdecken, warum große Modelle langsamer werden: Neue Wege für Algorithmen des menschlichen Geistes. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Verwenden Sie ddrescue, um Daten unter Linux wiederherzustellen Verwenden Sie ddrescue, um Daten unter Linux wiederherzustellen Mar 20, 2024 pm 01:37 PM

DDREASE ist ein Tool zum Wiederherstellen von Daten von Datei- oder Blockgeräten wie Festplatten, SSDs, RAM-Disks, CDs, DVDs und USB-Speichergeräten. Es kopiert Daten von einem Blockgerät auf ein anderes, wobei beschädigte Blöcke zurückbleiben und nur gute Blöcke verschoben werden. ddreasue ist ein leistungsstarkes Wiederherstellungstool, das vollständig automatisiert ist, da es während der Wiederherstellungsvorgänge keine Unterbrechungen erfordert. Darüber hinaus kann es dank der ddasue-Map-Datei jederzeit gestoppt und fortgesetzt werden. Weitere wichtige Funktionen von DDREASE sind: Es überschreibt die wiederhergestellten Daten nicht, füllt aber die Lücken im Falle einer iterativen Wiederherstellung. Es kann jedoch gekürzt werden, wenn das Tool explizit dazu aufgefordert wird. Stellen Sie Daten aus mehreren Dateien oder Blöcken in einer einzigen wieder her

Open Source! Jenseits von ZoeDepth! DepthFM: Schnelle und genaue monokulare Tiefenschätzung! Open Source! Jenseits von ZoeDepth! DepthFM: Schnelle und genaue monokulare Tiefenschätzung! Apr 03, 2024 pm 12:04 PM

0.Was bewirkt dieser Artikel? Wir schlagen DepthFM vor: ein vielseitiges und schnelles generatives monokulares Tiefenschätzungsmodell auf dem neuesten Stand der Technik. Zusätzlich zu herkömmlichen Tiefenschätzungsaufgaben demonstriert DepthFM auch hochmoderne Fähigkeiten bei nachgelagerten Aufgaben wie dem Tiefen-Inpainting. DepthFM ist effizient und kann Tiefenkarten innerhalb weniger Inferenzschritte synthetisieren. Lassen Sie uns diese Arbeit gemeinsam lesen ~ 1. Titel der Papierinformationen: DepthFM: FastMonocularDepthEstimationwithFlowMatching Autor: MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

Google ist begeistert: JAX-Leistung übertrifft Pytorch und TensorFlow! Es könnte die schnellste Wahl für das GPU-Inferenztraining werden Google ist begeistert: JAX-Leistung übertrifft Pytorch und TensorFlow! Es könnte die schnellste Wahl für das GPU-Inferenztraining werden Apr 01, 2024 pm 07:46 PM

Die von Google geförderte Leistung von JAX hat in jüngsten Benchmark-Tests die von Pytorch und TensorFlow übertroffen und belegt bei 7 Indikatoren den ersten Platz. Und der Test wurde nicht auf der TPU mit der besten JAX-Leistung durchgeführt. Obwohl unter Entwicklern Pytorch immer noch beliebter ist als Tensorflow. Aber in Zukunft werden möglicherweise mehr große Modelle auf Basis der JAX-Plattform trainiert und ausgeführt. Modelle Kürzlich hat das Keras-Team drei Backends (TensorFlow, JAX, PyTorch) mit der nativen PyTorch-Implementierung und Keras2 mit TensorFlow verglichen. Zunächst wählen sie eine Reihe von Mainstream-Inhalten aus

Langsame Internetgeschwindigkeiten für Mobilfunkdaten auf dem iPhone: Korrekturen Langsame Internetgeschwindigkeiten für Mobilfunkdaten auf dem iPhone: Korrekturen May 03, 2024 pm 09:01 PM

Stehen Sie vor einer Verzögerung oder einer langsamen mobilen Datenverbindung auf dem iPhone? Normalerweise hängt die Stärke des Mobilfunk-Internets auf Ihrem Telefon von mehreren Faktoren ab, wie z. B. der Region, dem Mobilfunknetztyp, dem Roaming-Typ usw. Es gibt einige Dinge, die Sie tun können, um eine schnellere und zuverlässigere Mobilfunk-Internetverbindung zu erhalten. Fix 1 – Neustart des iPhone erzwingen Manchmal werden durch einen erzwungenen Neustart Ihres Geräts viele Dinge zurückgesetzt, einschließlich der Mobilfunkverbindung. Schritt 1 – Drücken Sie einfach einmal die Lauter-Taste und lassen Sie sie los. Drücken Sie anschließend die Leiser-Taste und lassen Sie sie wieder los. Schritt 2 – Der nächste Teil des Prozesses besteht darin, die Taste auf der rechten Seite gedrückt zu halten. Lassen Sie das iPhone den Neustart abschließen. Aktivieren Sie Mobilfunkdaten und überprüfen Sie die Netzwerkgeschwindigkeit. Überprüfen Sie es erneut. Fix 2 – Datenmodus ändern 5G bietet zwar bessere Netzwerkgeschwindigkeiten, funktioniert jedoch besser, wenn das Signal schwächer ist

Hallo, elektrischer Atlas! Der Boston Dynamics-Roboter erwacht wieder zum Leben, seltsame 180-Grad-Bewegungen machen Musk Angst Hallo, elektrischer Atlas! Der Boston Dynamics-Roboter erwacht wieder zum Leben, seltsame 180-Grad-Bewegungen machen Musk Angst Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas tritt offiziell in die Ära der Elektroroboter ein! Gestern hat sich der hydraulische Atlas einfach „unter Tränen“ von der Bühne der Geschichte zurückgezogen. Heute gab Boston Dynamics bekannt, dass der elektrische Atlas im Einsatz ist. Es scheint, dass Boston Dynamics im Bereich kommerzieller humanoider Roboter entschlossen ist, mit Tesla zu konkurrieren. Nach der Veröffentlichung des neuen Videos wurde es innerhalb von nur zehn Stunden bereits von mehr als einer Million Menschen angesehen. Die alten Leute gehen und neue Rollen entstehen. Das ist eine historische Notwendigkeit. Es besteht kein Zweifel, dass dieses Jahr das explosive Jahr der humanoiden Roboter ist. Netizens kommentierten: Die Weiterentwicklung der Roboter hat dazu geführt, dass die diesjährige Eröffnungsfeier wie Menschen aussieht, und der Freiheitsgrad ist weitaus größer als der von Menschen. Aber ist das wirklich kein Horrorfilm? Zu Beginn des Videos liegt Atlas ruhig auf dem Boden, scheinbar auf dem Rücken. Was folgt, ist atemberaubend

Die Vitalität der Superintelligenz erwacht! Aber mit der Einführung der sich selbst aktualisierenden KI müssen sich Mütter keine Sorgen mehr über Datenengpässe machen Die Vitalität der Superintelligenz erwacht! Aber mit der Einführung der sich selbst aktualisierenden KI müssen sich Mütter keine Sorgen mehr über Datenengpässe machen Apr 29, 2024 pm 06:55 PM

Ich weine zu Tode. Die Daten im Internet reichen überhaupt nicht aus. Das Trainingsmodell sieht aus wie „Die Tribute von Panem“, und KI-Forscher auf der ganzen Welt machen sich Gedanken darüber, wie sie diese datenhungrigen Esser ernähren sollen. Dieses Problem tritt insbesondere bei multimodalen Aufgaben auf. Zu einer Zeit, als sie ratlos waren, nutzte ein Start-up-Team der Abteilung der Renmin-Universität von China sein eigenes neues Modell, um als erstes in China einen „modellgenerierten Datenfeed selbst“ in die Realität umzusetzen. Darüber hinaus handelt es sich um einen zweigleisigen Ansatz auf der Verständnisseite und der Generierungsseite. Beide Seiten können hochwertige, multimodale neue Daten generieren und Datenrückmeldungen an das Modell selbst liefern. Was ist ein Modell? Awaker 1.0, ein großes multimodales Modell, das gerade im Zhongguancun-Forum erschienen ist. Wer ist das Team? Sophon-Motor. Gegründet von Gao Yizhao, einem Doktoranden an der Hillhouse School of Artificial Intelligence der Renmin University.

Tesla-Roboter arbeiten in Fabriken, Musk: Der Freiheitsgrad der Hände wird dieses Jahr 22 erreichen! Tesla-Roboter arbeiten in Fabriken, Musk: Der Freiheitsgrad der Hände wird dieses Jahr 22 erreichen! May 06, 2024 pm 04:13 PM

Das neueste Video von Teslas Roboter Optimus ist veröffentlicht und er kann bereits in der Fabrik arbeiten. Bei normaler Geschwindigkeit sortiert es Batterien (Teslas 4680-Batterien) so: Der Beamte hat auch veröffentlicht, wie es bei 20-facher Geschwindigkeit aussieht – auf einer kleinen „Workstation“, pflücken und pflücken und pflücken: Dieses Mal wird es freigegeben. Eines der Highlights Der Vorteil des Videos besteht darin, dass Optimus diese Arbeit in der Fabrik völlig autonom und ohne menschliches Eingreifen während des gesamten Prozesses erledigt. Und aus Sicht von Optimus kann es auch die krumme Batterie aufnehmen und platzieren, wobei der Schwerpunkt auf der automatischen Fehlerkorrektur liegt: In Bezug auf die Hand von Optimus gab der NVIDIA-Wissenschaftler Jim Fan eine hohe Bewertung ab: Die Hand von Optimus ist der fünffingrige Roboter der Welt am geschicktesten. Seine Hände sind nicht nur taktil

Die Kuaishou-Version von Sora „Ke Ling' steht zum Testen offen: Sie generiert über 120 Sekunden Videos, versteht die Physik besser und kann komplexe Bewegungen genau modellieren Die Kuaishou-Version von Sora „Ke Ling' steht zum Testen offen: Sie generiert über 120 Sekunden Videos, versteht die Physik besser und kann komplexe Bewegungen genau modellieren Jun 11, 2024 am 09:51 AM

Was? Wird Zootopia durch heimische KI in die Realität umgesetzt? Zusammen mit dem Video wird ein neues groß angelegtes inländisches Videogenerationsmodell namens „Keling“ vorgestellt. Sora geht einen ähnlichen technischen Weg und kombiniert eine Reihe selbst entwickelter technologischer Innovationen, um Videos zu produzieren, die nicht nur große und vernünftige Bewegungen aufweisen, sondern auch die Eigenschaften der physischen Welt simulieren und über starke konzeptionelle Kombinationsfähigkeiten und Vorstellungskraft verfügen. Den Daten zufolge unterstützt Keling die Erstellung ultralanger Videos von bis zu 2 Minuten mit 30 Bildern pro Sekunde, mit Auflösungen von bis zu 1080p und unterstützt mehrere Seitenverhältnisse. Ein weiterer wichtiger Punkt ist, dass es sich bei Keling nicht um eine vom Labor veröffentlichte Demo oder Video-Ergebnisdemonstration handelt, sondern um eine Anwendung auf Produktebene, die von Kuaishou, einem führenden Anbieter im Bereich Kurzvideos, gestartet wurde. Darüber hinaus liegt das Hauptaugenmerk darauf, pragmatisch zu sein, keine Blankoschecks auszustellen und sofort nach der Veröffentlichung online zu gehen. Das große Modell von Ke Ling wurde bereits in Kuaiying veröffentlicht.

See all articles