


Eine GPU führt das ChatGPT-Volumenmodell aus, und ControlNet ist ein weiteres Artefakt für das KI-Zeichnen.
Ein Katalog echte Protonenaustauschmembran-Brennstoffzelle mit Deep Learning
Eine umfassende Umfrage zu vortrainierten Foundation-Modellen: Eine Geschichte von BERT bis ChatGPT
- Hinzufügen bedingter Kontrolle zu Text-zu-Bild-Diffusionsmodellen
- EVA3D: Compositional 3D Menschliche Generation aus 2D-Bildsammlungen
- ArXiv Weekly Radiostation: NLP, CV, ML Weitere ausgewählte Artikel (mit Audio)
- Artikel 1: Transformer-Modelle: eine Einführung und ein Katalog
- Autor: hat gezeigt beispiellose Stärke in anderen Bereichen wie der Verarbeitung natürlicher Sprache und Computer Vision und hat technologische Durchbrüche wie ChatGPT ausgelöst. Menschen haben auch verschiedene Varianten vorgeschlagen, die auf dem ursprünglichen Modell basieren.
- Da Wissenschaft und Industrie weiterhin neue Modelle vorschlagen, die auf dem Aufmerksamkeitsmechanismus von Transformer basieren, fällt es uns manchmal schwer, diese Richtung zusammenzufassen. Kürzlich könnte uns ein ausführlicher Artikel von Xavier Amatriain, Leiter der KI-Produktstrategie bei LinkedIn, bei der Lösung dieses Problems helfen.
Empfehlung: Ziel dieses Artikels ist es, einen relativ umfassenden, aber einfachen Katalog und eine Klassifizierung der beliebtesten Transformer-Modelle bereitzustellen. Außerdem werden die wichtigsten Aspekte und Neuerungen des Transformer-Modells vorgestellt. ?? / FMInference/FlexGen/blob/main/docs/paper.pdf
- Zusammenfassung: Traditionell erforderten die hohen Rechen- und Speicheranforderungen der Large Language Model (LLM)-Inferenz den Einsatz mehrerer High-End-KI Beschleuniger für die Ausbildung. In dieser Studie wird untersucht, wie die Anforderungen der LLM-Inferenz auf eine GPU der Verbraucherklasse reduziert und eine praktische Leistung erzielt werden können. ,
- Kürzlich haben neue Forschungsergebnisse der Stanford University, der UC Berkeley, der ETH Zürich, Yandex, der Moscow State Higher School of Economics, Meta, der Carnegie Mellon University und anderen Institutionen FlexGen vorgeschlagen, eine Methode zum Betrieb einer begrenzten Hochdurchsatzgeneration Engine für LLM im GPU-Speicher. Die folgende Abbildung zeigt die Entwurfsidee von FlexGen, die Blockplanung verwendet, um Gewichte wiederzuverwenden und E/A mit Berechnungen zu überlappen, wie in Abbildung (b) unten dargestellt, während andere Basissysteme eine ineffiziente zeilenweise Planung verwenden, wie z siehe Abbildung (a) unten.
Empfehlung: Führen Sie das ChatGPT-Volumenmodell aus und benötigen Sie von nun an nur noch eine GPU: Hier kommt die Methode zur Beschleunigung um das Hundertfache.
Papier 3: Temporal Domain Generalization with Drift-Aware Dynamic Neural Networks
Papieradresse: https://arxiv.org/pdf/ 2205.106 64 .pdf
Zusammenfassung:
- Wenn sich bei der Domänengeneralisierungsaufgabe (DG) die Verteilung der Domäne kontinuierlich mit der Umgebung ändert, ist es sehr wichtig, die Änderung und ihre Auswirkungen auf das Modell genau zu erfassen . Aber es ist auch ein sehr herausforderndes Problem.
Zu diesem Zweck schlug das Team von Professor Zhao Liang von der Emory University ein Zeitdomänen-Generalisierungsframework DRAIN vor, das auf der Bayes'schen Theorie basiert und rekursive Netzwerke verwendet, um die Drift der Zeitdimensionsdomänenverteilung zu lernen Zeitdynamisch Die Kombination aus neuronalem Netzwerk und Graphgenerierungstechnologie maximiert die Ausdrucksfähigkeit des Modells und erreicht in der Zukunft eine Modellverallgemeinerung und -vorhersage in unbekannten Bereichen.
Diese Arbeit wurde für ICLR 2023 Oral ausgewählt (Top 5 % der akzeptierten Arbeiten). Das Folgende ist ein schematisches Diagramm des Gesamtrahmens von DRAIN. #🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜#empfohlen:#Dynamic Dynamic neuronal Mit Netzwerkunterstützung geht das neue Framework für die Zeitdomänen-Generalisierung weit über Methoden der Domänen-Generalisierung und -Anpassung hinaus.
Aufsatz 4: Physikalisch genaue Modellierung einer echten Protonenaustauschmembran-Brennstoffzelle im großen Maßstab mit Deep Learning#🎜🎜 #Autor: Ying Da Wang et al : https://www.nature.com/articles/s41467-023-35973-8
Abstract: # 🎜🎜#Um die Energieversorgung sicherzustellen und den Klimawandel zu bekämpfen, hat sich der Fokus der Menschen von fossilen Brennstoffen auf saubere und erneuerbare Energien verlagert, die aufgrund ihrer hohen Energiedichte und sauberen und kohlenstoffarmen Energieeigenschaften eine wichtige Rolle spielen können die Energiewende. Wasserstoffbrennstoffzellen, insbesondere Protonenaustauschmembran-Brennstoffzellen (PEMFC), sind aufgrund ihrer hohen Energieumwandlungseffizienz und ihres emissionsfreien Betriebs von entscheidender Bedeutung für diese grüne Revolution.
- PEMFC wandelt Wasserstoff durch einen elektrochemischen Prozess in Elektrizität um, wobei das einzige Nebenprodukt der Reaktion reines Wasser ist. Allerdings können PEMFCs ineffizient werden, wenn Wasser nicht richtig aus der Zelle fließen kann und das System anschließend „überflutet“. Bisher war es für Ingenieure schwierig, die genaue Art und Weise zu verstehen, wie Wasser in Brennstoffzellen abfließt oder sich dort ansammelt, da diese so klein und komplex sind.
- Kürzlich hat ein Forschungsteam der University of New South Wales in Sydney einen Deep-Learning-Algorithmus (DualEDSR) entwickelt, um das Verständnis der internen Bedingungen von PEMFC zu verbessern In der Röntgen-Mikrocomputertomographie können aus niedrigeren Auflösungen hochauflösende Modellbilder erzeugt werden. Der Prozess wurde an einer einzelnen Wasserstoff-Brennstoffzelle getestet, wodurch deren Innenraum genau modelliert werden konnte und möglicherweise die Effizienz verbessert wurde. Die folgende Abbildung zeigt die in dieser Studie generierten PEMFC-Domänen.
Empfohlen: Deep Learning vs. Kraftstoff Innerhalb der Batterie wird eine groß angelegte physikalische und genaue Modellierung durchgeführt, um die Batterieleistung zu verbessern.
Papier 5: Eine umfassende Umfrage zu vortrainierten Foundation-Modellen: Eine Geschichte von BERT bis ChatGPT
# 🎜🎜#
Autor: Ce Zhou et al
Papieradresse: https: / /arxiv.org/pdf/2302.09419.pdf
Zusammenfassung: Dieser Artikel ist fast ein Hundert Seiten lang Diese Rezension durchkämmt die Entwicklungsgeschichte des vorab trainierten Basismodells und ermöglicht es uns, zu sehen, wie ChatGPT Schritt für Schritt zum Erfolg kam.
- Empfohlen: Von BERT bis ChatGPT: Ein hundertseitiger Rückblick durchkämmt die Entwicklungsgeschichte vorab trainierter großer Modelle.
- Papier 6: Hinzufügen bedingter Kontrolle zu Text-zu-Bild-Diffusionsmodellen
Autor: Lvmin Zhang et al
Papieradresse: https://arxiv .org/pdf/2302.05543.pdf
Zusammenfassung: Dieses Papier schlägt eine End-to- end neuronal Die Netzwerkarchitektur ControlNet kann das Diffusionsmodell (z. B. Stable Diffusion) durch Hinzufügen zusätzlicher Bedingungen steuern, wodurch der Effekt des Zeichnens und Generierens von Bildern verbessert wird, und kann aus Strichzeichnungen Vollfarbbilder generieren und Bilder mit derselben Tiefenstruktur erzeugen , und die Verwendung von Handtasten für Punkte kann auch die Handgenerierung optimieren und vieles mehr.
-
Empfehlung: KI reduziert die Dimensionalität, um menschliche Maler zu besiegen, führt ControlNet in vinzentinische Diagramme ein und verwendet Tiefen- und Kanteninformationen vollständig wieder.
Aufsatz 7: EVA3D: Compositional 3D Human Generation from 2D image Collections
- Autor: Fangzhou Hong et al
- Aufsatzadresse: https://arxiv.org/abs/ 2210,0 4888
Zusammenfassung: Auf der ICLR 2023 schlug das S-Lab-Team des Nanyang Technological University-SenseTime Joint Research Center die erste Methode EVA3D vor, um die hochauflösende dreidimensionale Erzeugung menschlicher Körper aus einer Sammlung von zwei zu erlernen -dimensionale Bilder. Dank der differenzierbaren Darstellung durch NeRF haben neuere generative 3D-Modelle beeindruckende Ergebnisse auf stationären Objekten erzielt. Allerdings stellt die 3D-Generierung in einer komplexeren und verformbareren Kategorie wie dem menschlichen Körper immer noch große Herausforderungen dar.
Dieses Papier schlägt eine effiziente kombinierte NeRF-Darstellung des menschlichen Körpers vor, die eine hochauflösende (512x256) 3D-Generierung des menschlichen Körpers ohne Verwendung eines hochauflösenden Modells ermöglicht. EVA3D hat bestehende Lösungen bei vier umfangreichen Datensätzen zum menschlichen Körper deutlich übertroffen, und der Code ist Open Source.
Empfohlen: ICLR 2023 Spotlight | 2D-Bild-Brainstorming 3D-menschlicher Körper, Sie können die Kleidung lässig anziehen und auch die Bewegungen ändern.
ArXiv Weekly Radiostation
Heart of Machine kooperiert mit der von Chu Hang, Luo Ruotian und Mei Hongyuan initiierten ArXiv Weekly Radiostation und wählt diese Woche weitere wichtige Papiere auf der Grundlage von 7 Papieren aus, darunter NLP, CV, ML 10 ausgewählte Papiere In jedem Bereich werden abstrakte Einführungen zu den Papieren in Audioform bereitgestellt. Die Details lauten wie folgt:
7 NLP-Papiere
Die 10 ausgewählten NLP-Papiere dieser Woche sind:
1. Aktives Prompting mit Chain-of-Thought für große Sprachmodelle
2 . Erkundung sozialer Medien zur Früherkennung von Depressionen bei COVID-19-Patienten. 5. Federated Nearest Neighbor Machine Translation Begriffe mit Graph Attention. (von Michael Moortgat) 10 ausgewählte CV-Artikel sind:
1. Memory-Efficient Radiance Fields for Real-time View Synthesis in Unbounded Scenes (von Richard Szeliski, Andreas Geiger)
2 Text-zu-Bild-Modelle. (von Daniel Cohen-Or) Simulation von Gesichtsporen. (von Weisi Lin) Leichte Bildverbesserung. (von Chen Change Loy)
7. Regionsbezogene Verbreitung für textgesteuerte Bildbearbeitung ohne Aufnahme. (von Changsheng Xu)
8. Side-Adapter-Netzwerk für die semantische Segmentierung mit offenem Vokabular. (von Xiang Bai)
9. VoxFormer: Sparse Voxel Transformer für die kamerabasierte semantische 3D-Szenenvervollständigung. (von Sanja Fidler)
10. Objektzentrierte Videovorhersage durch Entkopplung von Objektdynamik und Interaktionen. (Von Sven Behnke) normflows: Ein PyTorch-Paket zur Normalisierung von Flüssen. (von Bernhard Schölkopf)
2. Konzeptlernen für interpretierbares Multi-Agent-Reinforcement-Lernen. (von Katia Sycara)3. Zufällige Lehrer sind gute Lehrer. (von Thomas Hofmann)
4. Ausrichten von Text-zu-Bild-Modellen mithilfe von menschlichem Feedback. (von Craig Boutilier, Pieter Abbeel)5. Veränderung ist schwer: Ein genauerer Blick auf die Subpopulationsverschiebung. (von Dina Katabi)
6. AlpaServe: Statistisches Multiplexing mit Modellparallelität für Deep Learning Serving. (von Zhifeng Chen)
7. Vielfältige Richtlinienoptimierung für strukturierten Handlungsraum. (von Hongyuan Zha)
8. Die Geometrie der Mischbarkeit. (von Robert C. Williamson)
9. Lernt Deep Learning zu abstrahieren? Ein systematisches Untersuchungsrahmenwerk. (von Nanning Zheng)
10. Sequentielle kontrafaktische Risikominimierung. (von Julien Mairal)
Das obige ist der detaillierte Inhalt vonEine GPU führt das ChatGPT-Volumenmodell aus, und ControlNet ist ein weiteres Artefakt für das KI-Zeichnen.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Die Größe einer Bootstrap -Liste hängt von der Größe des Containers ab, der die Liste enthält, nicht die Liste selbst. Die Verwendung von Bootstraps Grid -System oder Flexbox kann die Größe des Containers steuern und dadurch indirekt die Listenelemente ändern.

Verschachtelte Listen in Bootstrap erfordern die Verwendung des Grid -Systems von Bootstrap, um den Stil zu steuern. Verwenden Sie zunächst die äußere Schicht & lt; ul & gt; und & lt; li & gt; Um eine Liste zu erstellen, wickeln Sie die Liste der inneren Ebenen in & lt; div class = & quot; row & gt; und add & lt; div class = & quot; col-md-6 & quot; & gt; In der Liste der inneren Ebenen, um anzugeben, dass die Liste der inneren Ebenen die halbe Breite einer Reihe einnimmt. Auf diese Weise kann die innere Liste die richtige haben

So fügen Sie Symbole zur Bootstrap -Liste hinzu: Direkt das Symbol in das Listenelement & lt; li & gt;, Verwenden des von der Symbibliothek angegebenen Klassennamens (z. B. fantastisch). Verwenden Sie die Bootstrap-Klasse, um Symbole und Text auszurichten (z. B. D-Flex, Justify-Content-dazwischen, Align-items-Center). Verwenden Sie die Bootstrap -Tag -Komponente (Abzeichen), um Zahlen oder Status anzuzeigen. Passen Sie die Symbolposition an (Flex-Richtung: Reihen-Umkehr;), steuern Sie den Stil (CSS-Stil). Häufiger Fehler: Das Symbol wird nicht angezeigt (nicht

Bei der Konvertierung von Zeichenfolgen in Objekte in Vue.js wird JSON.Parse () für Standard -JSON -Zeichenfolgen bevorzugt. Bei nicht standardmäßigen JSON-Zeichenfolgen kann die Zeichenfolge durch Verwendung regelmäßiger Ausdrücke verarbeitet und Methoden gemäß dem Format oder dekodierten URL-kodiert reduziert werden. Wählen Sie die entsprechende Methode gemäß dem String -Format aus und achten Sie auf Sicherheits- und Codierungsprobleme, um Fehler zu vermeiden.

Das Maschensystem von Bootstrap ist eine Regel für das schnelle Erstellen von Reaktionslayouts, die aus drei Hauptklassen bestehen: Container (Container), Zeile (Zeile) und COL (Spalte). Standardmäßig werden 12-Kolumn-Gitter bereitgestellt, und die Breite jeder Spalte kann durch Auxiliary-Klassen wie Col-MD- angepasst werden, wodurch die Layout-Optimierung für verschiedene Bildschirmgrößen erreicht wird. Durch die Verwendung von Offset -Klassen und verschachtelten Maschen kann die Layoutflexibilität verlängert werden. Stellen Sie bei der Verwendung eines Gittersystems sicher, dass jedes Element die korrekte Verschachtelungsstruktur aufweist, und berücksichtigen Sie die Leistungsoptimierung, um die Ladegeschwindigkeit der Seiten zu verbessern. Nur durch eingehendes Verständnis und Üben können wir das Bootstrap Grid-System kompetent beherrschen.

Die Änderungen des Bootstrap 5 -Listenstils sind hauptsächlich auf die Detailoptimierung und die semantische Verbesserung zurückzuführen, einschließlich: Die Standardmargen ungeordneter Listen sind vereinfacht, und die visuellen Effekte sind sauberer und ordentlich. Der Listenstil betont die Semantik, verbessert die Zugänglichkeit und die Wartbarkeit.

Frage: Wie registriert man eine Vue -Komponente, die durch Exportverlagerung exportiert wird? Antwort: Es gibt drei Registrierungsmethoden: Globale Registrierung: Verwenden Sie die Methode vue.comPonent (), um sich als globale Komponente zu registrieren. Lokale Registrierung: Registrieren Sie sich in der Komponentenoption, die nur in der aktuellen Komponente und in den Unterkomponenten verfügbar ist. Dynamische Registrierung: Verwenden Sie die Methode vue.comPonent (), um sich nach dem Laden der Komponente zu registrieren.

Die MySQL -Leistungsoptimierung muss von drei Aspekten beginnen: Installationskonfiguration, Indexierung und Abfrageoptimierung, Überwachung und Abstimmung. 1. Nach der Installation müssen Sie die my.cnf -Datei entsprechend der Serverkonfiguration anpassen, z. 2. Erstellen Sie einen geeigneten Index, um übermäßige Indizes zu vermeiden und Abfrageanweisungen zu optimieren, z. B. den Befehl Erklärung zur Analyse des Ausführungsplans; 3. Verwenden Sie das eigene Überwachungstool von MySQL (ShowProcessList, Showstatus), um die Datenbankgesundheit zu überwachen und die Datenbank regelmäßig zu sichern und zu organisieren. Nur durch kontinuierliche Optimierung dieser Schritte kann die Leistung der MySQL -Datenbank verbessert werden.
