Ein Katalog echte Protonenaustauschmembran-Brennstoffzelle mit Deep Learning
Eine umfassende Umfrage zu vortrainierten Foundation-Modellen: Eine Geschichte von BERT bis ChatGPT
Empfehlung: Ziel dieses Artikels ist es, einen relativ umfassenden, aber einfachen Katalog und eine Klassifizierung der beliebtesten Transformer-Modelle bereitzustellen. Außerdem werden die wichtigsten Aspekte und Neuerungen des Transformer-Modells vorgestellt. ?? / FMInference/FlexGen/blob/main/docs/paper.pdf
Empfehlung: Führen Sie das ChatGPT-Volumenmodell aus und benötigen Sie von nun an nur noch eine GPU: Hier kommt die Methode zur Beschleunigung um das Hundertfache.
Papier 3: Temporal Domain Generalization with Drift-Aware Dynamic Neural Networks
Autor: Guangji Bai et alPapieradresse: https://arxiv.org/pdf/ 2205.106 64 .pdf
Zusammenfassung:
Zu diesem Zweck schlug das Team von Professor Zhao Liang von der Emory University ein Zeitdomänen-Generalisierungsframework DRAIN vor, das auf der Bayes'schen Theorie basiert und rekursive Netzwerke verwendet, um die Drift der Zeitdimensionsdomänenverteilung zu lernen Zeitdynamisch Die Kombination aus neuronalem Netzwerk und Graphgenerierungstechnologie maximiert die Ausdrucksfähigkeit des Modells und erreicht in der Zukunft eine Modellverallgemeinerung und -vorhersage in unbekannten Bereichen.
Diese Arbeit wurde für ICLR 2023 Oral ausgewählt (Top 5 % der akzeptierten Arbeiten). Das Folgende ist ein schematisches Diagramm des Gesamtrahmens von DRAIN. #🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜#empfohlen:#Dynamic Dynamic neuronal Mit Netzwerkunterstützung geht das neue Framework für die Zeitdomänen-Generalisierung weit über Methoden der Domänen-Generalisierung und -Anpassung hinaus.
Aufsatz 4: Physikalisch genaue Modellierung einer echten Protonenaustauschmembran-Brennstoffzelle im großen Maßstab mit Deep Learning#🎜🎜 #Autor: Ying Da Wang et al : https://www.nature.com/articles/s41467-023-35973-8
Abstract: # 🎜🎜#Um die Energieversorgung sicherzustellen und den Klimawandel zu bekämpfen, hat sich der Fokus der Menschen von fossilen Brennstoffen auf saubere und erneuerbare Energien verlagert, die aufgrund ihrer hohen Energiedichte und sauberen und kohlenstoffarmen Energieeigenschaften eine wichtige Rolle spielen können die Energiewende. Wasserstoffbrennstoffzellen, insbesondere Protonenaustauschmembran-Brennstoffzellen (PEMFC), sind aufgrund ihrer hohen Energieumwandlungseffizienz und ihres emissionsfreien Betriebs von entscheidender Bedeutung für diese grüne Revolution.
Empfohlen: Deep Learning vs. Kraftstoff Innerhalb der Batterie wird eine groß angelegte physikalische und genaue Modellierung durchgeführt, um die Batterieleistung zu verbessern.
Papier 5: Eine umfassende Umfrage zu vortrainierten Foundation-Modellen: Eine Geschichte von BERT bis ChatGPT
# 🎜🎜#
Autor: Ce Zhou et al
Papieradresse: https: / /arxiv.org/pdf/2302.09419.pdf
Zusammenfassung: Dieser Artikel ist fast ein Hundert Seiten lang Diese Rezension durchkämmt die Entwicklungsgeschichte des vorab trainierten Basismodells und ermöglicht es uns, zu sehen, wie ChatGPT Schritt für Schritt zum Erfolg kam.
Autor: Lvmin Zhang et al
Papieradresse: https://arxiv .org/pdf/2302.05543.pdf
Zusammenfassung: Dieses Papier schlägt eine End-to- end neuronal Die Netzwerkarchitektur ControlNet kann das Diffusionsmodell (z. B. Stable Diffusion) durch Hinzufügen zusätzlicher Bedingungen steuern, wodurch der Effekt des Zeichnens und Generierens von Bildern verbessert wird, und kann aus Strichzeichnungen Vollfarbbilder generieren und Bilder mit derselben Tiefenstruktur erzeugen , und die Verwendung von Handtasten für Punkte kann auch die Handgenerierung optimieren und vieles mehr.
Empfehlung: KI reduziert die Dimensionalität, um menschliche Maler zu besiegen, führt ControlNet in vinzentinische Diagramme ein und verwendet Tiefen- und Kanteninformationen vollständig wieder.
Aufsatz 7: EVA3D: Compositional 3D Human Generation from 2D image Collections
Zusammenfassung: Auf der ICLR 2023 schlug das S-Lab-Team des Nanyang Technological University-SenseTime Joint Research Center die erste Methode EVA3D vor, um die hochauflösende dreidimensionale Erzeugung menschlicher Körper aus einer Sammlung von zwei zu erlernen -dimensionale Bilder. Dank der differenzierbaren Darstellung durch NeRF haben neuere generative 3D-Modelle beeindruckende Ergebnisse auf stationären Objekten erzielt. Allerdings stellt die 3D-Generierung in einer komplexeren und verformbareren Kategorie wie dem menschlichen Körper immer noch große Herausforderungen dar.
Dieses Papier schlägt eine effiziente kombinierte NeRF-Darstellung des menschlichen Körpers vor, die eine hochauflösende (512x256) 3D-Generierung des menschlichen Körpers ohne Verwendung eines hochauflösenden Modells ermöglicht. EVA3D hat bestehende Lösungen bei vier umfangreichen Datensätzen zum menschlichen Körper deutlich übertroffen, und der Code ist Open Source.
Empfohlen: ICLR 2023 Spotlight | 2D-Bild-Brainstorming 3D-menschlicher Körper, Sie können die Kleidung lässig anziehen und auch die Bewegungen ändern.
Heart of Machine kooperiert mit der von Chu Hang, Luo Ruotian und Mei Hongyuan initiierten ArXiv Weekly Radiostation und wählt diese Woche weitere wichtige Papiere auf der Grundlage von 7 Papieren aus, darunter NLP, CV, ML 10 ausgewählte Papiere In jedem Bereich werden abstrakte Einführungen zu den Papieren in Audioform bereitgestellt. Die Details lauten wie folgt:
7 NLP-Papiere
Die 10 ausgewählten NLP-Papiere dieser Woche sind:
1. Aktives Prompting mit Chain-of-Thought für große Sprachmodelle
2 . Erkundung sozialer Medien zur Früherkennung von Depressionen bei COVID-19-Patienten. 5. Federated Nearest Neighbor Machine Translation Begriffe mit Graph Attention. (von Michael Moortgat) 10 ausgewählte CV-Artikel sind:
1. Memory-Efficient Radiance Fields for Real-time View Synthesis in Unbounded Scenes (von Richard Szeliski, Andreas Geiger)
2 Text-zu-Bild-Modelle. (von Daniel Cohen-Or) Simulation von Gesichtsporen. (von Weisi Lin) Leichte Bildverbesserung. (von Chen Change Loy)
7. Regionsbezogene Verbreitung für textgesteuerte Bildbearbeitung ohne Aufnahme. (von Changsheng Xu)
8. Side-Adapter-Netzwerk für die semantische Segmentierung mit offenem Vokabular. (von Xiang Bai)
9. VoxFormer: Sparse Voxel Transformer für die kamerabasierte semantische 3D-Szenenvervollständigung. (von Sanja Fidler)
10. Objektzentrierte Videovorhersage durch Entkopplung von Objektdynamik und Interaktionen. (Von Sven Behnke) normflows: Ein PyTorch-Paket zur Normalisierung von Flüssen. (von Bernhard Schölkopf)
2. Konzeptlernen für interpretierbares Multi-Agent-Reinforcement-Lernen. (von Katia Sycara)3. Zufällige Lehrer sind gute Lehrer. (von Thomas Hofmann)
4. Ausrichten von Text-zu-Bild-Modellen mithilfe von menschlichem Feedback. (von Craig Boutilier, Pieter Abbeel)5. Veränderung ist schwer: Ein genauerer Blick auf die Subpopulationsverschiebung. (von Dina Katabi)
6. AlpaServe: Statistisches Multiplexing mit Modellparallelität für Deep Learning Serving. (von Zhifeng Chen)
7. Vielfältige Richtlinienoptimierung für strukturierten Handlungsraum. (von Hongyuan Zha)
8. Die Geometrie der Mischbarkeit. (von Robert C. Williamson)
9. Lernt Deep Learning zu abstrahieren? Ein systematisches Untersuchungsrahmenwerk. (von Nanning Zheng)
10. Sequentielle kontrafaktische Risikominimierung. (von Julien Mairal)
Das obige ist der detaillierte Inhalt vonEine GPU führt das ChatGPT-Volumenmodell aus, und ControlNet ist ein weiteres Artefakt für das KI-Zeichnen.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!