Eine GPU führt das ChatGPT-Volumenmodell aus, und ControlNet ist ein weiteres Artefakt für das KI-Zeichnen.

王林
Freigeben: 2023-04-15 22:49:01
nach vorne
1707 Leute haben es durchsucht

Ein Katalog echte Protonenaustauschmembran-Brennstoffzelle mit Deep Learning

Eine umfassende Umfrage zu vortrainierten Foundation-Modellen: Eine Geschichte von BERT bis ChatGPT

  1. Hinzufügen bedingter Kontrolle zu Text-zu-Bild-Diffusionsmodellen
  2. EVA3D: Compositional 3D Menschliche Generation aus 2D-Bildsammlungen
  3. ArXiv Weekly Radiostation: NLP, CV, ML Weitere ausgewählte Artikel (mit Audio)
  4. Artikel 1: Transformer-Modelle: eine Einführung und ein Katalog
  5. Autor: hat gezeigt beispiellose Stärke in anderen Bereichen wie der Verarbeitung natürlicher Sprache und Computer Vision und hat technologische Durchbrüche wie ChatGPT ausgelöst. Menschen haben auch verschiedene Varianten vorgeschlagen, die auf dem ursprünglichen Modell basieren.
  6. Da Wissenschaft und Industrie weiterhin neue Modelle vorschlagen, die auf dem Aufmerksamkeitsmechanismus von Transformer basieren, fällt es uns manchmal schwer, diese Richtung zusammenzufassen. Kürzlich könnte uns ein ausführlicher Artikel von Xavier Amatriain, Leiter der KI-Produktstrategie bei LinkedIn, bei der Lösung dieses Problems helfen.

Empfehlung: Ziel dieses Artikels ist es, einen relativ umfassenden, aber einfachen Katalog und eine Klassifizierung der beliebtesten Transformer-Modelle bereitzustellen. Außerdem werden die wichtigsten Aspekte und Neuerungen des Transformer-Modells vorgestellt. ?? / FMInference/FlexGen/blob/main/docs/paper.pdf

  • Zusammenfassung: Traditionell erforderten die hohen Rechen- und Speicheranforderungen der Large Language Model (LLM)-Inferenz den Einsatz mehrerer High-End-KI Beschleuniger für die Ausbildung. In dieser Studie wird untersucht, wie die Anforderungen der LLM-Inferenz auf eine GPU der Verbraucherklasse reduziert und eine praktische Leistung erzielt werden können. ,
  • Kürzlich haben neue Forschungsergebnisse der Stanford University, der UC Berkeley, der ETH Zürich, Yandex, der Moscow State Higher School of Economics, Meta, der Carnegie Mellon University und anderen Institutionen FlexGen vorgeschlagen, eine Methode zum Betrieb einer begrenzten Hochdurchsatzgeneration Engine für LLM im GPU-Speicher. Die folgende Abbildung zeigt die Entwurfsidee von FlexGen, die Blockplanung verwendet, um Gewichte wiederzuverwenden und E/A mit Berechnungen zu überlappen, wie in Abbildung (b) unten dargestellt, während andere Basissysteme eine ineffiziente zeilenweise Planung verwenden, wie z siehe Abbildung (a) unten.

Empfehlung: Führen Sie das ChatGPT-Volumenmodell aus und benötigen Sie von nun an nur noch eine GPU: Hier kommt die Methode zur Beschleunigung um das Hundertfache.

Papier 3: Temporal Domain Generalization with Drift-Aware Dynamic Neural Networks

Eine GPU führt das ChatGPT-Volumenmodell aus, und ControlNet ist ein weiteres Artefakt für das KI-Zeichnen.

Autor: Guangji Bai et al

Papieradresse: https://arxiv.org/pdf/ 2205.106 64 .pdf

Zusammenfassung:
    Wenn sich bei der Domänengeneralisierungsaufgabe (DG) die Verteilung der Domäne kontinuierlich mit der Umgebung ändert, ist es sehr wichtig, die Änderung und ihre Auswirkungen auf das Modell genau zu erfassen . Aber es ist auch ein sehr herausforderndes Problem.
  • Zu diesem Zweck schlug das Team von Professor Zhao Liang von der Emory University ein Zeitdomänen-Generalisierungsframework DRAIN vor, das auf der Bayes'schen Theorie basiert und rekursive Netzwerke verwendet, um die Drift der Zeitdimensionsdomänenverteilung zu lernen Zeitdynamisch Die Kombination aus neuronalem Netzwerk und Graphgenerierungstechnologie maximiert die Ausdrucksfähigkeit des Modells und erreicht in der Zukunft eine Modellverallgemeinerung und -vorhersage in unbekannten Bereichen.

    Diese Arbeit wurde für ICLR 2023 Oral ausgewählt (Top 5 % der akzeptierten Arbeiten). Das Folgende ist ein schematisches Diagramm des Gesamtrahmens von DRAIN. #🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜#empfohlen:#Dynamic Dynamic neuronal Mit Netzwerkunterstützung geht das neue Framework für die Zeitdomänen-Generalisierung weit über Methoden der Domänen-Generalisierung und -Anpassung hinaus.

    Eine GPU führt das ChatGPT-Volumenmodell aus, und ControlNet ist ein weiteres Artefakt für das KI-Zeichnen.

    Aufsatz 4: Physikalisch genaue Modellierung einer echten Protonenaustauschmembran-Brennstoffzelle im großen Maßstab mit Deep Learning

    #🎜🎜 #Autor: Ying Da Wang et al : https://www.nature.com/articles/s41467-023-35973-8

    Abstract: # 🎜🎜#Um die Energieversorgung sicherzustellen und den Klimawandel zu bekämpfen, hat sich der Fokus der Menschen von fossilen Brennstoffen auf saubere und erneuerbare Energien verlagert, die aufgrund ihrer hohen Energiedichte und sauberen und kohlenstoffarmen Energieeigenschaften eine wichtige Rolle spielen können die Energiewende. Wasserstoffbrennstoffzellen, insbesondere Protonenaustauschmembran-Brennstoffzellen (PEMFC), sind aufgrund ihrer hohen Energieumwandlungseffizienz und ihres emissionsfreien Betriebs von entscheidender Bedeutung für diese grüne Revolution.
    • PEMFC wandelt Wasserstoff durch einen elektrochemischen Prozess in Elektrizität um, wobei das einzige Nebenprodukt der Reaktion reines Wasser ist. Allerdings können PEMFCs ineffizient werden, wenn Wasser nicht richtig aus der Zelle fließen kann und das System anschließend „überflutet“. Bisher war es für Ingenieure schwierig, die genaue Art und Weise zu verstehen, wie Wasser in Brennstoffzellen abfließt oder sich dort ansammelt, da diese so klein und komplex sind.
    • Kürzlich hat ein Forschungsteam der University of New South Wales in Sydney einen Deep-Learning-Algorithmus (DualEDSR) entwickelt, um das Verständnis der internen Bedingungen von PEMFC zu verbessern In der Röntgen-Mikrocomputertomographie können aus niedrigeren Auflösungen hochauflösende Modellbilder erzeugt werden. Der Prozess wurde an einer einzelnen Wasserstoff-Brennstoffzelle getestet, wodurch deren Innenraum genau modelliert werden konnte und möglicherweise die Effizienz verbessert wurde. Die folgende Abbildung zeigt die in dieser Studie generierten PEMFC-Domänen.

    Empfohlen: Deep Learning vs. Kraftstoff Innerhalb der Batterie wird eine groß angelegte physikalische und genaue Modellierung durchgeführt, um die Batterieleistung zu verbessern.

    Papier 5: Eine umfassende Umfrage zu vortrainierten Foundation-Modellen: Eine Geschichte von BERT bis ChatGPT

    # 🎜🎜#

    Autor: Ce Zhou et alEine GPU führt das ChatGPT-Volumenmodell aus, und ControlNet ist ein weiteres Artefakt für das KI-Zeichnen.

    Papieradresse: https: / /arxiv.org/pdf/2302.09419.pdf

    Zusammenfassung: Dieser Artikel ist fast ein Hundert Seiten lang Diese Rezension durchkämmt die Entwicklungsgeschichte des vorab trainierten Basismodells und ermöglicht es uns, zu sehen, wie ChatGPT Schritt für Schritt zum Erfolg kam.

    • Empfohlen: Von BERT bis ChatGPT: Ein hundertseitiger Rückblick durchkämmt die Entwicklungsgeschichte vorab trainierter großer Modelle.
    • Papier 6: Hinzufügen bedingter Kontrolle zu Text-zu-Bild-Diffusionsmodellen

    Autor: Lvmin Zhang et al

    Papieradresse: https://arxiv .org/pdf/2302.05543.pdf

    Zusammenfassung: Dieses Papier schlägt eine End-to- end neuronal Die Netzwerkarchitektur ControlNet kann das Diffusionsmodell (z. B. Stable Diffusion) durch Hinzufügen zusätzlicher Bedingungen steuern, wodurch der Effekt des Zeichnens und Generierens von Bildern verbessert wird, und kann aus Strichzeichnungen Vollfarbbilder generieren und Bilder mit derselben Tiefenstruktur erzeugen , und die Verwendung von Handtasten für Punkte kann auch die Handgenerierung optimieren und vieles mehr.

    • Empfehlung: KI reduziert die Dimensionalität, um menschliche Maler zu besiegen, führt ControlNet in vinzentinische Diagramme ein und verwendet Tiefen- und Kanteninformationen vollständig wieder.

      Aufsatz 7: EVA3D: Compositional 3D Human Generation from 2D image Collections

      • Autor: Fangzhou Hong et al
      • Aufsatzadresse: https://arxiv.org/abs/ 2210,0 4888

      Zusammenfassung: Auf der ICLR 2023 schlug das S-Lab-Team des Nanyang Technological University-SenseTime Joint Research Center die erste Methode EVA3D vor, um die hochauflösende dreidimensionale Erzeugung menschlicher Körper aus einer Sammlung von zwei zu erlernen -dimensionale Bilder. Dank der differenzierbaren Darstellung durch NeRF haben neuere generative 3D-Modelle beeindruckende Ergebnisse auf stationären Objekten erzielt. Allerdings stellt die 3D-Generierung in einer komplexeren und verformbareren Kategorie wie dem menschlichen Körper immer noch große Herausforderungen dar.

      Dieses Papier schlägt eine effiziente kombinierte NeRF-Darstellung des menschlichen Körpers vor, die eine hochauflösende (512x256) 3D-Generierung des menschlichen Körpers ohne Verwendung eines hochauflösenden Modells ermöglicht. EVA3D hat bestehende Lösungen bei vier umfangreichen Datensätzen zum menschlichen Körper deutlich übertroffen, und der Code ist Open Source.

      Eine GPU führt das ChatGPT-Volumenmodell aus, und ControlNet ist ein weiteres Artefakt für das KI-Zeichnen.

      Empfohlen: ICLR 2023 Spotlight | 2D-Bild-Brainstorming 3D-menschlicher Körper, Sie können die Kleidung lässig anziehen und auch die Bewegungen ändern.

      ArXiv Weekly Radiostation

      Heart of Machine kooperiert mit der von Chu Hang, Luo Ruotian und Mei Hongyuan initiierten ArXiv Weekly Radiostation und wählt diese Woche weitere wichtige Papiere auf der Grundlage von 7 Papieren aus, darunter NLP, CV, ML 10 ausgewählte Papiere In jedem Bereich werden abstrakte Einführungen zu den Papieren in Audioform bereitgestellt. Die Details lauten wie folgt:

      7 NLP-Papiere

      Die 10 ausgewählten NLP-Papiere dieser Woche sind:

      1. Aktives Prompting mit Chain-of-Thought für große Sprachmodelle

      2 . Erkundung sozialer Medien zur Früherkennung von Depressionen bei COVID-19-Patienten. 5. Federated Nearest Neighbor Machine Translation Begriffe mit Graph Attention. (von Michael Moortgat) 10 ausgewählte CV-Artikel sind:

      1. Memory-Efficient Radiance Fields for Real-time View Synthesis in Unbounded Scenes (von Richard Szeliski, Andreas Geiger)

      2 Text-zu-Bild-Modelle. (von Daniel Cohen-Or) Simulation von Gesichtsporen. (von Weisi Lin) Leichte Bildverbesserung. (von Chen Change Loy)

      7. Regionsbezogene Verbreitung für textgesteuerte Bildbearbeitung ohne Aufnahme.  (von Changsheng Xu)

      8. Side-Adapter-Netzwerk für die semantische Segmentierung mit offenem Vokabular.  (von Xiang Bai)

      9. VoxFormer: Sparse Voxel Transformer für die kamerabasierte semantische 3D-Szenenvervollständigung.  (von Sanja Fidler)

      10. Objektzentrierte Videovorhersage durch Entkopplung von Objektdynamik und Interaktionen.  (Von Sven Behnke) normflows: Ein PyTorch-Paket zur Normalisierung von Flüssen.  (von Bernhard Schölkopf)

      2. Konzeptlernen für interpretierbares Multi-Agent-Reinforcement-Lernen.  (von Katia Sycara)3. Zufällige Lehrer sind gute Lehrer.  (von Thomas Hofmann)

      4. Ausrichten von Text-zu-Bild-Modellen mithilfe von menschlichem Feedback.  (von Craig Boutilier, Pieter Abbeel)

      5. Veränderung ist schwer: Ein genauerer Blick auf die Subpopulationsverschiebung.  (von Dina Katabi)

      6. AlpaServe: Statistisches Multiplexing mit Modellparallelität für Deep Learning Serving.  (von Zhifeng Chen)

      7. Vielfältige Richtlinienoptimierung für strukturierten Handlungsraum.  (von Hongyuan Zha)

      8. Die Geometrie der Mischbarkeit.  (von Robert C. Williamson)

      9. Lernt Deep Learning zu abstrahieren? Ein systematisches Untersuchungsrahmenwerk.  (von Nanning Zheng)

      10. Sequentielle kontrafaktische Risikominimierung.  (von Julien Mairal)

Das obige ist der detaillierte Inhalt vonEine GPU führt das ChatGPT-Volumenmodell aus, und ControlNet ist ein weiteres Artefakt für das KI-Zeichnen.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage