In den letzten drei Jahrzehnten hat das Hochleistungsrechnen (HPC) rasante Fortschritte gemacht und spielt eine wichtige Rolle im wissenschaftlichen Rechnen und anderen Bereichen. Derzeit entwickeln sich Cloud Computing und Mobile Computing allmählich zu Mainstream-Computing-Paradigmen. Gleichzeitig hat der disruptive Einfluss von KI-Methoden wie Deep Learning neue Herausforderungen und Chancen für die Integration von HPC und KI mit sich gebracht. Auf der 10. National Social Media Processing Conference (SMP 2022) stellte Turing-Award-Gewinner Jack Dongarra die wichtigsten Anwendungen und Entwicklungen des Hochleistungsrechnens der letzten Jahre vor.
Jack Dongarra, Experte für Hochleistungsrechnen, Gewinner des Turing Award 2021, Direktor des Innovative Computing Laboratory an der University of Tennessee, USA. Seine bahnbrechenden Beiträge zu numerischen Algorithmen und Bibliotheken ermöglichen es Hochleistungscomputersoftware, seit mehr als vier Jahrzehnten mit den exponentiellen Verbesserungen der Hardware Schritt zu halten. Zu seinen zahlreichen akademischen Erfolgen zählen der SIAM/ACM Computational Science and Engineering Award 2019, für den er ausgezeichnet wurde, und der IEEE Computing Pioneer Award 2020 für Führungsqualitäten bei leistungsstarker mathematischer Software. Er ist Fellow von AAAS, ACM, IEEE und SIAM, Foreign Fellow der Royal Society und Mitglied der National Academy of Engineering.
Derzeit können die schnellsten Supercomputer Rechenleistung auf Exaflop/s-Niveau (1018) bereitstellen. Das ist ein sehr großer Wert. Wenn jeder eine Multiplikations- und Additionsrechnung in einer Sekunde durchführt, dann wird jeder auf der Welt vier Jahre brauchen, um die Berechnung durchzuführen, die ein Supercomputer in einer Sekunde durchführen kann. Gleichzeitig verursacht die Aufrechterhaltung des Betriebs eines solchen Supercomputers jedes Jahr Stromrechnungen in zweistelliger Millionenhöhe.
Anhand der Leistungsänderungen der TOP500-Supercomputer der Welt in den letzten dreißig Jahren können wir feststellen, dass die Leistung von Supercomputern nahezu eine exponentielle Wachstumsrate beibehalten hat. Interessanterweise ist die Leistung des heute verwendeten MacBook leistungsstärker als die des weltweit fortschrittlichsten Supercomputers von 1993, der im Los Alamos National Laboratory hergestellt wurde und hauptsächlich für die Entwicklung von Atomwaffen verwendet wurde. Daten vom Juni dieses Jahres zeigen, dass unter den zehn besten Supercomputern der Welt fünf aus den USA, zwei aus China (mit Standorten in Wuxi und Guangzhou) und die restlichen drei aus Finnland, Japan und Frankreich stammen.
HPC und ML-Computing haben ähnliche, aber unterschiedliche Eigenschaften. HPC ist digital berechnungsintensiv. Es gibt normalerweise nur sehr begrenzte Daten ein und gibt nach einer sehr großen Anzahl digitaler Berechnungen eine große Datenmenge aus. Die Hochleistungsdatenverarbeitung (HPDA) im ML-Bereich erfordert normalerweise die Eingabe großer Datenmengen, gibt jedoch relativ kleine Datenmengen aus. Auch die von den beiden verwendete Datengenauigkeit ist sehr unterschiedlich. In Hochleistungsrechnerszenarien wie wissenschaftlichen Simulationen werden normalerweise 64-Bit-Gleitkommadaten verwendet, während in Szenarien des maschinellen Lernens 16-Bit-Gleitkommadaten verwendet werden.
KI spielt in vielen verschiedenen Aspekten der wissenschaftlichen Forschung eine sehr wichtige Rolle: KI kann wissenschaftliche Entdeckungen in verschiedenen Bereichen unterstützen, die Leistung der Computerarchitektur verbessern und am Rande verwalten und verwalten Verarbeiten Sie große Datenmengen. Daher werden im Bereich des wissenschaftlichen Rechnens Technologien wie maschinelles Lernen auf viele Disziplinen wie Klimatologie, Biologie, Pharmazie, Epidemiologie, Materialwissenschaften, Kosmologie und sogar Hochenergiephysik angewendet, um verbesserte Modelle und fortschrittlichere Simulationsmethoden bereitzustellen. Beispielsweise wird Deep Learning eingesetzt, um die Medikamentenentwicklung zu unterstützen, Epidemien vorherzusagen und Tumore anhand medizinischer Bildgebung zu klassifizieren usw.
Wissenschaftliche Forschungssimulation und KI-Computing lassen sich sehr effektiv kombinieren, da beide Modelle und Daten erfordern. Typischerweise werden bei der Simulation (mathematische) Modelle zur Generierung von Daten verwendet, und bei der (KI-)Analytik werden Daten zur Generierung von Modellen verwendet. Mit analytischen Methoden gewonnene Modelle können in Simulationen zusammen mit anderen Modellen verwendet werden; durch Simulationen generierte Daten können zusammen mit Daten aus anderen Quellen in der Analyse verwendet werden. Dies bildet einen positiven Kreislauf der gegenseitigen Förderung.
HPC und KI ergänzen sich nicht nur in spezifischen Anwendungsfeldern, sondern haben auch zahlreiche Verbindungen in den Bereichen grundlegende Entwicklungsmethoden, Software und Software-Infrastruktur sowie KI-Hardwarearchitektur. Gleichzeitig sind die beiden stärker miteinander verbunden. Beispielsweise kann KI zur Steuerung von Simulationen, zur schnelleren Anpassung von Parametern von Simulationsanwendungen, zur Bereitstellung benutzerdefinierter Computerkernfunktionen und zur Kombination von Inhalten aus traditionellem HPC und neuromorphem Computing verwendet werden. AI&ML hat einen disruptiven Einfluss, wie oft gesagt wird: „AL&ML wird Wissenschaftler nicht ersetzen, aber Wissenschaftler, die AI&ML-Tools nutzen, werden diejenigen ersetzen, die diese Tools nicht nutzen.“
Zukünftige HPC-Systeme werden anpassbar sein. Derzeit verfügt HPC hauptsächlich über zwei Arten von Prozessoren: CPU und GPU. In Zukunft werden weitere verschiedene Einheiten verwendet, wie z. B. FPGA, ML-Beschleuniger, ASIC-Chip usw. Zu HPC-Rechnersystemen werden immer mehr Prozessoren hinzugefügt, die unterschiedliche Strukturen und Paradigmen verwenden, beispielsweise neuromorphe Verarbeitung, Quanteninformatik und optisches Rechnen, die möglicherweise eine immer wichtigere Rolle spielen. Beim Aufbau neuer HPC-Systeme können die entsprechenden Module und Funktionen je nach Bedarf genutzt werden.
HPC-Hardware entwickelt sich ständig weiter, einschließlich Skalar-Rechenmaschinen, Vektor-Rechenmaschinen und verteilt Systeme, Beschleuniger, Rechenmaschinen mit gemischter Präzision und mehr. Im Computerbereich finden derzeit drei große Veränderungen statt: Hochleistungsrechnen, Deep Learning sowie Edge Computing und künstliche Intelligenz. Algorithmen und Software sollten sich mit der Hardware weiterentwickeln. Wie in der Arbeit von Leiserson et al. dargelegt, gibt es nach dem Mooreschen Gesetz noch viel Spielraum, um die ultimative Leistung von HPC-Systemen durch Algorithmen, Software und Hardwarearchitektur zu verbessern.
Frage 1: Derzeit widmen Industrie und Wissenschaft dem Training großer neuronaler Netzwerkmodelle mehr Aufmerksamkeit. Beispielsweise verfügt GPT3 über mehr als 170 Milliarden Parameter, was normalerweise Hunderte von Hochleistungs-GPUs erfordert um 1 bis 3 Modelle zu trainieren. Werden in Zukunft Hochleistungscomputer eingesetzt, um entsprechende Schulungen in wenigen Tagen oder Stunden zu absolvieren?
Antwort 1: Die GPU bietet Computern leistungsstarke numerische Berechnungsfunktionen. Beispielsweise stammen 98 % der Rechenleistung in Supercomputern von GPUs. Und das Verschieben von Daten zwischen CPU und GPU ist sehr zeitaufwändig. Um kostspielige Datenbewegungen zu reduzieren, können GPU und CPU mithilfe von Chipdesignmethoden wie Chiplets oder praktischeren Implementierungspfaden näher aneinander gebracht werden. Darüber hinaus wird die Methode der direkten Annäherung der Daten und der entsprechenden Verarbeitungseinheiten auch sehr hilfreich sein, um das Problem der hohen Datentransportkosten zu lösen.
Frage 2: Wir haben ein Phänomen beobachtet, dass sich viele aktuelle Machine-Learning-Algorithmen zusammen mit der Hardware weiterentwickeln und sich gegenseitig beeinflussen können. Beispielsweise haben Nvidia und andere Unternehmen speziell eine dedizierte Architektur für das Transformer-Modell entwickelt, das derzeit die beste Leistung im ML-Bereich aufweist, wodurch der Transformer einfacher zu verwenden ist. Haben Sie ein solches Phänomen beobachtet und wie würden Sie es dazu kommentieren?
Antwort 2: Dies ist ein sehr gutes Beispiel dafür, wie sich Hardware-Design und andere Aspekte gegenseitig verstärken. Derzeit achten viele Hardwareforscher genau auf Veränderungen in der Branche und beurteilen Trends. Das gemeinsame Entwerfen von Anwendungen mit Hardware kann die Leistung erheblich verbessern und mehr Hardware verkaufen. Ich stimme dieser Aussage zu, dass sich Algorithmen und Hardware gemeinsam weiterentwickeln.
Frage 3: Sie haben darauf hingewiesen, dass die Zukunft des Hochleistungsrechnens ein heterogener Hybrid sein wird. Die Integration dieser Teile stellt ein sehr schwieriges Problem dar und kann sogar zu Leistungseinbußen führen. Wenn wir nur die GPU verwenden, kann dies zu einer besseren Leistung führen. Was denken Sie?
Antwort 3: Derzeit sind CPU und GPU in Hochleistungscomputern sehr lose miteinander gekoppelt, und Daten müssen von der CPU zur übertragen werden die GPU berechnen. Auch in Zukunft wird sich der Trend zur Kopplung über unterschiedliche Hardware fortsetzen. Beispielsweise kann die Verwendung spezieller Hardware für ML-Berechnungen die GPU weiter verbessern. Durch das Laden von ML-bezogenen Algorithmen auf den entsprechenden Beschleuniger werden die Details des Algorithmus auf dem Beschleuniger ausgeführt und die Berechnungsergebnisse an den entsprechenden Prozessor übertragen. Zukünftig können auch steckbare Quantenbeschleuniger implementiert werden, um entsprechende Quantenalgorithmen usw. auszuführen.
Frage 4: HPC ist sehr teuer, insbesondere für Forscher und kleine und mittlere Unternehmen. Gibt es Methoden wie Cloud Computing, die HPC für Lehrende, Studierende und forschende kleine und mittlere Unternehmen erschwinglich machen können?
Antwort 4: In den Vereinigten Staaten erfordert die Verwendung von HPC die Einreichung eines entsprechenden Antrags bei der zuständigen Abteilung, in dem das untersuchte Problem und der Berechnungsaufwand beschrieben werden erforderlich. Im Falle einer Genehmigung besteht kein Grund zur Sorge über die Kosten der HPC-Nutzung. In den USA wurde eine Studie darüber durchgeführt, ob alle HPC-Systeme auf cloudbasierte Systeme umgestellt werden sollten. Die Ergebnisse zeigen, dass cloudbasierte Lösungen 2-3 Mal teurer sind als die direkte Nutzung von HPC-Systemen. Es ist wichtig, die wirtschaftliche Annahme dahinter zu beachten: HPC wird von genügend Menschen genutzt, und die zu lösenden Probleme erfordern manchmal die Nutzung des gesamten HPC-Systems. In diesem Fall ist ein dedizierter HPC besser als der Kauf von Cloud-Diensten. Dies ist die aktuelle Situation, die in den Vereinigten Staaten und Europa beobachtet wird.
Das obige ist der detaillierte Inhalt vonTuring-Preisträger Jack Dongarra: Wie die Integration von Hochleistungsrechnen und KI das wissenschaftliche Rechnen untergraben wird. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!