


Universelles, erklärbares KI-Computing-Hardwaredesign wird die nächste revolutionäre Technologie in der EDA sein
Dieser Artikel wurde von Lei Feng.com reproduziert. Wenn Sie einen Nachdruck benötigen, besuchen Sie bitte die offizielle Website von Lei Feng.com, um eine Genehmigung zu beantragen.
Chen Yiran, Professor am Fachbereich Elektrotechnik und Computertechnik der Duke University, Direktor des Next Generation Mobile Networks and Edge Computing Institute (Athena) der National Science Foundation (NSF) und der NSF New and Sustainable Computing (ASIC) School Unternehmensdirektor des Collaborative Research Centre (IUCRC) und Co-Direktor des Center for Computational Evolutionary Intelligence (DCEI) an der Duke University.
Chen Yiran studiert 1994 an der Fakultät für Elektronik der Tsinghua-Universität. Sie erhielt 2001 einen Master-Abschluss von der Tsinghua-Universität und promovierte 2005 an der Purdue-Universität. Seine Forschungsinteressen umfassen neue Speicher- und Speichersysteme, maschinelles Lernen, neuromorphes Computing und mobile Computersysteme. Er hat mehr als 500 Aufsätze und eine Monographie veröffentlicht und auf verschiedenen Konferenzen mehrere Auszeichnungen für den besten Beitrag gewonnen. Zu seinen Auszeichnungen zählen der Edward J. McCluskey Technical Achievement Award der IEEE Computer Society, der ACM SIGDA Service Award usw. und er wurde für seine Beiträge zur nichtflüchtigen Speichertechnologie als ACM Fellow nominiert. Er ist außerdem Vorsitzender der ACM Special Interest Group on Design Automation (SIGDA).
Kürzlich wurde Professor Chen Yiran von ACM interviewt und teilte seine Ansichten zu neuer Computerarchitektur, KI-Computing-Energieeffizienz, NSF AI Edge Computing Center, Electronic Design Automation und ACM Design Automation Branch sowie zukünftigen Technologietrends.
AI Technology Review hat den Originaltext des Interviews zusammengestellt, ohne die ursprüngliche Bedeutung zu ändern.
ACM: Was hat Sie an der Entwicklung dieses Bereichs am meisten überrascht, seit Sie in den Bereich der Speicher- und Speichersysteme eingestiegen sind?
Chen Yiran: Ich glaube, in den letzten 15 bis 20 Jahren Das Aufregendste, was heute im Bereich Speicher und Speichersysteme passiert, ist, dass die Grenzen zwischen Computer und Speicher verschwimmen.
Die jüngste Revolution im modernen Computerparadigma begann mit der Notwendigkeit, große Datenmengen zu verarbeiten, was zu einer steigenden Nachfrage nach Speichergeräten mit großer Kapazität führte. Aufgrund der begrenzten Bandbreite zwischen der Recheneinheit und dem Speichergerät kam es schnell zu einem Engpass (oft als „von-Neumann-Engpass“ bezeichnet). Speicher- und Speichersysteme „intelligenter“ zu machen, ist zu einer beliebten Lösung geworden, um die Abhängigkeit des Systems von der Speicherbandbreite zu verringern und die Datenverarbeitung zu beschleunigen, wie etwa Near-Memory-Computing und In-Memory-Computing.
Dies ist ein großartiges Beispiel dafür, wie der Wandel der Zielanwendungen (d. h. vom wissenschaftlichen Rechnen zum datenzentrierten Computing) die Designphilosophie der Computerarchitektur verändert hat. Diese Änderung der Philosophie hat eine Vielzahl neuer Computerprodukte inspiriert, beispielsweise intelligente Solid-State-Laufwerke (SSD), dynamische Direktzugriffsspeicher (DRAM) und Datenverarbeitungseinheiten (DPU) sowie viele neue Speichertechnologien wie 3D Xpoint Speicher (Intel und Micron).
Es hat auch zur Entstehung einiger neuer Nicht-von-Neumann-Architekturen geführt, wie z. B. Crossbar-basierte Skalarprodukt-Engines, die eine Vektor-Matrix-Multiplikation durchführen, indem sie die Berechnung direkt auf die Topologie der Computerhardware abbilden.
ACM: Eine Ihrer am häufigsten zitierten jüngsten Arbeiten ist „Learning Structured Sparsity in Deep Neural Networks“, in der erläutert wird, wie wichtig es ist, die Effizienz tiefer neuronaler Netze zu verbessern. Warum ist es wichtig, die Effizienz tiefer neuronaler Netze zu verbessern? Was sind die vielversprechenden Forschungsrichtungen auf diesem Gebiet? Die hohe (Inferenz-)Genauigkeit moderner tiefer neuronaler Netze (DNNs) geht mit einem höheren Rechenaufwand einher, der durch die zunehmende Tiefe und Breite neuronaler Netze verursacht wird. Wir wissen jedoch auch, dass die Verbindungsgewichte des neuronalen Netzwerks nicht den gleichen Einfluss auf die Genauigkeit des neuronalen Netzwerks haben. Wenn die Verbindungsgewichte nahe bei Null liegen, ist es wahrscheinlich, dass die Verbindungen beschnitten werden können (d. h. die Gewichte werden auf Null gesetzt), ohne dass die Genauigkeit des neuronalen Netzwerks in irgendeiner Weise wesentlich beeinträchtigt wird. Dieser Artikel, den wir auf der NeurIPS 2016 veröffentlicht haben, zeigt, dass das Erlernen strukturierter, spärlicher neuronaler Netze mit einem Gewicht ungleich Null, die im Speicher gespeichert sind, eine gute Datenlokalität aufrechterhalten und die Cache-Miss-Raten reduzieren kann. Daher wird die Recheneffizienz neuronaler Netze erheblich verbessert. Die vorgeschlagene Technik, nämlich strukturiertes Sparse-Learning (oft als strukturiertes Spleißen bezeichnet) und ihre Varianten, wurde im modernen effizienten DNN-Modelldesign weit verbreitet und wird von vielen Rechenchips für künstliche Intelligenz (KI) wie Intel Nervana und NVIDIA Ampere unterstützt.
Die Verbesserung der Effizienz von DNN ist von entscheidender Bedeutung, da sie die Skalierung großer DNN-Modelle und den Einsatz großer Modelle auf Systemen mit begrenzten Rechen-, Speicherressourcen und Strombudgets, wie z. B. Edge- und IoT-Geräten, weitgehend behindert. Der neueste Forschungstrend in diesem Bereich ist die Kombination von Innovationen auf Algorithmen- und Hardwareebene, wie etwa der Entwurf von Beschleunigern für künstliche Intelligenz auf Basis neu entstehender Nanogeräte, um neue oder unentwickelte Modelle für künstliche Intelligenz zu beschleunigen, wie etwa Bayes'sche Modelle, quantenähnliche Modelle oder neuronale Modelle Symbolisches Modell usw.
ACM: Kürzlich wurde bekannt gegeben, dass Sie das Athena-Projekt (Athena) des Next Generation Network and Edge Computing Artificial Intelligence Institute der National Science Foundation leiten werden. Das Athena-Projekt ist ein fünfjähriges, 20 Millionen US-Dollar teures Projekt, an dem mehrere Institutionen beteiligt sein werden, darunter die Duke University, das MIT, die Princeton University, die Yale University, die University of Michigan, die University of Wisconsin und die North Carolina Agricultural and Technical State University. Was sind die Ziele von Project Athena?
Yiran Chen: Wir freuen uns sehr über die Gründung von Project Athena, einem Flaggschiff-Institut für Edge-Computing-künstliche Intelligenz, das von der National Science Foundation und dem US-Heimatschutzministerium gefördert wird . Das Ziel von Athena besteht darin, das Design, den Betrieb und die Dienste zukünftiger Mobilfunknetzsysteme zu verändern, indem es beispiellose Leistung liefert und bisher unmögliche Dienste unterstützt und gleichzeitig Komplexität und Kosten durch fortschrittliche Technologie der künstlichen Intelligenz kontrolliert.
Die Forschungsaktivitäten von Athena sind in vier Kernbereiche unterteilt: Edge-Computing-Systeme, Computersysteme, Netzwerksysteme sowie Dienste und Anwendungen. Die von uns entwickelte Technologie der künstlichen Intelligenz wird auch die theoretischen und technischen Grundlagen für die Funktionalität, Heterogenität, Skalierbarkeit und Vertrauenswürdigkeit zukünftiger Mobilfunknetze liefern.
Als Verbindungspunkt für die Community wird Athena das Ökosystem neuer Technologien fördern und eine vielfältige neue Generation von Technologieführern mit ethischen und fairen Werten fördern. Wir gehen davon aus, dass der Erfolg von Athena die Zukunft der Mobilfunknetzbranche neu gestalten, neue Geschäftsmodelle und unternehmerische Möglichkeiten schaffen und die zukünftige Mobilfunknetzforschung und industrielle Anwendungen verändern wird.
ACM: Was sind die spannendsten Trends in der Designautomatisierung? Welche Rolle sehen Sie als Vorsitzender der ACM Special Interest Group on Design Automation (SIGDA) in diesem Bereich?
Yiran Chen: Der aufregendste Trend in der Designautomatisierung im letzten Jahrzehnt war die weit verbreitete Einführung der Technologie des maschinellen Lernens in Tools zur elektronischen Designautomatisierung (EDA). Da die Qualität des Chipdesigns weitgehend von der Erfahrung der Chipdesigner abhängt, liegt die Idee nahe, intelligente EDA-Tools zu entwickeln, die direkt lernen können, wie man Halbleiterchip-Designmethoden von zuvor vorhandenen Designs erbt, ohne das traditionelle, umfangreiche Modell erneut durchlaufen zu müssen . Verschiedene Modelle für maschinelles Lernen wurden in die neuesten EDA-Abläufe eingebettet, um die Weiterleitung und Platzierung von Computertests, die Leistungsschätzung, die Timing-Analyse, die Parameterabstimmung, die Signalintegrität und mehr zu beschleunigen. In den Hardwaremodulen des Chips wurden außerdem Algorithmen für maschinelles Lernen implementiert, um den Stromverbrauch des Chips während der Laufzeit zu überwachen und vorherzusagen. Zum Beispiel unser APOLLO-Framework (gewonnen mit dem MICRO 2021 Best Paper Award).
Papieradresse: https://dl.acm.org/doi/pdf/10.1145/3466752.3480064
Als einer der größten EDA-Berufsverbände engagiert sich SIGDA für die Förderung von EDA-Fachkräften und -Studenten die Welt Fähigkeiten und Wissen. SIGDA sponsert und organisiert jedes Jahr mehr als 30 internationale und regionale Konferenzen, gibt mehrere Zeitschriften und Newsletter heraus und unterstützt sie und veranstaltet mehr als ein Dutzend Bildungs- und Technikveranstaltungen, darunter Workshops, Tutorials, Webinare, Wettbewerbe, Forschungsforen und Universitätspräsentationen. In Zusammenarbeit mit unseren Industriepartnern vergibt SIGDA außerdem Reisestipendien an junge Studenten, Lehrer und Fachkräfte, um ihre Teilnahme an Konferenzen zu unterstützen. Darüber hinaus verleihen wir herausragenden Forschern und Freiwilligen in der Gemeinschaft eine Reihe von Auszeichnungen.
ACM: Was ist ein Beispiel für einen Forschungsweg in Ihrem Bereich, der in den kommenden Jahren besonders wirkungsvoll sein wird?
Chen Yiran: Ich glaube, dass ein universeller und erklärbarer Entwurfsprozess für KI-Computerhardware die nächste revolutionäre Technologie in der EDA- und Computersystemforschung sein wird.
Im letzten Jahrzehnt wurden verschiedene Hardwaredesigns vorgeschlagen, um die Berechnung von Modellen der künstlichen Intelligenz zu beschleunigen. Allerdings kämpfen Designer immer zwischen Designvielfalt und Effizienz, da viele Hardwareanpassungen erforderlich sind, um der einzigartigen Struktur des sich ständig ändernden Modells Rechnung zu tragen. Andererseits war die Erklärbarkeit eine langfristige Herausforderung bei der Gewährleistung der Robustheit von KI-Modellen und der Verallgemeinerung des Modelldesigns.
Zukünftiges KI-Computing-Hardwaredesign kann aus verschiedenen interpretierbaren Hardwaremodulen bestehen, die ihren jeweiligen Algorithmen entsprechen. Die Leistung der KI-Computing-Hardware wird durch einen gemeinsamen Designprozess gewährleistet. Eine mögliche Lösung besteht darin, neuronale symbolische Methoden zu verwenden, um ein zusammensetzbares KI-Modell zu erstellen und Hardwaremodule zu implementieren, die den symbolischen Algorithmusmodulen entsprechen. Erweiterte AutoML-Abläufe können dann verwendet werden, um den Entwurf der Ziel-KI-Rechnerhardware zu automatisieren, um die gewünschte Leistung zu erreichen und gleichzeitig Generalisierbarkeit und Interpretierbarkeit zu gewährleisten.
Das obige ist der detaillierte Inhalt vonUniverselles, erklärbares KI-Computing-Hardwaredesign wird die nächste revolutionäre Technologie in der EDA sein. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Bei der Konvertierung von Zeichenfolgen in Objekte in Vue.js wird JSON.Parse () für Standard -JSON -Zeichenfolgen bevorzugt. Bei nicht standardmäßigen JSON-Zeichenfolgen kann die Zeichenfolge durch Verwendung regelmäßiger Ausdrücke verarbeitet und Methoden gemäß dem Format oder dekodierten URL-kodiert reduziert werden. Wählen Sie die entsprechende Methode gemäß dem String -Format aus und achten Sie auf Sicherheits- und Codierungsprobleme, um Fehler zu vermeiden.

Remote Senior Backend Engineer Job Vacant Company: Circle Standort: Remote-Büro-Jobtyp: Vollzeitgehalt: 130.000 bis 140.000 US-Dollar Stellenbeschreibung Nehmen Sie an der Forschung und Entwicklung von Mobilfunkanwendungen und öffentlichen API-bezogenen Funktionen, die den gesamten Lebenszyklus der Softwareentwicklung abdecken. Die Hauptaufgaben erledigen die Entwicklungsarbeit unabhängig von RubyonRails und arbeiten mit dem Front-End-Team von React/Redux/Relay zusammen. Erstellen Sie die Kernfunktionalität und -verbesserungen für Webanwendungen und arbeiten Sie eng mit Designer und Führung während des gesamten funktionalen Designprozesses zusammen. Fördern Sie positive Entwicklungsprozesse und priorisieren Sie die Iterationsgeschwindigkeit. Erfordert mehr als 6 Jahre komplexes Backend für Webanwendungen

Zusammenfassung: Es gibt die folgenden Methoden zum Umwandeln von VUE.JS -String -Arrays in Objektarrays: Grundlegende Methode: Verwenden Sie die Kartenfunktion, um regelmäßige formatierte Daten zu entsprechen. Erweitertes Gameplay: Die Verwendung regulärer Ausdrücke kann komplexe Formate ausführen, müssen jedoch sorgfältig geschrieben und berücksichtigt werden. Leistungsoptimierung: In Betracht ziehen die große Datenmenge, asynchrone Operationen oder effiziente Datenverarbeitungsbibliotheken können verwendet werden. Best Practice: Clear Code -Stil, verwenden Sie sinnvolle variable Namen und Kommentare, um den Code präzise zu halten.

Der Artikel führt den Betrieb der MySQL -Datenbank vor. Zunächst müssen Sie einen MySQL -Client wie MySQLworkBench oder Befehlszeilen -Client installieren. 1. Verwenden Sie den Befehl mySQL-uroot-P, um eine Verbindung zum Server herzustellen und sich mit dem Stammkonto-Passwort anzumelden. 2. Verwenden Sie die Erstellung von Createdatabase, um eine Datenbank zu erstellen, und verwenden Sie eine Datenbank aus. 3.. Verwenden Sie CreateTable, um eine Tabelle zu erstellen, Felder und Datentypen zu definieren. 4. Verwenden Sie InsertInto, um Daten einzulegen, Daten abzufragen, Daten nach Aktualisierung zu aktualisieren und Daten nach Löschen zu löschen. Nur indem Sie diese Schritte beherrschen, lernen, mit gemeinsamen Problemen umzugehen und die Datenbankleistung zu optimieren, können Sie MySQL effizient verwenden.

Verarbeiten Sie 7 Millionen Aufzeichnungen effizient und erstellen Sie interaktive Karten mit Geospatial -Technologie. In diesem Artikel wird untersucht, wie über 7 Millionen Datensätze mithilfe von Laravel und MySQL effizient verarbeitet und in interaktive Kartenvisualisierungen umgewandelt werden können. Erstes Herausforderungsprojektanforderungen: Mit 7 Millionen Datensätzen in der MySQL -Datenbank wertvolle Erkenntnisse extrahieren. Viele Menschen erwägen zunächst Programmiersprachen, aber ignorieren die Datenbank selbst: Kann sie den Anforderungen erfüllen? Ist Datenmigration oder strukturelle Anpassung erforderlich? Kann MySQL einer so großen Datenbelastung standhalten? Voranalyse: Schlüsselfilter und Eigenschaften müssen identifiziert werden. Nach der Analyse wurde festgestellt, dass nur wenige Attribute mit der Lösung zusammenhängen. Wir haben die Machbarkeit des Filters überprüft und einige Einschränkungen festgelegt, um die Suche zu optimieren. Kartensuche basierend auf der Stadt

Vue- und Element-UI-kaskadierte Dropdown-Boxen V-Model-Bindung gemeinsame Grubenpunkte: V-Model bindet ein Array, das die ausgewählten Werte auf jeder Ebene des kaskadierten Auswahlfelds darstellt, nicht auf einer Zeichenfolge; Der Anfangswert von ausgewählten Optionen muss ein leeres Array sein, nicht null oder undefiniert. Die dynamische Belastung von Daten erfordert die Verwendung asynchroner Programmierkenntnisse, um Datenaktualisierungen asynchron zu verarbeiten. Für riesige Datensätze sollten Leistungsoptimierungstechniken wie virtuelles Scrollen und fauler Laden in Betracht gezogen werden.

Es gibt viele Gründe, warum MySQL Startup fehlschlägt und durch Überprüfung des Fehlerprotokolls diagnostiziert werden kann. Zu den allgemeinen Ursachen gehören Portkonflikte (prüfen Portbelegung und Änderung der Konfiguration), Berechtigungsprobleme (Überprüfen Sie den Dienst Ausführen von Benutzerberechtigungen), Konfigurationsdateifehler (Überprüfung der Parametereinstellungen), Datenverzeichniskorruption (Wiederherstellung von Daten oder Wiederaufbautabellenraum), InnoDB-Tabellenraumprobleme (prüfen IBDATA1-Dateien), Plug-in-Ladeversagen (Überprüfen Sie Fehlerprotokolle). Wenn Sie Probleme lösen, sollten Sie sie anhand des Fehlerprotokolls analysieren, die Hauptursache des Problems finden und die Gewohnheit entwickeln, Daten regelmäßig zu unterstützen, um Probleme zu verhindern und zu lösen.

Die MySQL -Leistungsoptimierung muss von drei Aspekten beginnen: Installationskonfiguration, Indexierung und Abfrageoptimierung, Überwachung und Abstimmung. 1. Nach der Installation müssen Sie die my.cnf -Datei entsprechend der Serverkonfiguration anpassen, z. 2. Erstellen Sie einen geeigneten Index, um übermäßige Indizes zu vermeiden und Abfrageanweisungen zu optimieren, z. B. den Befehl Erklärung zur Analyse des Ausführungsplans; 3. Verwenden Sie das eigene Überwachungstool von MySQL (ShowProcessList, Showstatus), um die Datenbankgesundheit zu überwachen und die Datenbank regelmäßig zu sichern und zu organisieren. Nur durch kontinuierliche Optimierung dieser Schritte kann die Leistung der MySQL -Datenbank verbessert werden.
