Inhaltsverzeichnis
Herausforderungen für Einrichtungen der maschinellen Lerntechnologie
Lösungen und Ziele
AI/ML Leaders Community
OpenXLA-Ökosystem: Leistung, Skalierbarkeit und Portabilität
OpenXLA Key Highlights
Heim Technologie-Peripheriegeräte KI Einheitliche KI-Entwicklung: Google OpenXLA ist Open Source und integriert alle Frameworks und KI-Chips

Einheitliche KI-Entwicklung: Google OpenXLA ist Open Source und integriert alle Frameworks und KI-Chips

Apr 29, 2023 am 11:55 AM
机器学习 ai

Auf der Google Cloud Next 2022-Veranstaltung im Oktober letzten Jahres wurde das OpenXLA-Projekt offiziell vorgestellt, ein Open-Source-KI-Framework, das von Google und Technologieunternehmen wie Alibaba, AMD, Arm, Amazon, Intel, NVIDIA und gefördert wird Andere Technologieunternehmen setzen sich dafür ein, verschiedene Frameworks für maschinelles Lernen zusammenzuführen, um Entwicklern für maschinelles Lernen die Möglichkeit zu geben, Frameworks und Hardware proaktiv auszuwählen.

Am Mittwoch gab Google bekannt, dass das OpenXLA-Projekt offiziell Open Source ist.

Einheitliche KI-Entwicklung: Google OpenXLA ist Open Source und integriert alle Frameworks und KI-Chips

Projektlink: https://github.com /openxla/xla

OpenXLA beschleunigt maschinelles Lernen durch die Erstellung eines einheitlichen Machine-Learning-Compilers, der mit vielen verschiedenen Machine-Learning-Frameworks und Hardwareplattformen zusammenarbeitet. Anwendungsbereitstellung und -bereitstellung größere Code-Portabilität. Dies ist ein bedeutendes Projekt für die KI-Forschung und -Anwendungen, und Jeff Dean hat es auch in sozialen Netzwerken beworben.

Einheitliche KI-Entwicklung: Google OpenXLA ist Open Source und integriert alle Frameworks und KI-Chips

Heutzutage werden die Entwicklung und Bereitstellung von maschinellem Lernen durch eine fragmentierte Infrastruktur behindert. Die Auswirkungen Diese Infrastrukturen können je nach Framework, Hardware und Anwendungsfall variieren. Diese Isolation begrenzt die Geschwindigkeit, mit der Entwickler arbeiten können, und schafft Hindernisse für die Portabilität, Effizienz und Produktion von Modellen.

Am 8. März haben Google und andere mit der Eröffnung des OpenXLA-Projekts, das die Repositorys XLA, StableHLO und IREE umfasst, einen wichtigen Schritt zur Beseitigung dieser Hindernisse unternommen. Schritt.

OpenXLA ist ein Open-Source-ML-Compiler-Ökosystem, das gemeinsam von Branchenführern im Bereich KI/maschinelles Lernen entwickelt wurde. Zu den Mitwirkenden gehören Alibaba, AWS, AMD, Apple, Arm, Cerebras, Google, Graphcore, Hugging Face, Intel, Meta und Nvidia. Es ermöglicht Entwicklern, Modelle aus allen führenden Frameworks für maschinelles Lernen zu kompilieren und zu optimieren, um sie effizient zu trainieren und auf einer Vielzahl von Hardware bereitzustellen. Entwickler, die OpenXLA verwenden, können erhebliche Verbesserungen bei der Trainingszeit, dem Durchsatz, der Service-Latenz und letztendlich bei den Release- und Rechenkosten beobachten.

Herausforderungen für Einrichtungen der maschinellen Lerntechnologie

Während die KI-Technologie in die praktische Phase eintritt, nutzen Entwicklungsteams in vielen Branchen maschinelles Lernen, um reale Lösungen zu finden -weltliche Herausforderungen wie die Vorhersage und Prävention von Krankheiten, personalisierte Lernerfahrungen und die Erforschung der Physik schwarzer Löcher.

Da die Anzahl der Modellparameter exponentiell wächst und sich der Rechenaufwand für Deep-Learning-Modelle alle sechs Monate verdoppelt, sind Entwickler bestrebt, die Leistung und Auslastung der Infrastruktur zu maximieren. Eine große Anzahl von Teams nutzt eine Vielzahl von Hardwaremodellen, von energieeffizienten ASICs speziell für maschinelles Lernen im Rechenzentrum bis hin zu KI-Edge-Prozessoren, die schnellere Reaktionszeiten bieten. Um die Effizienz zu verbessern, verwenden diese Hardwaregeräte dementsprechend angepasste und einzigartige Algorithmen und Softwarebibliotheken.

Aber wenn es andererseits keinen universellen Compiler gibt, der verschiedene Hardwaregeräte mit den verschiedenen heute verwendeten Frameworks (wie TensorFlow, PyTorch) verbindet, wird man es tun Es erfordert viel Aufwand, maschinelles Lernen effektiv durchzuführen. In der Praxis müssen Entwickler die Modelloperationen für jedes Hardwareziel manuell optimieren. Das bedeutet, dass die Verwendung benutzerdefinierter Softwarebibliotheken oder das Schreiben gerätespezifischen Codes Domänenkenntnisse erfordert.

Dies ist ein paradoxes Ergebnis. Der Einsatz spezialisierter Technologie zur Verbesserung der Effizienz führt zu isolierten, nicht verallgemeinerbaren Pfaden über Frameworks und Hardware hinweg, was wiederum zu hohen Wartungskosten führt Dies führt zu einer Anbieterbindung und verlangsamt den Fortschritt der maschinellen Lernentwicklung.

Lösungen und Ziele

Das OpenXLA-Projekt bietet einen hochmodernen ML-Compiler, der mit der Komplexität der ML-Infrastruktur skaliert. Die Grundpfeiler sind Leistung, Skalierbarkeit, Portabilität, Flexibilität und Benutzerfreundlichkeit. Mit OpenXLA streben wir danach, das größere Potenzial der KI in der realen Welt auszuschöpfen, indem wir die Entwicklung und Bereitstellung von KI beschleunigen.

OpenXLA zielt darauf ab:

  • Ermöglicht Entwicklern das einfache Kompilieren und Kompilieren für eine Vielzahl von Hardware in ihrem bevorzugten Framework mit einer einheitlichen Compiler-API, die mit jedem Framework funktioniert und auf dedizierte Geräte-Backends und Optimierungen zugreift. Optimieren Sie jedes Modell.
  • Bietet branchenführende Leistung für aktuelle und neue Modelle und kann auch auf mehrere Hosts und Beschleuniger skaliert werden, um die Einschränkungen der Edge-Bereitstellung zu erfüllen und auf neue Modellarchitekturen zu verallgemeinern die Zukunft.
  • Erstellen Sie eine mehrschichtige und skalierbare Compilerplattform für maschinelles Lernen, die Entwicklern MLIR-basierte Komponenten bietet, die für ihre individuellen Anwendungsfälle neu konfiguriert werden können und für einen an die Hardware angepassten Kompilierungsprozess verwendet werden.

AI/ML Leaders Community

Die Herausforderungen, denen wir heute in der Infrastruktur für maschinelles Lernen gegenüberstehen, sind riesig, das kann keine einzelne Organisation Diese Herausforderungen allein effektiv bewältigen können. Die OpenXLA-Community bringt Entwickler und Branchenführer zusammen, die auf verschiedenen Ebenen des KI-Stacks tätig sind – von Frameworks bis hin zu Compilern, Laufzeiten und Chips – und ist daher ideal geeignet, die Fragmentierung, die wir im ML-Bereich beobachten, anzugehen.

Als Open-Source-Projekt hält sich OpenXLA an die folgenden Grundsätze:

  • Gleich Status: Einzelpersonen tragen gleichermaßen bei, unabhängig von ihrer Zugehörigkeit. Technische Führungskräfte sind diejenigen, die am meisten Zeit und Energie investieren.
  • Respektieren Sie die Kultur: Von allen Mitgliedern wird erwartet, dass sie die Projektwerte und den Verhaltenskodex einhalten, unabhängig von ihrer Position in der Gemeinschaft.
  • Skalierbare, effiziente Governance: Kleine Teams treffen konsensbasierte Entscheidungen mit klaren, aber selten genutzten Upgrade-Pfaden.
  • Transparenz: Alle Entscheidungen und Begründungen sollten für die Öffentlichkeit klar sichtbar sein.

OpenXLA-Ökosystem: Leistung, Skalierbarkeit und Portabilität

OpenXLA eliminiert die Entwicklung maschinellen Lernens mit modularen Toolchains. Es wird von allen führenden Unternehmen unterstützt Frameworks über eine gemeinsame Compiler-Schnittstelle, nutzt portable standardisierte Modelldarstellungen und stellt domänenspezifischen Compilern leistungsstarke zielorientierte und hardwarespezifische Optimierungen zur Verfügung. Die Toolchain umfasst XLA, StableHLO und IREE, die alle MLIR nutzen: eine Compiler-Infrastruktur, die es ermöglicht, Modelle für maschinelles Lernen konsistent auf Hardware darzustellen, zu optimieren und auszuführen.

Einheitliche KI-Entwicklung: Google OpenXLA ist Open Source und integriert alle Frameworks und KI-Chips

OpenXLA Key Highlights

#🎜. 🎜 #Umfang der Anwendungsfälle für maschinelles Lernen

Die aktuelle Nutzung von OpenXLA deckt das Spektrum der ML-Anwendungsfälle ab, einschließlich DeepMinds AlphaFold, GPT2 und Swin auf Alibaba Cloud-Modellen wie z als Transformer verfügen über eine umfassende Ausbildung sowie multimodale LLM-Schulungen auf Amazon.com. Kunden wie Waymo nutzen OpenXLA für Echtzeit-Inferenz im Fahrzeug. Darüber hinaus wird OpenXLA verwendet, um Stable Diffusion-Dienste auf lokalen Maschinen zu optimieren, die mit AMD RDNA™ 3 ausgestattet sind.

Beste Leistung, sofort einsatzbereit

OpenXLA Use Developers kann die Modellleistung problemlos beschleunigen, ohne gerätespezifischen Code schreiben zu müssen. Es verfügt über umfassende Funktionen zur Modelloptimierung, einschließlich der Vereinfachung algebraischer Ausdrücke, der Optimierung des speicherinternen Datenlayouts und der Verbesserung der Planung, um die Spitzenspeichernutzung und den Kommunikationsaufwand zu reduzieren. Fortschrittliche Operator-Fusion und Kernel-Generierung tragen dazu bei, die Geräteauslastung zu verbessern und den Bedarf an Speicherbandbreite zu reduzieren.

Workloads einfach skalieren

Effiziente Parallelisierungsalgorithmen entwickeln Sehr zeitaufwändig und erfordert Fachwissen. Mit Funktionen wie GSPMD müssen Entwickler nur eine Teilmenge der Schlüsseltensoren mit Anmerkungen versehen, die dann vom Compiler verwendet werden können, um automatisch parallele Berechnungen zu generieren. Dadurch entfällt der erhebliche Aufwand für die Partitionierung und effiziente Parallelisierung von Modellen über mehrere Hardware-Hosts und Beschleuniger hinweg. #? --the-box-Unterstützung, einschließlich AMD- und NVIDIA-GPUs, x86-CPUs und ARM-Architekturen sowie ML-Beschleuniger wie Google TPU, AWS Trainium und Inferentia, Graphcore IPU, Cerebras Wafer-Scale Engine und mehr. OpenXLA unterstützt auch TensorFlow, PyTorch und JAX über StableHLO, eine tragbare Ebene, die als Eingabeformat für OpenXLA verwendet wird.

Flexibilität

OpenXLA bietet Benutzern die Flexibilität, Modell-Hotspots manuell anzupassen. Erweiterungsmechanismen wie benutzerdefinierte Aufrufe ermöglichen es Benutzern, Deep-Learning-Grundelemente in CUDA, HIP, SYCL, Triton und anderen Kernelsprachen zu schreiben, um die Hardwarefunktionen voll auszunutzen.

StableHLO

StableHLO ist eine tragbare Schicht zwischen ML-Frameworks und ML-Compilern, eine Reihe von Operationen, die High-Level-Operationen (HLO) für Dynamik, Quantisierung und Sparsity unterstützen. Darüber hinaus kann es in MLIR-Bytecode serialisiert werden, um Kompatibilitätsgarantien zu bieten. Alle wichtigen ML-Frameworks (JAX, PyTorch, TensorFlow) können StableHLO erzeugen. Im Jahr 2023 plant Google eine enge Zusammenarbeit mit dem PyTorch-Team, um die Integration mit PyTorch Version 2.0 zu erreichen.

Das obige ist der detaillierte Inhalt vonEinheitliche KI-Entwicklung: Google OpenXLA ist Open Source und integriert alle Frameworks und KI-Chips. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
2 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Repo: Wie man Teamkollegen wiederbelebt
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Abenteuer: Wie man riesige Samen bekommt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Warum ist es notwendig, Zeiger zu verabschieden, wenn sie GO- und Viper -Bibliotheken verwenden? Warum ist es notwendig, Zeiger zu verabschieden, wenn sie GO- und Viper -Bibliotheken verwenden? Apr 02, 2025 pm 04:00 PM

Go Zeigersyntax und Probleme bei der Verwendung der Viper -Bibliothek bei der Programmierung in Go -Sprache. Es ist entscheidend, die Syntax und Verwendung von Zeigern zu verstehen, insbesondere in ...

Warum werden alle Werte das letzte Element, wenn sie für den Bereich in der GO -Sprache verwendet werden, um Scheiben zu durchqueren und Karten zu speichern? Warum werden alle Werte das letzte Element, wenn sie für den Bereich in der GO -Sprache verwendet werden, um Scheiben zu durchqueren und Karten zu speichern? Apr 02, 2025 pm 04:09 PM

Warum bewirkt die Kartendiseration in Go alle Werte zum letzten Element? In Go -Sprache begegnen Sie, wenn Sie einige Interviewfragen konfrontiert sind, häufig Karten ...

Gibt es ein kostenloses XML -zu -PDF -Tool für Mobiltelefone? Gibt es ein kostenloses XML -zu -PDF -Tool für Mobiltelefone? Apr 02, 2025 pm 09:12 PM

Es gibt kein einfaches und direktes kostenloses XML -zu -PDF -Tool auf Mobilgeräten. Der erforderliche Datenvisualisierungsprozess beinhaltet komplexes Datenverständnis und Rendering, und die meisten sogenannten "freien" Tools auf dem Markt haben schlechte Erfahrung. Es wird empfohlen, Computer-Seiten-Tools zu verwenden oder Cloud-Dienste zu verwenden oder Apps selbst zu entwickeln, um zuverlässigere Conversion-Effekte zu erhalten.

Wie kann ich benutzerdefinierte Pakete unter Go -Modulen korrekt importieren? Wie kann ich benutzerdefinierte Pakete unter Go -Modulen korrekt importieren? Apr 02, 2025 pm 03:42 PM

In der GO -Sprachentwicklung ist die ordnungsgemäße Einführung kundenspezifischer Pakete ein entscheidender Schritt. Dieser Artikel richtet sich an "Golang ...

So verschönern Sie das XML -Format So verschönern Sie das XML -Format Apr 02, 2025 pm 09:57 PM

Die XML -Verschönerung verbessert im Wesentlichen seine Lesbarkeit, einschließlich angemessener Einkerbung, Zeilenpausen und Tag -Organisation. Das Prinzip besteht darin, den XML -Baum zu durchqueren, die Eindrücke entsprechend der Ebene hinzuzufügen und leere Tags und Tags, die Text enthalten, zu verarbeiten. Pythons xml.etree.elementtree -Bibliothek bietet eine bequeme Funktion hübsch_xml (), die den oben genannten Verschönerungsprozess implementieren kann.

So überprüfen Sie das XML -Format So überprüfen Sie das XML -Format Apr 02, 2025 pm 10:00 PM

Die Validierung des XML -Formats umfasst die Überprüfung der Struktur und der Einhaltung von DTD oder Schema. Ein XML -Parser ist erforderlich, wie z. Der Überprüfungsprozess umfasst das Parsen der XML -Datei, das Laden des XSD -Schemas und das Ausführen der AssertValid -Methode, um eine Ausnahme auszuführen, wenn ein Fehler erkannt wird. Das Überprüfen des XML -Formats erfordert auch die Handhabung verschiedener Ausnahmen und einen Einblick in die Sprache des XSD -Schemas.

So verwenden Sie char Array in C -Sprache So verwenden Sie char Array in C -Sprache Apr 03, 2025 pm 03:24 PM

Das Char -Array speichert Zeichensequenzen in der C -Sprache und wird als char Array_name [Größe] deklariert. Das Zugriffselement wird durch den Einweisoperator weitergeleitet, und das Element endet mit dem Null -Terminator '\ 0', der den Endpunkt der Zeichenfolge darstellt. Die C -Sprache bietet eine Vielzahl von String -Manipulationsfunktionen wie Strlen (), Strcpy (), Strcat () und strcmp ().

Warum führt der Code, der mit Sperren in Go gelegentlich zu Panik führt? Warum führt der Code, der mit Sperren in Go gelegentlich zu Panik führt? Apr 02, 2025 pm 04:36 PM

Warum verursachen die Verwendung von Schlösser gelegentlich Panik? Schauen wir uns eine interessante Frage an: Warum in Go, auch wenn Schlösser im Code hinzugefügt werden, manchmal ...

See all articles