


Meta wirft die KI kontinuierlich, um den ultimativen Zug zu beschleunigen! Der erste KI-Inferenzchip, KI-Supercomputer, der speziell für das Training großer Modelle entwickelt wurde
Zusammengestellt |. Li Shuiqing
bearbeiten |. 心元
zhixixi 19. Mai, Ortszeit, Meta gab auf seiner offiziellen Website eine Ankündigung heraus, um der stark wachsenden Nachfrage nach KI-Rechenleistung in den nächsten zehn Jahren gerecht zu werden Plan – speziell für die KI-Infrastruktur der nächsten Generation entwickelt.
Meta gab seine neuesten Fortschritte beim Aufbau einer Infrastruktur der nächsten Generation für KI bekannt, darunter den ersten benutzerdefinierten Chip für die Ausführung von KI-Modellen, ein neues KI-optimiertes Rechenzentrumsdesign, den ersten Videotranskodierungs-ASIC und eine integrierte 16.000-Block-GPU, KI Supercomputer RSC zur Beschleunigung des KI-Trainings usw.
▲Offenlegung von Details zur KI-Infrastruktur auf der offiziellen Meta-Website
Meta betrachtet KI als die Kerninfrastruktur des Unternehmens. Seit Meta im Jahr 2010 den Grundstein für sein erstes Rechenzentrum gelegt hat, ist KI zum Motor von mehr als 3 Milliarden Menschen geworden, die täglich die Meta-Anwendungsfamilie nutzen. Von der Big-Sur-Hardware im Jahr 2015 über die Entwicklung von PyTorch bis hin zum ersten Einsatz des KI-Supercomputers von Meta im letzten Jahr – Meta ist derzeit dabei, diese Infrastrukturen weiter zu modernisieren und weiterzuentwickeln.
1. Metas KI-Inferenzbeschleuniger der ersten Generation, 7-nm-Prozess, 102,4TOPS Rechenleistung
MTIA (Meta Training and Inference Accelerator) ist Metas erste firmeneigene Beschleuniger-Chipserie für Inferenz-Workloads.
KI-Workloads sind im Geschäft von Meta allgegenwärtig und bilden die Grundlage für eine Vielzahl von Anwendungsprojekten, darunter Inhaltsverständnis, Informationsfluss, generative KI und Anzeigenranking. Da KI-Modelle immer größer und komplexer werden, müssen die zugrunde liegenden Hardwaresysteme eine exponentielle Steigerung des Speichers und der Rechenleistung ermöglichen und gleichzeitig die Effizienz aufrechterhalten. Meta stellte jedoch fest, dass es für CPUs schwierig war, die für ihre Größenordnung erforderlichen Effizienzniveauanforderungen zu erfüllen, und entwickelte daher Metas selbst entwickelte MTIA-ASIC-Serie mit Trainings- und Inferenzbeschleunigern, um dieser Herausforderung zu begegnen.
Ab 2020 entwickelte Meta den MTIA ASIC der ersten Generation für seine internen Workloads. Der Beschleuniger nutzt den 7-nm-Prozess von TSMC, läuft mit 800 MHz und bietet 102,4TOPS Rechenleistung bei INT8-Präzision und 51,2TFLOPS Rechenleistung bei FP16-Präzision. Seine Thermal Design Power (TDP) beträgt 25 W.
Berichten zufolge bietet MTIA eine höhere Rechenleistung und Effizienz als CPU. Durch den gleichzeitigen Einsatz von MTIA-Chips und GPUs wird eine bessere Leistung, geringere Latenz und eine höhere Effizienz für jede Arbeitslast erzielt.
2. Entwerfen Sie das Rechenzentrum der nächsten Generation und entwickeln Sie den ersten Videotranskodierungs-ASIC
Metas Rechenzentrumsdesign der nächsten Generation wird seine aktuellen Produkte unterstützen und gleichzeitig Training und Inferenz für zukünftige Generationen von KI-Hardware unterstützen. Dieses neue Rechenzentrum wird für KI optimiert und unterstützt flüssigkeitsgekühlte KI-Hardware und ein leistungsstarkes KI-Netzwerk, das Tausende von KI-Chips für KI-Trainingscluster im Rechenzentrumsmaßstab verbindet.
Laut der offiziellen Website wird Metas Rechenzentrum der nächsten Generation auch schneller und kostengünstiger gebaut und durch weitere neue Hardware ergänzt, wie beispielsweise Metas erste intern entwickelte ASIC-Lösung, MSVP, die für die Unterstützung konzipiert ist Metas kontinuierliches Wachstum der Video-Workloads.
Mit dem Aufkommen neuer Technologieinhalte wie generativer KI ist die Nachfrage der Menschen nach Videoinfrastruktur weiter gestiegen, was Meta dazu veranlasst hat, einen skalierbaren Videoprozessor MSVP auf den Markt zu bringen.
MSVP ist Metas erster selbst entwickelter ASIC für die Videotranskodierung. MSVP ist programmierbar und skalierbar und kann so konfiguriert werden, dass es die für On-Demand erforderliche hochwertige Transkodierung sowie die für Live-Streaming erforderliche geringe Latenz und schnellere Verarbeitungszeiten effizient unterstützt. Zukünftig wird MSVP auch dazu beitragen, jedem Mitglied der Meta-Anwendungsfamilie neue Formen von Videoinhalten bereitzustellen – einschließlich KI-generierter Inhalte sowie VR- (Virtual Reality) und AR- (Augmented Reality) Inhalte.
▲MSVP-Architekturdiagramm
3. KI-Supercomputing integriert 16.000 GPUs und unterstützt große LLaMA-Modelle, um Trainingsiterationen zu beschleunigen
Laut Metas Ankündigung ist sein AI Super Computer (RSC) einer der schnellsten Supercomputer mit künstlicher Intelligenz der Welt. Er soll die nächste Generation groß angelegter KI-Modelle trainieren und neue AR-Tools und Inhaltsverständnis bereitstellen Systeme, Echtzeit-Übersetzungstechnologie usw. liefern Strom.
Meta RSC verfügt über 16.000 GPUs, die alle über eine dreistufige Clos-Netzwerkstruktur zugänglich sind und jedem der 2.000 Trainingssysteme die volle Bandbreite bieten. Im vergangenen Jahr hat das RSC Forschungsprojekte wie LLaMA gefördert.
LLaMA ist ein großes Sprachmodell, das Anfang des Jahres von Meta erstellt und als Open Source bereitgestellt wurde, mit einer Skala von 65 Milliarden Parametern. Laut Meta besteht sein Ziel darin, ein kleineres, leistungsstärkeres Modell bereitzustellen, das Forscher untersuchen und für bestimmte Aufgaben optimieren können, ohne dass erhebliche Hardware erforderlich ist.
Meta trainierte LLaMA 65B und den kleineren LLaMA 33B basierend auf 1,4 Billionen Token. Sein kleinstes Modell, LLaMA 7B, verwendet ebenfalls eine Billion Token für das Training. Durch die Fähigkeit zur skalierten Ausführung kann Meta Trainings- und Optimierungsiterationen beschleunigen und Modelle schneller veröffentlichen als andere Unternehmen.
Fazit: Der Einsatz der Großmodelltechnologie hat große Hersteller gezwungen, den Ausbau der Infrastruktur zu beschleunigen
Meta gestaltet den Großteil seiner Infrastruktur kundenspezifisch, vor allem, weil es dadurch die End-to-End-Erfahrung optimieren kann, von der physischen Ebene über die Softwareebene bis hin zur tatsächlichen Benutzererfahrung. Da der Stapel von oben nach unten gesteuert wird, kann er an Ihre spezifischen Bedürfnisse angepasst werden. Diese Infrastrukturen werden Meta bei der Entwicklung und Bereitstellung größerer und komplexerer KI-Modelle unterstützen.
In den nächsten Jahren werden wir eine zunehmende Spezialisierung und Anpassung im Chipdesign, eine spezialisierte und arbeitslastspezifische KI-Infrastruktur, neue Systeme und Tools sowie eine höhere Effizienz bei der Produkt- und Designunterstützung erleben. Diese werden immer anspruchsvollere Modelle und Produkte liefern, die auf den neuesten Forschungsergebnissen basieren und es Menschen auf der ganzen Welt ermöglichen, diese neue Technologie zu nutzen.
Quelle: Offizielle Meta-Website
Das obige ist der detaillierte Inhalt vonMeta wirft die KI kontinuierlich, um den ultimativen Zug zu beschleunigen! Der erste KI-Inferenzchip, KI-Supercomputer, der speziell für das Training großer Modelle entwickelt wurde. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Die Vibe -Codierung verändert die Welt der Softwareentwicklung, indem wir Anwendungen mit natürlicher Sprache anstelle von endlosen Codezeilen erstellen können. Inspiriert von Visionären wie Andrej Karpathy, lässt dieser innovative Ansatz Dev

Dall-e 3: Ein generatives KI-Bilderstellungstool Generative AI revolutioniert die Erstellung von Inhalten, und Dall-E 3, das neueste Bildgenerierungsmodell von OpenAI, steht vor der Spitze. Veröffentlicht im Oktober 2023 baut es auf seinen Vorgängern Dall-E und Dall-E 2 auf

Februar 2025 war ein weiterer bahnbrechender Monat für die Generative KI, die uns einige der am meisten erwarteten Modell-Upgrades und bahnbrechenden neuen Funktionen gebracht hat. Von Xais Grok 3 und Anthropics Claude 3.7 -Sonett, um g zu eröffnen

Yolo (Sie schauen nur einmal) war ein führender Echtzeit-Objekterkennungsrahmen, wobei jede Iteration die vorherigen Versionen verbessert. Die neueste Version Yolo V12 führt Fortschritte vor, die die Genauigkeit erheblich verbessern

Das 500 -Milliarden -Dollar -Stargate AI -Projekt, das von Tech -Giganten wie Openai, Softbank, Oracle und Nvidia unterstützt und von der US -Regierung unterstützt wird, zielt darauf ab, die amerikanische KI -Führung zu festigen. Dieses ehrgeizige Unternehmen verspricht eine Zukunft, die von AI Advanceme geprägt ist

Google's Veo 2 und Openais Sora: Welcher AI -Videogenerator regiert oberste? Beide Plattformen erzeugen beeindruckende KI -Videos, aber ihre Stärken liegen in verschiedenen Bereichen. Dieser Vergleich unter Verwendung verschiedener Eingabeaufforderungen zeigt, welches Werkzeug Ihren Anforderungen am besten entspricht. T

Gencast von Google Deepmind: Eine revolutionäre KI für die Wettervorhersage Die Wettervorhersage wurde einer dramatischen Transformation unterzogen, die sich von rudimentären Beobachtungen zu ausgefeilten AI-angetriebenen Vorhersagen überschreitet. Google DeepMinds Gencast, ein Bodenbrei

Der Artikel erörtert KI -Modelle, die Chatgpt wie Lamda, Lama und Grok übertreffen und ihre Vorteile in Bezug auf Genauigkeit, Verständnis und Branchenauswirkungen hervorheben. (159 Charaktere)
