Heim Technologie-Peripheriegeräte KI Neuer Titel: NVIDIA H200 veröffentlicht: HBM-Kapazität um 76 % erhöht, der leistungsstärkste KI-Chip, der die Leistung großer Modelle deutlich um 90 % verbessert

Neuer Titel: NVIDIA H200 veröffentlicht: HBM-Kapazität um 76 % erhöht, der leistungsstärkste KI-Chip, der die Leistung großer Modelle deutlich um 90 % verbessert

Nov 14, 2023 pm 03:21 PM
英伟达 ai芯片 提升 hbm-Kapazität Große Modellleistung

Neuer Titel: NVIDIA H200 veröffentlicht: HBM-Kapazität um 76 % erhöht, der leistungsstärkste KI-Chip, der die Leistung großer Modelle deutlich um 90 % verbessert

Neuigkeiten am 14. November: Nvidia hat die neue H200-GPU offiziell veröffentlicht und die GH200-Produktlinie auf der Konferenz „Supercomputing 23“ am Morgen des 13. Ortszeit aktualisiert

Unter diesen basiert H200 immer noch auf der bestehenden Hopper H100-Architektur, fügt jedoch mehr Speicher mit hoher Bandbreite (HBM3e) hinzu, um die großen Datensätze, die für die Entwicklung und Implementierung künstlicher Intelligenz erforderlich sind, besser verarbeiten zu können, sodass große Modelle ausgeführt werden können. Die Gesamtleistung ist im Vergleich zur Vorgängergeneration H100 um 60 % bis 90 % verbessert. Der aktualisierte GH200 wird auch die nächste Generation von KI-Supercomputern antreiben. Im Jahr 2024 werden mehr als 200 Exaflops KI-Rechenleistung online gehen.

H200: HBM-Kapazität um 76 % erhöht, Leistung großer Modelle um 90 % verbessert

Konkret bietet der neue H200 bis zu 141 GB HBM3e-Speicher, der effektiv mit etwa 6,25 Gbit/s läuft, was einer Gesamtbandbreite von 4,8 TB/s pro GPU in den sechs HBM3e-Stacks entspricht. Dies ist eine enorme Verbesserung im Vergleich zur H100 der vorherigen Generation (mit 80 GB HBM3 und 3,35 TB/s Bandbreite), mit einer Steigerung der HBM-Kapazität um mehr als 76 %. Offiziellen Daten zufolge wird H200 beim Betrieb großer Modelle eine Verbesserung von 60 % (GPT3 175B) bis 90 % (Llama 2 70B) im Vergleich zu H100 bringen

Neuer Titel: NVIDIA H200 veröffentlicht: HBM-Kapazität um 76 % erhöht, der leistungsstärkste KI-Chip, der die Leistung großer Modelle deutlich um 90 % verbessert

Neuer Titel: NVIDIA H200 veröffentlicht: HBM-Kapazität um 76 % erhöht, der leistungsstärkste KI-Chip, der die Leistung großer Modelle deutlich um 90 % verbessert

Während einige Konfigurationen des H100 mehr Speicher bieten, wie zum Beispiel das H100 NVL, das die beiden Platinen koppelt und insgesamt 188 GB Speicher (94 GB pro GPU) bietet, sogar im Vergleich zur H100 SXM-Variante, ist dies beim neuen H200 SXM ebenfalls der Fall bietet 76 % mehr Speicherkapazität und 43 % mehr Bandbreite.

Neuer Titel: NVIDIA H200 veröffentlicht: HBM-Kapazität um 76 % erhöht, der leistungsstärkste KI-Chip, der die Leistung großer Modelle deutlich um 90 % verbessert

Es sollte darauf hingewiesen werden, dass sich an der reinen Rechenleistung des H200 offenbar nicht viel geändert hat. Auf der einzigen Folie zeigte Nvidia, dass die reflektierte Rechenleistung auf einer HGX 200-Konfiguration mit acht GPUs basierte, mit einer Gesamtleistung von „32 PFLOPS FP8“. Während der ursprüngliche H100 3.958 Teraflops FP8-Rechenleistung bereitstellte, bieten acht dieser GPUs auch etwa 32 PFLOPS FP8-Rechenleistung

Die Verbesserung durch Speicher mit höherer Bandbreite hängt von der Arbeitslast ab. Große Modelle (wie GPT-3) werden von der Erhöhung der HBM-Speicherkapazität stark profitieren. Laut Nvidia wird der H200 beim Ausführen von GPT-3 18-mal besser abschneiden als der ursprüngliche A100 und etwa 11-mal schneller als der H100. Darüber hinaus zeigt ein Teaser für den kommenden Blackwell B100, dass er einen höheren Balken enthält, der schwarz wird und ungefähr doppelt so lang ist wie der H200 ganz rechts

Neuer Titel: NVIDIA H200 veröffentlicht: HBM-Kapazität um 76 % erhöht, der leistungsstärkste KI-Chip, der die Leistung großer Modelle deutlich um 90 % verbessert

Darüber hinaus sind H200 und H100 miteinander kompatibel. Mit anderen Worten: KI-Unternehmen, die das H100-Trainings-/Inferenzmodell verwenden, können nahtlos auf den neuesten H200-Chip umsteigen. Cloud-Service-Anbieter müssen keine Änderungen vornehmen, wenn sie H200 zu ihrem Produktportfolio hinzufügen.

Nvidia sagte, dass sie durch die Einführung neuer Produkte hoffen, mit dem Wachstum der Größe der Datensätze Schritt halten zu können, die zur Erstellung von Modellen und Diensten für künstliche Intelligenz verwendet werden. Durch die verbesserten Speicherkapazitäten kann der H200 Daten schneller an die Software weiterleiten, ein Prozess, der dabei hilft, künstliche Intelligenz für Aufgaben wie das Erkennen von Bildern und Sprache zu trainieren.

„Die Integration eines schnelleren HBM-Speichers mit größerer Kapazität trägt dazu bei, die Leistung für rechenintensive Aufgaben, einschließlich generativer KI-Modelle und Hochleistungs-Computing-Anwendungen, zu verbessern und gleichzeitig die GPU-Nutzung und -Effizienz zu optimieren“, sagte Ian Buck, Vice President of Product.

Dion Harris, Leiter für Rechenzentrumsprodukte bei NVIDIA, sagte: „Wenn man sich die Trends in der Marktentwicklung ansieht, nehmen die Modellgrößen rapide zu. Dies ist ein Beispiel dafür, wie wir weiterhin die neueste und beste Technologie einführen.“

Hersteller von Großrechnern und Cloud-Dienstanbieter werden voraussichtlich im zweiten Quartal 2024 mit der Nutzung des H200 beginnen. NVIDIA-Serverherstellerpartner (darunter Evergreen, ASUS, Dell, Eviden, Gigabyte, HPE, Hongbai, Lenovo, Wenda, MetaVision, Wistron und Wiwing) können den H200 zum Aktualisieren bestehender Systeme verwenden, während Amazon, Google, Microsoft, Oracle usw. wird der erste Cloud-Dienstanbieter sein, der H200 einführt.

Angesichts der derzeit starken Marktnachfrage nach NVIDIA AI-Chips und dem neuen H200, der teureren HBM3e-Speicher hinzufügt, wird der Preis des H200 definitiv höher sein. Einen Preis nennt Nvidia nicht, die vorherige H100-Generation kostete jedoch 25.000 bis 40.000 US-Dollar.

NVIDIA-Sprecherin Kristin Uchiyama sagte, dass der endgültige Preis von den Produktionspartnern von NVIDIA festgelegt wird

Zu der Frage, ob sich die Einführung von H200 auf die Produktion von H100 auswirken wird, sagte Kristin Uchiyama: „Wir gehen davon aus, dass das Gesamtangebot im Laufe des Jahres steigen wird

.“

Nvidias High-End-KI-Chips gelten seit jeher als die beste Wahl für die Verarbeitung großer Datenmengen und das Training großer Sprachmodelle und KI-Generierungstools. Als der H200-Chip auf den Markt kam, suchten KI-Unternehmen jedoch immer noch verzweifelt nach A100/H100-Chips auf dem Markt. Der Markt konzentriert sich weiterhin darauf, ob Nvidia genügend Angebot bereitstellen kann, um die Marktnachfrage zu decken. Daher hat NVIDIA keine Antwort darauf gegeben, ob H200-Chips ebenso knapp sein werden wie H100-Chips

Nächstes Jahr könnte jedoch ein günstigerer Zeitraum für GPU-Käufer sein. Laut einem Bericht der Financial Times vom August plant NVIDIA, die H100-Produktion im Jahr 2024 zu verdreifachen, und das Produktionsziel wird von etwa 500.000 im Jahr 2023 auf angehoben 2 Millionen im Jahr 2024. Aber generative KI boomt immer noch und die Nachfrage dürfte in Zukunft noch größer sein.

Zum Beispiel wird der neu eingeführte GPT-4 auf etwa 10.000–25.000 A100-Blöcken trainiert. Das große KI-Modell von Meta benötigt für das Training etwa 21.000 A100-Blöcke. Stabilitäts-KI verwendet etwa 5.000 A100. Das Falcon-40B-Training erfordert 384 A100

Laut Musk kann GPT-5 30.000–50.000 H100 erfordern. Das Angebot von Morgan Stanley lautet 25.000 GPUs.

Sam Altman bestritt, GPT-5 zu trainieren, erwähnte jedoch, dass „OpenAI einen ernsthaften Mangel an GPUs hat und je weniger Leute unsere Produkte nutzen, desto besser.“

Natürlich steigen neben NVIDIA auch AMD und Intel aktiv in den KI-Markt ein, um mit NVIDIA zu konkurrieren. Der zuvor von AMD auf den Markt gebrachte MI300X ist mit 192 GB HBM3 und einer Speicherbandbreite von 5,2 TB/s ausgestattet, wodurch er den H200 in Bezug auf Kapazität und Bandbreite weit übertreffen wird.

In ähnlicher Weise plant Intel, die HBM-Kapazität der Gaudi AI-Chips zu erhöhen. Den neuesten veröffentlichten Informationen zufolge verwendet Gaudi 3 einen 5-nm-Prozess und seine Leistung bei BF16-Workloads wird viermal so hoch sein wie die von Gaudi 2, und seine Netzwerkleistung wird auch doppelt so hoch sein wie die von Gaudi 2 (Gaudi 2 verfügt über 24 integrierte 100 GbE RoCE-NICs). Darüber hinaus verfügt Gaudi 3 über die 1,5-fache HBM-Kapazität von Gaudi 2 (Gaudi 2 verfügt über ein 96 GB HBM2E). Wie auf dem Bild unten zu sehen ist, verwendet Gaudi 3 ein Chiplet-basiertes Design mit zwei Rechenclustern, im Gegensatz zu Gaudi 2, das die Single-Chip-Lösung von Intel nutzt

Neuer Titel: NVIDIA H200 veröffentlicht: HBM-Kapazität um 76 % erhöht, der leistungsstärkste KI-Chip, der die Leistung großer Modelle deutlich um 90 % verbessert

Neuer GH200-Superchip: Antrieb für die nächste Generation von KI-Supercomputern

Neben der Veröffentlichung der neuen H200-GPU hat NVIDIA auch eine aktualisierte Version des GH200-Superchips auf den Markt gebracht. Dieser Chip nutzt die NVIDIA NVLink-C2C-Chipverbindungstechnologie und kombiniert die neueste H200-GPU und Grace-CPU (nicht sicher, ob es sich um eine aktualisierte Version handelt). Jeder GH200-Superchip verfügt außerdem über insgesamt 624 GB Speicher

Neuer Titel: NVIDIA H200 veröffentlicht: HBM-Kapazität um 76 % erhöht, der leistungsstärkste KI-Chip, der die Leistung großer Modelle deutlich um 90 % verbessert

Zum Vergleich: Die GH200 der vorherigen Generation basiert auf einer H100-GPU und einer 72-Kern-Grace-CPU und bietet 96 GB HBM3 und 512 GB LPDDR5X, die im selben Paket integriert sind.

Obwohl NVIDIA die Details der Grace-CPU im GH200-Superchip nicht vorgestellt hat, lieferte NVIDIA einige Vergleiche zwischen GH200 und „modernen Dual-Socket-x86-CPUs“. Es ist ersichtlich, dass GH200 eine 8-fache Verbesserung der ICON-Leistung gebracht hat, und MILC, Quantum Fourier Transform, RAG LLM Inference usw. haben eine Verbesserung um das Dutzende oder sogar Hundertfache gebracht.

Neuer Titel: NVIDIA H200 veröffentlicht: HBM-Kapazität um 76 % erhöht, der leistungsstärkste KI-Chip, der die Leistung großer Modelle deutlich um 90 % verbessert

Aber es ist darauf hinzuweisen, dass von beschleunigten und „nicht beschleunigten Systemen“ die Rede ist. was bedeutet das? Wir können nur davon ausgehen, dass auf x86-Servern Code ausgeführt wird, der nicht vollständig optimiert ist, insbesondere angesichts der Tatsache, dass sich die Welt der künstlichen Intelligenz rasant weiterentwickelt und scheinbar regelmäßig neue Fortschritte bei der Optimierung auftauchen.

Der neue GH200 wird auch im neuen HGX H200-System zum Einsatz kommen. Diese sollen „nahtlos kompatibel“ mit bestehenden HGX H100-Systemen sein, was bedeutet, dass HGX H200s in derselben Installation verwendet werden können, um Leistung und Speicherkapazität zu erhöhen, ohne dass die Infrastruktur neu gestaltet werden muss.

Berichten zufolge könnte der Alpine-Supercomputer des Schweizerischen Nationalen Hochleistungsrechenzentrums einer der ersten GH100-basierten Grace-Hopper-Supercomputer sein, die nächstes Jahr in Betrieb genommen werden. Das erste GH200-System, das in den Vereinigten Staaten in Betrieb genommen wird, wird der Supercomputer Venado im Los Alamos National Laboratory sein. Die Vista-Systeme des Texas Advanced Computing Center (TACC) werden ebenfalls die gerade angekündigten Grace-CPU- und Grace-Hopper-Superchips verwenden, es ist jedoch unklar, ob sie auf dem H100 oder H200 basieren werden

Neuer Titel: NVIDIA H200 veröffentlicht: HBM-Kapazität um 76 % erhöht, der leistungsstärkste KI-Chip, der die Leistung großer Modelle deutlich um 90 % verbessert

Derzeit ist der größte Supercomputer, der installiert wird, der Jupiter-Supercomputer im Jϋlich Supercomputing Center. Es wird „fast“ 24.000 GH200-Superchips beherbergen, was insgesamt 93 Exaflops KI-Computing entspricht (vermutlich mit FP8, obwohl die meisten KI immer noch BF16 oder FP16 verwenden). Es wird außerdem 1 Exaflop des traditionellen FP64-Computings liefern. Es wird ein „Quad GH200“-Board mit vier GH200-Superchips verwendet.

Diese neuen Supercomputer, die NVIDIA voraussichtlich im nächsten Jahr installieren wird, werden zusammen mehr als 200 Exaflops an Rechenleistung für künstliche Intelligenz erreichen

Wenn die ursprüngliche Bedeutung nicht geändert werden muss, muss der Inhalt ins Chinesische umgeschrieben werden und der ursprüngliche Satz muss nicht erscheinen

Das obige ist der detaillierte Inhalt vonNeuer Titel: NVIDIA H200 veröffentlicht: HBM-Kapazität um 76 % erhöht, der leistungsstärkste KI-Chip, der die Leistung großer Modelle deutlich um 90 % verbessert. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Wie man alles in Myrise freischaltet
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

NVIDIA führt RTX HDR-Funktion ein: Nicht unterstützte Spiele nutzen KI-Filter, um wunderschöne visuelle HDR-Effekte zu erzielen NVIDIA führt RTX HDR-Funktion ein: Nicht unterstützte Spiele nutzen KI-Filter, um wunderschöne visuelle HDR-Effekte zu erzielen Feb 24, 2024 pm 06:37 PM

Laut Nachrichten dieser Website vom 23. Februar hat NVIDIA gestern Abend die NVIDIA‏‏-Anwendung aktualisiert und gestartet und bietet Spielern ein neues einheitliches GPU-Kontrollzentrum, das es Spielern ermöglicht, wunderbare Momente durch das leistungsstarke Aufzeichnungstool des In-Game-Floating festzuhalten Fenster. In diesem Update hat NVIDIA auch die RTXHDR-Funktion eingeführt. Die offizielle Einführung ist wie folgt beigefügt: RTXHDR ist ein neuer KI-gestützter Freestyle-Filter, der die großartigen visuellen Effekte von High Dynamic Range (HDR) nahtlos in Spiele einführen kann, die dies ursprünglich nicht tun unterstützt HDR. Sie benötigen lediglich einen HDR-kompatiblen Monitor, um diese Funktion mit einer Vielzahl von DirectX- und Vulkan-basierten Spielen nutzen zu können. Nachdem der Player die RTXHDR-Funktion aktiviert hat, läuft das Spiel auch dann, wenn es HD nicht unterstützt

Es wird berichtet, dass Grafikkarten der NVIDIA RTX 50-Serie nativ mit einer 16-Pin-PCIe-Gen-6-Stromversorgungsschnittstelle ausgestattet sind Es wird berichtet, dass Grafikkarten der NVIDIA RTX 50-Serie nativ mit einer 16-Pin-PCIe-Gen-6-Stromversorgungsschnittstelle ausgestattet sind Feb 20, 2024 pm 12:00 PM

Laut Nachrichten dieser Website vom 19. Februar enthüllte Moderator Tom im neuesten Video von Moores LawisDead-Kanal, dass Grafikkarten der Nvidia GeForce RTX50-Serie nativ mit einer PCIeGen6 16-Pin-Stromversorgungsschnittstelle ausgestattet sein werden. Tom sagte, dass neben den High-End-Serien GeForceRTX5080 und GeForceRTX5090 auch die Mittelklasse-GeForceRTX5060 neue Stromversorgungsschnittstellen ermöglichen wird. Berichten zufolge hat Nvidia klare Vorgaben gemacht, dass künftig jede GeForce RTX50-Serie mit einer PCIeGen6 16-Pin-Stromversorgungsschnittstelle ausgestattet sein soll, um die Lieferkette zu vereinfachen. Die dieser Seite beigefügten Screenshots lauten wie folgt: Tom sagte auch, dass GeForceRTX5090

Die Grafikkarten NVIDIA RTX 4070 und 4060 Ti FE sind unter den empfohlenen Verkaufspreis von 4599 bzw. 2999 Yuan gefallen Die Grafikkarten NVIDIA RTX 4070 und 4060 Ti FE sind unter den empfohlenen Verkaufspreis von 4599 bzw. 2999 Yuan gefallen Feb 22, 2024 pm 09:43 PM

Laut den Nachrichten dieser Website vom 22. Februar haben NVIDIA und AMD im Allgemeinen Beschränkungen bei der Kanalpreisgestaltung, und einige Händler, die privat die Preise erheblich senken, werden ebenfalls bestraft. Beispielsweise hat AMD kürzlich Händler bestraft, die 6750GRE-Grafikkarten zu niedrigeren Preisen verkauft haben Der Mindestpreis wurde bestraft. Diese Seite hat festgestellt, dass die NVIDIA GeForce RTX 4070 und 4060 Ti auf Rekordtiefs gefallen sind. Die Version ihres Gründers, also die öffentliche Version der Grafikkarte, kann derzeit im selbst betriebenen Store von JD.com mit einem Gutschein im Wert von 200 Yuan erhalten werden Preise von 4.599 Yuan und 2.999 Yuan. Wenn Sie Drittanbieter-Shops in Betracht ziehen, fallen natürlich niedrigere Preise an. In Bezug auf die Parameter verfügt die RTX4070-Grafikkarte über einen 5888CUDA-Kern, verwendet 12 GBGDDR6X-Speicher und eine Bitbreite von 192 Bi

Das NVIDIA-Dialogmodell ChatQA wurde auf Version 2.0 weiterentwickelt, wobei die angegebene Kontextlänge 128 KB beträgt Das NVIDIA-Dialogmodell ChatQA wurde auf Version 2.0 weiterentwickelt, wobei die angegebene Kontextlänge 128 KB beträgt Jul 26, 2024 am 08:40 AM

Die offene LLM-Community ist eine Ära, in der hundert Blumen blühen und konkurrieren. Sie können Llama-3-70B-Instruct, QWen2-72B-Instruct, Nemotron-4-340B-Instruct, Mixtral-8x22BInstruct-v0.1 und viele andere sehen hervorragende Darsteller. Allerdings weisen offene Modelle im Vergleich zu den proprietären Großmodellen GPT-4-Turbo in vielen Bereichen noch erhebliche Lücken auf. Zusätzlich zu allgemeinen Modellen wurden einige offene Modelle entwickelt, die sich auf Schlüsselbereiche spezialisieren, wie etwa DeepSeek-Coder-V2 für Programmierung und Mathematik und InternVL für visuelle Sprachaufgaben.

„AI Factory' wird die Neugestaltung des gesamten Software-Stacks vorantreiben, und NVIDIA stellt Llama3-NIM-Container für die Bereitstellung durch Benutzer bereit „AI Factory' wird die Neugestaltung des gesamten Software-Stacks vorantreiben, und NVIDIA stellt Llama3-NIM-Container für die Bereitstellung durch Benutzer bereit Jun 08, 2024 pm 07:25 PM

Laut Nachrichten dieser Website vom 2. Juni stellte Huang Renxun bei der laufenden Keynote-Rede von Huang Renxun 2024 Taipei Computex vor, dass generative künstliche Intelligenz die Neugestaltung des gesamten Software-Stacks fördern wird, und demonstrierte seine cloudnativen Mikrodienste NIM (Nvidia Inference Microservices). . Nvidia glaubt, dass die „KI-Fabrik“ eine neue industrielle Revolution auslösen wird: Am Beispiel der von Microsoft vorangetriebenen Softwareindustrie glaubt Huang Renxun, dass generative künstliche Intelligenz deren Umgestaltung im gesamten Stack vorantreiben wird. Um die Bereitstellung von KI-Diensten durch Unternehmen jeder Größe zu erleichtern, hat NVIDIA im März dieses Jahres die cloudnativen Mikrodienste NIM (Nvidia Inference Microservices) eingeführt. NIM+ ist eine Suite cloudnativer Mikroservices, die darauf optimiert sind, die Markteinführungszeit zu verkürzen

Warum ist Vanar Chain nach mehreren Transformationen und der Zusammenarbeit mit dem KI-Riesen Nvidia innerhalb von 30 Tagen um das 4,6-fache gestiegen? Warum ist Vanar Chain nach mehreren Transformationen und der Zusammenarbeit mit dem KI-Riesen Nvidia innerhalb von 30 Tagen um das 4,6-fache gestiegen? Mar 14, 2024 pm 05:31 PM

In letzter Zeit hat die Layer-1-Blockchain VanarChain aufgrund ihrer hohen Wachstumsrate und der Zusammenarbeit mit dem KI-Riesen NVIDIA die Aufmerksamkeit des Marktes auf sich gezogen. Hinter der Popularität von VanarChain stehen nicht nur zahlreiche Markentransformationen, sondern auch beliebte Konzepte wie Hauptspiele, Metaverse und KI, die dem Projekt viel Popularität und Themen eingebracht haben. Vor seiner Umwandlung wurde Vanar, ehemals TerraVirtua, im Jahr 2018 als Plattform gegründet, die kostenpflichtige Abonnements unterstützte, Inhalte für Virtual Reality (VR) und Augmented Reality (AR) bereitstellte und Zahlungen in Kryptowährung akzeptierte. Die Plattform wurde von den Mitbegründern Gary Bracey und Jawad Ashraf erstellt, wobei Gary Bracey über umfangreiche Erfahrung in der Produktion und Entwicklung von Videospielen verfügt.

So erhöhen Sie die kritische Trefferquote in Love und Deep Space So erhöhen Sie die kritische Trefferquote in Love und Deep Space Mar 23, 2024 pm 01:31 PM

Die Charaktere in Love und Deep Sky haben verschiedene numerische Attribute. Das Attribut „Kritische Trefferquote“ wirkt sich auf den Schaden des Charakters aus Im Folgenden finden Sie die Methode zur Verbesserung dieses Attributs, sodass Spieler, die es wissen möchten, einen Blick darauf werfen können. Methode 1. Kernmethode zur Erhöhung der kritischen Trefferquote von Love und Deep Space. Um eine kritische Trefferquote von 80 % zu erreichen, liegt der Schlüssel in der Summe der kritischen Trefferattribute der sechs Karten auf Ihrer Hand. Auswahl von Corona-Karten: Stellen Sie bei der Auswahl von zwei Corona-Karten sicher, dass mindestens einer ihrer Kern-α- und Kern-β-Unterattributeinträge ein kritisches Trefferattribut ist. Vorteile der Lunar Corona-Karte: Die Lunar Corona-Karten enthalten nicht nur einen kritischen Treffer in ihren Grundattributen, sondern wenn sie Level 60 erreichen und nicht durchgebrochen sind, kann jede Karte 4,1 % des kritischen Treffers liefern.

TrendForce: Nvidias Blackwell-Plattformprodukte sorgen dafür, dass die CoWoS-Produktionskapazität von TSMC in diesem Jahr um 150 % steigt TrendForce: Nvidias Blackwell-Plattformprodukte sorgen dafür, dass die CoWoS-Produktionskapazität von TSMC in diesem Jahr um 150 % steigt Apr 17, 2024 pm 08:00 PM

Laut Nachrichten dieser Website vom 17. April hat TrendForce kürzlich einen Bericht veröffentlicht, in dem es davon ausgeht, dass die Nachfrage nach den neuen Blackwell-Plattformprodukten von Nvidia optimistisch ist und die gesamte CoWoS-Verpackungsproduktionskapazität von TSMC im Jahr 2024 voraussichtlich um mehr als 150 % steigen wird. Zu den neuen Blackwell-Plattformprodukten von NVIDIA gehören GPUs der B-Serie und GB200-Beschleunigerkarten, die NVIDIAs eigene GraceArm-CPU integrieren. TrendForce bestätigt, dass die Lieferkette derzeit sehr optimistisch in Bezug auf GB200 ist. Es wird geschätzt, dass die Auslieferungen im Jahr 2025 eine Million Einheiten überschreiten werden, was 40-50 % der High-End-GPUs von Nvidia ausmacht. Nvidia plant, in der zweiten Jahreshälfte Produkte wie GB200 und B100 auszuliefern, aber vorgelagerte Waferverpackungen müssen noch komplexere Produkte einführen.

See all articles