


Entwicklung einer universellen programmierbaren DPU für Cloud Computing
DPU konzentriert sich auf die technologische Entwicklung und Weiterentwicklung von Rechenzentren und ist als allgemeiner Datenprozessor kein einfacher Ersatz für NIC/SmartNIC, sondern eine wesentliche Änderung in der Netzwerkinfrastruktur. Die DPU selbst verfügt über die Merkmale einer universellen hierarchischen Programmierbarkeit, eines Netzwerks mit geringer Latenz sowie einer einheitlichen Verwaltung und Steuerung, sodass die DPU die Architekturoptimierung und den Wiederaufbau der neuen Generation von Rechenzentren fördert. Als Grundkomponente der allgemeinen Datenverarbeitung entlastet die DPU allgemeine Datenverarbeitungsaufgaben, die ursprünglich in der CPU und der GPU ausgeführt wurden, gibt die Rechenleistung der CPU und der GPU frei und unterstützt die CPU und die GPU bei der Erzielung einer höheren Leistung.
"Cloud Computing Universal Programmable DPU Development White Paper (2023)" Durch die Klärung und Analyse des Prozesses und der aktuellen Situation der DPU-Entwicklung zeigt das Whitepaper auf, welche DPU-Funktionen die wichtigsten Punkte sind Lösen Sie die oben genannten Kernprobleme. Dies wird die tiefgreifende Entwicklung der DPU-Technologie fördern und dabei helfen, den Aufbau einer vollständigen ökologischen Kette und die industrielle Umsetzung zu realisieren.
Über DPU-Technologieanwendungen und technische Prinzipien, Bitte beachten Sie die Artikel „DPU-Technologieprinzipien, Rechenleistungseffizienz und Anwendungsszenarioanalyse“ und „ Mainstream-DPU-Architekturimplementierung und Technologievergleich“, „DPU-Leistungsbenchmark: Einführung in das Bewertungsrahmenwerk und den Testprozess (2022)“ und „ DPU globale Landschaft, der Aufstieg von 5 inländischen Unternehmen (2023) ".
konzentriert sich auf die Analyse der allgemeinen programmierbaren Funktionen und verschiedenen Anwendungsszenarien, die DPU haben muss, und analysiert auch die Einschränkungen herkömmlicher DPU. Aufgrund des Mangels an hervorragenden und ausgereiften kommerziellen DPU-SoC-Lösungen (System on a Chip) in der Branche konnten große Cloud-Anbieter in den letzten Jahren nur ihre eigenen DPU-Lösungen auf Basis von CPU+FPGA entwickeln, was dazu führte, dass DPU missverstanden wurde Fragmentierter Markt Die Rolle und das Potenzial von DPU im Cloud Computing werden von der Branche nicht richtig verstanden.
Nachdem im „14. Fünfjahresplan“ deutlich darauf hingewiesen wurde, dass die Beschleunigung des Aufbaus neuer Infrastruktur, der Aufbau des Eastern Digital and Western Computing Project und des Rechenleistungsnetzes des Betreibers wie geplant erfolgte. Cloud Computing ist die zentrale Rechenleistungsbasis der digitalen Wirtschaft. Im Cloud Computing ist DPU zu einer der Kernkomponenten der Infrastruktur geworden.
Im Zeitalter der digitalen Wirtschaft hält Cloud Computing weiterhin Einzug in alle Lebensbereiche. Als „Nationalmannschaft“ des Cloud Computing erhöht China Mobile seine Investitionen, um die digitale Transformation der Regierung und staatseigener Unternehmen vollständig zu unterstützen, Kosten zu senken, die Effizienz zu steigern und die Sicherheit staatseigener Daten zu schützen. Im Whitepaper ist Cloud Leopard Intelligence als einziges Unternehmen, das von China Mobile zur Teilnahme an der Zusammenstellung eingeladen wurde, das führende inländische DPU-Chip-Unternehmen und auch das in China bekannte Chip-Unternehmen, das wirklich leistungsstarke, universell programmierbare DPU-SoCs realisieren kann . Die gemeinsame Veröffentlichung dieses Whitepapers stellt die intensive Zusammenarbeit zwischen China Mobile und Cloud Leopard Intelligence im Bereich DPU dar und bündelt ihre Kräfte, um zur Entwicklung der nationalen Cloud-Infrastruktur und DPU beizutragen.
DPU-zentrierte Rechenzentrums-Netzwerkarchitektur
Da sich die Netzwerkbandbreite in herkömmlichen Rechenzentren schrittweise von 25 Gbit/s auf 100 Gbit/s, 200 Gbit/s, 400 Gbit/s und noch höhere Bandbreiten weiterentwickelt, nehmen auch die CPU-Rechenressourcen, die durch die Netzwerkdatenverarbeitung belegt werden, ständig zu Der Speicherplatz nimmt zu, sogar mehr als die Hälfte davon wird für die Funktionen dieser Infrastrukturen verbraucht. Daher besteht ein dringender Bedarf an einem neuen Prozessortyp, um den Verbrauch der Cloud-Host-CPU zu reduzieren. DPU ist ein Allzweckprozessor, der sich auf die Datenverarbeitung konzentriert und Infrastrukturdienste für Rechenzentren bereitstellt. Er ist der „dritte Hauptchip“ nach der CPU und der GPU. Er kann Netzwerk und Speicher entlasten und beschleunigen Verwaltung, wodurch mehr Rechenleistungsressourcen für Kunden freigegeben werden. Wenn Sie in Cloud-Computing- und Rechenzentrumsszenarien die Rechenleistung weiter verbessern und die Infrastrukturleistung maximieren müssen, z. B. durch dynamische und flexible Planung von Rechenleistung, Netzwerk- und Speicherressourcen, ist DPU notwendig und unersetzlich.
Derzeit verwenden die meisten inländischen Cloud-Hersteller noch DPU-Lösungen auf Basis von CPU+FPGA. Diese Lösungen haben einen gewissen Zeitvorteil bei den Forschungs- und Entwicklungsinvestitionen, haben jedoch aufgrund ihres hohen Stromverbrauchs und ihrer begrenzten Leistung nicht das Niveau erreicht neue Generation von Cloud-Computing-Anforderungen. Da FPGA im Wesentlichen von zwei ausländischen Chipgiganten monopolisiert wird, hat der hohe Preis außerdem direkt zu hohen Produktkosten geführt und die Wettbewerbsfähigkeit des Marktes beeinträchtigt.
DPU-SoC-Produkte sind die ultimative Weiterentwicklung der ersteren. Sie erfordern eine extrem heterogene Chip-Technologie, universelle Programmierbarkeit und andere Funktionen sowie fortschrittliche Chip-Technologie, um komplexere, umfassendere und leistungsstärkere Anwendungsanforderungen zu erfüllen. Derzeit haben sich ausländische Chip-Giganten und führende Cloud-Service-Anbieter für den allgemeinen DPU-SoC-Produktweg entschieden, da DPU-SoC im Vergleich zur CPU+FPGA-Lösung eine 4- bis 8-fache Verbesserung der Kostenleistung aufweist.
Jeder Cloud-Anbieter ist auf der Suche nach der besten Lösung, um seinen Gewinn und seine Wettbewerbsfähigkeit zu verbessern. Da er versteht, dass CPU+FPGA keine langfristige Lösung ist, die der neuen Generation des Cloud Computing gerecht werden kann, freuen sie sich alle auf eine wettbewerbsfähige Lösung und benutzerfreundliche Lösung. Das Aufkommen eines äußerst kostengünstigen DPU-SoC.
Amazon Cloud (AWS) in den Vereinigten Staaten hat nicht nur den größten Anteil am globalen Cloud-Computing-Markt, sondern war vor vielen Jahren auch das erste Unternehmen, das DPU SoC (AWS nennt es Nitro) erfolgreich kommerzialisierte. Nachdem AWS sein selbst entwickeltes DPU-SoC verwendet, kann es durch den Verkauf der Rechenressourcen jedes Servers jedes Jahr Tausende von Dollar mehr an Einnahmen erzielen. AWS verfügt über Millionen von Servern, daher sind die Vorteile, die DPU für AWS bringt, enorm. Die erfolgreiche Anwendung von DPU in AWS hat in der Branche große Aufmerksamkeit erregt und immer mehr Chip-Giganten dazu bewegt, sich dem DPU-Trend anzuschließen. Nvidia hat Mellanox, ein in der Branche bekanntes Unternehmen für Netzwerkchips und -ausrüstung, im Jahr 2020 erfolgreich für 6,9 Milliarden US-Dollar übernommen. Durch die Integration der Netzwerktechnologie von Mellanox brachte Nvidia schnell die BlueField-Serie von DPU-SoCs für den globalen Rechenzentrumsmarkt auf den Markt. AMD übernahm im Jahr 2022 den DPU-SoC-Hersteller Pensando für 1,9 Milliarden US-Dollar. Auch inländische Cloud-Hersteller suchen nach technischen Lösungen für die Weiterentwicklung von der FPGA-Architektur zum allgemein programmierbaren DPU-SoC.
Vor diesem Hintergrund haben China Mobile, die China Academy of Information and Communications Technology und Cloud Leopard Intelligence das „Cloud Computing Universal Programmable DPU Development White Paper (2023)“ veröffentlicht. Eine eingehende Analyse der Entwicklungstrends von DPU: universelle Programmierbarkeit, Netzwerk mit geringer Latenz und einheitliches Ressourcenmanagement. Gleichzeitig werden verschiedene Anwendungsszenarien universell programmierbarer DPU-SoCs in Rechenzentren, Betreibern, heterogenem Computing usw. vorgestellt.
Beim Aufbau inländischer Rechenzentren entwickeln sich Server von 25G auf 100G und eine höhere Bandbreite, und die Komplexität der Anwendungsbereitstellung nimmt nicht nur zur Unterstützung der Anwendungsverwaltung und Bereitstellung virtueller Maschinen und Container zu, sondern auch zur Unterstützung von Bare-Metal-Anwendungen. Als zentrale Infrastrukturkomponente des Rechenzentrums muss die DPU über flexible Programmierfunktionen, hohe Datendurchsatzfähigkeiten sowie einheitliche Verwaltungs- und Kontrollfunktionen verfügen, um den aktuellen Anforderungen verschiedener Cloud-Computing-Dienste und der Entwicklung von Rechenzentren gerecht zu werden.
Beobachtungen aus der Halbleiterindustrie zufolge ist Yunbao Intelligent derzeit das in China bekannte Chipunternehmen, das wirklich leistungsstarke DPU-SoCs selbst entwickeln kann, und sein Produkt wird auch der erste universell programmierbare DPU-SoC-Chip in China sein. Es bietet nicht nur einen Datendurchsatz von bis zu 400 G, sondern ist auch mit einer leistungsstarken CPU-Verarbeitungseinheit ausgestattet und arbeitet mit einer Vielzahl programmierbarer Datenverarbeitungs-Engines zusammen, um hierarchische Programmierbarkeit zu erreichen. Der Beschreibung des Whitepapers zufolge beherrscht Cloud Leopard Intelligence eine Reihe von Kerntechnologien in vielen Schlüsselbereichen der DPU:
- Programmierbare Hochleistungs-Netzwerkverarbeitungstechnologie
- Programmierbare RDMA-Technologie mit geringer Latenz
- DDP (Data Direct Path) Daten-Passthrough-Technologie
- Sicheres Computersystem
Cloud Leopard Intelligent DPU SoC unterstützt den einheitlichen Betrieb, die Wartung und die Steuerung von Bare-Metal, virtuellen Maschinen und Containern und bietet ein elastisches Netzwerk und Speicher, Virtualisierungsmanagement und Sicherheit usw. Die Lösung aus einer Hand verbessert die Servicequalität und Geschäftsflexibilität von Cloud-Dienstanbietern erheblich, reduziert die Gesamtinvestitionen und führt die kontinuierliche Weiterentwicklung von Rechenzentren in Richtung Computer- und Netzwerkintegration an.
China Mobile gibt als großer Cloud-Dienstleister, der die digitale Wirtschaft des Landes unterstützt, in diesem Whitepaper eine klare Antwort: Der universelle programmierbare DPU-SoC kann die Rechenleistung und das Netzwerk von Daten realisieren und kostengünstiges Auslagern und Verwalten von Lagerressourcen. Außerdem werden die wichtigsten Funktionen, die ein DPU-SoC besitzen muss, klar analysiert: hierarchische Programmierbarkeit, Netzwerk mit geringer Latenz, einheitliche Verwaltung und Kontrolle sowie beschleunigtes Offloading zur Anpassung an eine nachhaltige Entwicklung. Cloud-Anbieter drängen Rechenzentren zu einer Umstellung auf hohe Effizienz und hohe Skalierbarkeit , hohe Bandbreite und hohe Leistung. Wichtige technische Unterstützung für die Flexibilitätsentwicklung. Gleichzeitig ist es auch die Entwicklungsrichtung der DPU-Technologie, die verschiedene Cloud-Anbieter aktiv erforschen und erforschen.
Das obige ist der detaillierte Inhalt vonEntwicklung einer universellen programmierbaren DPU für Cloud Computing. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Laut Nachrichten dieser Website vom 31. Juli verklagte der Technologieriese Amazon am Dienstag vor dem Bundesgericht in Delaware das finnische Telekommunikationsunternehmen Nokia und beschuldigte es, mehr als ein Dutzend Amazon-Patente im Zusammenhang mit Cloud-Computing-Technologie verletzt zu haben. 1. Amazon gab in der Klage an, dass Nokia mit dem Amazon Cloud Computing Service (AWS) verbundene Technologien, einschließlich Cloud-Computing-Infrastruktur, Sicherheits- und Leistungstechnologien, missbraucht habe, um seine eigenen Cloud-Service-Produkte zu verbessern. Amazon habe AWS im Jahr 2006 eingeführt und seine bahnbrechende Cloud-Computing-Technologie sei seit Anfang der 2000er Jahre entwickelt worden, heißt es in der Beschwerde. „Amazon ist ein Pionier im Cloud Computing, und jetzt nutzt Nokia Amazons patentierte Cloud-Computing-Innovationen ohne Erlaubnis“, heißt es in der Beschwerde. Amazon beantragt vor Gericht eine einstweilige Verfügung zur Sperrung

Um eine effektive Bereitstellung von C++-Cloud-Anwendungen zu erreichen, gehören zu den Best Practices: Containerisierte Bereitstellung unter Verwendung von Containern wie Docker. Verwenden Sie CI/CD, um den Veröffentlichungsprozess zu automatisieren. Verwenden Sie die Versionskontrolle, um Codeänderungen zu verwalten. Implementieren Sie Protokollierung und Überwachung, um den Anwendungszustand zu verfolgen. Nutzen Sie die automatische Skalierung, um die Ressourcennutzung zu optimieren. Verwalten Sie die Anwendungsinfrastruktur mit Cloud-Management-Diensten. Verwenden Sie horizontale und vertikale Skalierung, um die Anwendungskapazität je nach Bedarf anzupassen.

Zu den Cloud-Computing-Alternativen von Golang gehören: Node.js (leicht, ereignisgesteuert), Python (Benutzerfreundlichkeit, datenwissenschaftliche Funktionen), Java (stabil, hohe Leistung) und Rust (Sicherheit, Parallelität). Die Auswahl der am besten geeigneten Alternative hängt von den Anwendungsanforderungen, dem Ökosystem, den Teamfähigkeiten und der Skalierbarkeit ab.

Das Wachstum der drei Cloud-Computing-Giganten wird sich bis 2024 nicht verlangsamen, da Amazon, Microsoft und Google allesamt mehr Umsatz im Cloud-Computing erwirtschaften als je zuvor. Alle drei Cloud-Anbieter haben kürzlich Gewinne gemeldet und setzen damit ihre mehrjährige Strategie des kontinuierlichen Umsatzwachstums fort. Am 25. April gaben sowohl Google als auch Microsoft ihre Ergebnisse bekannt. Im ersten Quartal des Alphabet-Geschäftsjahres 2024 belief sich der Umsatz von Google Cloud auf 9,57 Milliarden US-Dollar, was einer Steigerung von 28 % gegenüber dem Vorjahr entspricht. Der Cloud-Umsatz von Microsoft belief sich auf 35,1 Milliarden US-Dollar, was einer Steigerung von 23 % gegenüber dem Vorjahr entspricht. Am 30. April meldete Amazon Web Services (AWS) einen Umsatz von 25 Milliarden US-Dollar, was einer Steigerung von 17 % gegenüber dem Vorjahr entspricht, und gehört damit zu den drei Giganten. Cloud-Computing-Anbieter können angesichts der Wachstumsraten der drei Marktführer in der Vergangenheit durchaus zufrieden sein

Bei der Java-Cloud-Migration werden Anwendungen und Daten auf Cloud-Plattformen migriert, um Vorteile wie Skalierung, Elastizität und Kostenoptimierung zu erzielen. Zu den Best Practices gehören: Gründliche Beurteilung der Migrationsberechtigung und potenzieller Herausforderungen. Führen Sie die Migration schrittweise durch, um das Risiko zu verringern. Übernehmen Sie Cloud-First-Prinzipien und erstellen Sie wo immer möglich Cloud-native Anwendungen. Nutzen Sie die Containerisierung, um die Migration zu vereinfachen und die Portabilität zu verbessern. Vereinfachen Sie den Migrationsprozess durch Automatisierung. Die Schritte der Cloud-Migration umfassen Planung und Bewertung, Vorbereitung der Zielumgebung, Migration von Anwendungen, Datenmigration, Tests und Validierung sowie Optimierung und Überwachung. Durch die Befolgung dieser Vorgehensweisen können Java-Entwickler erfolgreich in die Cloud migrieren und die Vorteile des Cloud Computing nutzen, Risiken mindern und erfolgreiche Migrationen durch automatisierte und stufenweise Migrationen sicherstellen.

Die Vorteile der Integration von PHPRESTAPI in die Cloud-Computing-Plattform: Skalierbarkeit, Zuverlässigkeit und Elastizität. Schritte: 1. Erstellen Sie ein GCP-Projekt und ein Dienstkonto. 2. Installieren Sie die GoogleAPIPHP-Bibliothek. 3. Initialisieren Sie die GCP-Clientbibliothek. 4. Entwickeln Sie REST-API-Endpunkte. Best Practices: Caching verwenden, Fehler behandeln, Anfrageraten begrenzen, HTTPS verwenden. Praktischer Fall: Laden Sie Dateien mithilfe der Cloud Storage-Clientbibliothek in Google Cloud Storage hoch.

Golang ist im Cloud Computing wirtschaftlich sinnvoll, da es direkt in nativen Code kompiliert wird, zur Laufzeit leichtgewichtig ist und eine hervorragende Parallelität aufweist. Diese Faktoren können die Kosten senken, indem sie den Ressourcenbedarf für Cloud Computing reduzieren, die Leistung verbessern und die Verwaltung vereinfachen.

Dieser Artikel bietet Anleitungen zu Hochverfügbarkeits- und Fehlertoleranzstrategien für Java-Cloud-Computing-Anwendungen, einschließlich der folgenden Strategien: Hochverfügbarkeitsstrategie: Lastausgleich, automatische Skalierung, redundante Bereitstellung, Persistenz in mehreren Regionen, Failover, Fehlertoleranzstrategie: Wiederholungsmechanismus, Schaltkreisunterbrechung, Zeitüberschreitung bei idempotentem Betrieb und Praktische Fälle zur Behandlung von Callback-Bounce-Fehlern veranschaulichen die Anwendung dieser Strategien in verschiedenen Szenarien, z. B. Lastausgleich und automatische Skalierung zur Bewältigung von Spitzendatenverkehr, redundante Bereitstellung und Failover zur Verbesserung der Zuverlässigkeit sowie Wiederholungsmechanismen und idempotente Vorgänge zur Verhinderung von Datenverlust.
