


Développement de DPU programmables universels pour le cloud computing
Axé sur le développement technologique et l'évolution des centres de données, le DPU, en tant que processeur de données général, n'est pas un simple remplacement de NIC/SmartNIC, mais un changement essentiel dans l'infrastructure réseau. Le DPU lui-même présente les caractéristiques d'une programmabilité hiérarchique universelle, d'un réseau à faible latence et d'une gestion et d'un contrôle unifiés, de sorte que le DPU favorise l'optimisation architecturale et la reconstruction de la nouvelle génération de centres de données. En tant que composant de base du traitement général des données, le DPU déchargera les tâches générales de traitement des données exécutées à l'origine dans le CPU et le GPU, libérera la puissance de calcul du CPU et du GPU et prendra en charge le CPU et le GPU pour obtenir de meilleures performances.
"Livre blanc sur le développement de DPU programmables universels dans le cloud computing (2023)" En clarifiant et en analysant le processus et la situation actuelle du développement de DPU, le livre blanc souligne quelles fonctionnalités de DPU sont les points clés à prendre en compte. résoudre les problèmes fondamentaux ci-dessus, cela favorisera le développement en profondeur de la technologie DPU et aidera à réaliser la construction d’une chaîne écologique complète et la mise en œuvre industrielle.
À propos des applications et des principes techniques de la technologie DPU, Veuillez vous référer aux articles "Principes de la technologie DPU, efficacité de la puissance de calcul et analyse des scénarios d'application" et " Mise en œuvre de l'architecture DPU grand public et comparaison technologique", "DPU Performance Benchmark : Introduction au cadre d'évaluation et au processus de test (2022)" et " Paysage mondial DPU, la montée en puissance de 5 entreprises nationales (2023) ".
se concentre sur l'analyse des fonctionnalités générales programmables et des divers scénarios d'application que DPU doit avoir, et analyse également les limites du DPU traditionnel. Ces dernières années, en raison du manque de solutions commerciales DPU SoC (System on a Chip) excellentes et matures dans l'industrie, les principaux fournisseurs de cloud ne peuvent développer que leurs propres solutions DPU basées sur CPU + FPGA, ce qui fait que le DPU est mal compris comme un marché fragmenté. Le rôle et le potentiel du DPU dans le cloud computing ne sont pas correctement compris par l’industrie.
Après que le « 14e plan quinquennal » ait clairement souligné que l'accélération de la construction de nouvelles infrastructures, le projet Eastern Digital et Western Computing et la construction des réseaux de puissance de calcul des opérateurs se sont déroulés comme prévu. Derrière l’économie numérique, le cloud computing constitue la base de la puissance de calcul. Dans le cloud computing, le DPU est devenu l'un des composants essentiels de l'infrastructure.
À l'ère de l'économie numérique, le cloud computing continue de pénétrer tous les horizons. En tant qu'« équipe nationale » du cloud computing, China Mobile augmente ses investissements pour soutenir pleinement la transformation numérique du gouvernement et des entreprises publiques, réduire les coûts et accroître l'efficacité, et protéger la sécurité des données appartenant à l'État. Dans le livre blanc, Cloud Leopard Intelligent, en tant que seule entreprise invitée par China Mobile à participer à la compilation, est la principale société nationale de puces DPU et la société de puces connue en Chine qui peut véritablement réaliser des SoC DPU programmables universels hautes performances. La publication conjointe de ce livre blanc représente la coopération approfondie entre China Mobile et Cloud Leopard Intelligence dans le domaine du DPU, unissant leurs forces pour contribuer au développement de l'infrastructure cloud nationale et du DPU.
Architecture réseau de centre de données centrée sur DPU
À mesure que la bande passante du réseau évolue progressivement de 25 Gbit/s à 100 Gbit/s, 200 Gbit/s, 400 Gbit/s et une bande passante encore plus élevée dans les centres de données traditionnels, les ressources informatiques du processeur occupées par le traitement des données en réseau augmentent également constamment. l'espace augmente, même plus de la moitié sera consommé dans les fonctions de ces infrastructures. Il existe donc un besoin urgent d'un nouveau type de processeur pour réduire la consommation du CPU de l'hôte cloud. Le DPU est un processeur à usage général centré sur le traitement des données qui fournit des services d'infrastructure de centre de données. Il s'agit de la « troisième puce principale » après le CPU et le GPU. Il peut décharger et accélérer le réseau et le stockage, et possède également des fonctions de base telles que la sécurité et le stockage. gestion, libérant davantage de ressources de puissance de calcul pour les clients. Dans les scénarios de cloud computing et de centre de données, si vous avez besoin d'améliorer davantage la puissance de calcul et d'optimiser les performances de l'infrastructure, par exemple en planifiant de manière dynamique et flexible la puissance de calcul, les ressources de réseau et de stockage, alors le DPU est nécessaire et irremplaçable.
À l'heure actuelle, la plupart des fabricants de cloud nationaux utilisent encore des solutions DPU basées sur CPU+FPGA. Ces solutions ont un certain avantage en termes de temps en termes d'investissement en R&D, mais en raison de leur consommation d'énergie élevée et de leurs performances limitées, elles n'ont pas atteint le niveau du marché. nouvelle génération d’exigences en matière de cloud computing. De plus, comme le FPGA est essentiellement monopolisé par les deux géants étrangers des puces, son prix élevé a directement entraîné des coûts de produit élevés et affecté la compétitivité du marché.
Les produits DPU SoC sont l'itération ultime des premiers. Ils nécessitent une technologie de puce hétérogène ultra-élevée, une programmabilité universelle et d'autres fonctionnalités, ainsi qu'une technologie de puce avancée, pour répondre aux exigences d'applications plus complexes, plus larges et plus performantes. À l'heure actuelle, les géants étrangers des puces et les principaux fournisseurs de services cloud ont choisi la voie générale des produits DPU SoC, car par rapport à la solution CPU + FPGA, le DPU SoC présente une amélioration de 4 à 8 fois en termes de performances en termes de coûts.
Chaque fournisseur de cloud recherche la meilleure solution pour améliorer ses bénéfices et sa compétitivité. Parce qu'ils comprennent que CPU+FPGA n'est pas une solution à long terme pouvant satisfaire la nouvelle génération de cloud computing, ils attendent tous avec impatience une solution compétitive. et facile à utiliser. L’émergence d’un SoC DPU très rentable.
Amazon Cloud (AWS) aux États-Unis occupe non seulement la part la plus élevée du marché mondial du cloud computing, mais a également été le premier à commercialiser avec succès le SoC DPU (AWS l'appelle Nitro) il y a de nombreuses années. Une fois qu'AWS utilise son SoC DPU auto-développé, il peut gagner des milliers de dollars de revenus supplémentaires en vendant chaque année les ressources informatiques de chaque serveur. AWS possède des millions de serveurs, les avantages que DPU apporte à AWS sont donc énormes. L'application réussie du DPU dans AWS a attiré une large attention dans l'industrie et a incité de plus en plus de géants des puces à rejoindre la piste DPU. Nvidia a acquis avec succès Mellanox, une société bien connue de puces et d'équipements réseau dans le secteur, pour 6,9 milliards de dollars américains en 2020. En intégrant la technologie réseau de Mellanox, Nvidia a rapidement lancé la série BlueField de SoC DPU pour le marché mondial des centres de données. AMD a acquis le fabricant de SoC DPU Pensando pour 1,9 milliard de dollars en 2022. Les fabricants de cloud nationaux recherchent également des solutions techniques pour évoluer de l’architecture FPGA vers un SoC DPU programmable général.
C'est dans ce contexte que China Mobile, l'Académie chinoise des technologies de l'information et des communications et Cloud Leopard Intelligence ont publié le « Livre blanc sur le développement de DPU programmables universels dans le cloud computing (2023) ». Une analyse approfondie des tendances de développement de DPU : programmabilité universelle, réseau à faible latence et gestion unifiée des ressources. Dans le même temps, il introduit également divers scénarios d'application du SoC DPU programmable universel dans les centres de données, les opérateurs, l'informatique hétérogène, etc.
Dans la construction de centres de données nationaux, les serveurs évoluent de 25G à 100G et une bande passante supérieure, et la complexité du déploiement des applications continue d'augmenter. Elle doit non seulement prendre en charge la gestion des applications et le déploiement de machines virtuelles et de conteneurs, mais également. pour prendre en charge les applications nues. En tant que composant d'infrastructure de base du centre de données, le DPU doit disposer de capacités de programmation flexibles, de capacités de débit de données élevées et de capacités de gestion et de contrôle unifiées pour répondre aux besoins actuels des divers services de cloud computing et du développement des centres de données.
Selon les observations de l'industrie des semi-conducteurs, Yunbao Intelligent est actuellement la société de puces connue en Chine qui peut véritablement développer par elle-même un SoC DPU haute performance, et son produit sera également la première puce SoC DPU programmable universelle en Chine. Non seulement il fournit un débit de données allant jusqu'à 400 Go, mais il est également équipé d'une puissante unité de traitement CPU et fonctionne avec une variété de moteurs de traitement de données programmables pour obtenir une programmabilité hiérarchique. Selon la description du livre blanc, Cloud Leopard Intelligence maîtrise et dirige un certain nombre de technologies de base dans de nombreux domaines clés du DPU :
- Technologie de traitement de réseau hautes performances programmable
- Technologie RDMA programmable à faible latence
- Technologie de transmission de données DDP (Data Direct Path)
- Système informatique sécurisé
Le SoC DPU intelligent Cloud Leopard prend en charge le fonctionnement, la maintenance et le contrôle unifiés du bare metal, des machines virtuelles et des conteneurs, et fournit un réseau élastique et stockage, gestion et sécurité de la virtualisation, etc. La solution unique améliore considérablement la qualité de service et la flexibilité commerciale des fournisseurs de services cloud, réduit l'investissement global et conduit l'évolution continue des centres de données vers l'informatique et l'intégration réseau.
China Mobile, en tant que fournisseur majeur de services cloud soutenant l'économie numérique du pays, donne une réponse claire dans ce livre blanc. Le SoC DPU est un composant clé du cloud computing. Le SoC DPU programmable universel peut réaliser la puissance de calcul et le réseau de données. centres de stockage et un déchargement et une gestion rentables des ressources de stockage. Il analyse également clairement les fonctionnalités clés que le SoC DPU doit posséder : programmabilité hiérarchique, réseau à faible latence, gestion et contrôle unifiés et déchargement accéléré pour s'adapter au développement durable. Les fournisseurs de cloud poussent les centres de données à évoluer vers une efficacité et une évolutivité élevées. , bande passante élevée et performances élevées. Support technique important pour le développement de la flexibilité. Dans le même temps, c'est également l'orientation du développement de la technologie DPU que divers fournisseurs de cloud recherchent et explorent activement.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Selon des informations publiées sur ce site le 31 juillet, le géant de la technologie Amazon a poursuivi mardi la société de télécommunications finlandaise Nokia devant le tribunal fédéral du Delaware, l'accusant d'avoir violé plus d'une douzaine de brevets d'Amazon liés à la technologie de cloud computing. 1. Amazon a déclaré dans le procès que Nokia avait abusé des technologies liées à Amazon Cloud Computing Service (AWS), notamment l'infrastructure de cloud computing, les technologies de sécurité et de performance, pour améliorer ses propres produits de services cloud. Amazon a lancé AWS en 2006 et sa technologie révolutionnaire de cloud computing a été développée depuis le début des années 2000, indique la plainte. "Amazon est un pionnier du cloud computing et Nokia utilise désormais les innovations brevetées d'Amazon en matière de cloud computing sans autorisation", indique la plainte. Amazon demande au tribunal une injonction de blocage

Pour parvenir à un déploiement efficace des applications cloud C++, les meilleures pratiques incluent : le déploiement conteneurisé, à l'aide de conteneurs tels que Docker. Utilisez CI/CD pour automatiser le processus de publication. Utilisez le contrôle de version pour gérer les modifications du code. Mettez en œuvre la journalisation et la surveillance pour suivre l’état des applications. Utilisez la mise à l’échelle automatique pour optimiser l’utilisation des ressources. Gérez l’infrastructure des applications avec les services de gestion cloud. Utilisez la mise à l’échelle horizontale et la mise à l’échelle verticale pour ajuster la capacité des applications en fonction de la demande.

La croissance des trois géants du cloud computing ne montre aucun signe de ralentissement jusqu’en 2024, Amazon, Microsoft et Google générant tous plus de revenus dans le cloud computing que jamais auparavant. Les trois fournisseurs de cloud ont récemment publié des résultats, poursuivant leur stratégie pluriannuelle de croissance constante des revenus. Le 25 avril, Google et Microsoft ont annoncé leurs résultats. Au premier trimestre de l’exercice 2024 d’Alphabet, le chiffre d’affaires de Google Cloud s’élevait à 9,57 milliards de dollars, soit une augmentation de 28 % sur un an. Les revenus cloud de Microsoft s'élevaient à 35,1 milliards de dollars, soit une augmentation de 23 % sur un an. Le 30 avril, Amazon Web Services (AWS) a déclaré un chiffre d'affaires de 25 milliards de dollars, soit une augmentation de 17 % sur un an, se classant parmi les trois géants. Les fournisseurs de cloud computing ont de quoi se réjouir, avec les taux de croissance des trois leaders du marché au cours du passé

Les alternatives de cloud computing Golang incluent : Node.js (léger, piloté par événements), Python (facilité d'utilisation, capacités de science des données), Java (stable, hautes performances) et Rust (sécurité, concurrence). Le choix de l'alternative la plus appropriée dépend des exigences de l'application, de l'écosystème, des compétences de l'équipe et de l'évolutivité.

La migration vers le cloud Java implique la migration d'applications et de données vers des plates-formes cloud pour bénéficier d'avantages tels que l'évolutivité, l'élasticité et l'optimisation des coûts. Les meilleures pratiques incluent : Évaluer minutieusement l’éligibilité à la migration et les défis potentiels. Migrez par étapes pour réduire les risques. Adoptez les principes du cloud d'abord et créez des applications cloud natives dans la mesure du possible. Utilisez la conteneurisation pour simplifier la migration et améliorer la portabilité. Simplifiez le processus de migration grâce à l'automatisation. Les étapes de migration vers le cloud couvrent la planification et l'évaluation, la préparation de l'environnement cible, la migration des applications, la migration des données, les tests et la validation, ainsi que l'optimisation et la surveillance. En suivant ces pratiques, les développeurs Java peuvent migrer avec succès vers le cloud et profiter des avantages du cloud computing, en atténuant les risques et en garantissant des migrations réussies grâce à des migrations automatisées et par étapes.

Les avantages de l'intégration de PHPRESTAPI à la plateforme de cloud computing : évolutivité, fiabilité et élasticité. Étapes : 1. Créez un projet et un compte de service GCP. 2. Installez la bibliothèque GoogleAPIPHP. 3. Initialisez la bibliothèque cliente GCP. 4. Développer les points de terminaison de l'API REST. Bonnes pratiques : utiliser la mise en cache, gérer les erreurs, limiter les taux de requêtes, utiliser HTTPS. Cas pratique : Téléchargez des fichiers sur Google Cloud Storage à l'aide de la bibliothèque client Cloud Storage.

Golang est économiquement viable dans le cloud computing car il se compile directement en code natif, est léger au moment de l'exécution et offre une excellente concurrence. Ces facteurs peuvent réduire les coûts en réduisant les besoins en ressources de cloud computing, en améliorant les performances et en simplifiant la gestion.

Cet article fournit des conseils sur les stratégies de haute disponibilité et de tolérance aux pannes pour les applications de cloud computing Java, y compris les stratégies suivantes : Stratégie de haute disponibilité : équilibrage de charge Mise à l'échelle automatique Déploiement redondant Persistance multirégion Basculement Stratégie de tolérance aux pannes : mécanisme de nouvelle tentative Interruption du circuit Délai d'expiration des opérations idempotentes et Des cas pratiques de gestion des erreurs de rebond démontrent l'application de ces stratégies dans différents scénarios, tels que l'équilibrage de charge et la mise à l'échelle automatique pour faire face aux pics de trafic, le déploiement redondant et le basculement pour améliorer la fiabilité, ainsi que les mécanismes de nouvelle tentative et les opérations idempotentes pour éviter la perte de données.
