VMware et NVIDIA ont annoncé aujourd'hui l'expansion de leur partenariat stratégique pour aider des milliers d'entreprises utilisant l'infrastructure cloud VMware à se préparer à l'ère de l'IA.
VMware Private AI Foundation avec NVIDIA permettra aux entreprises de personnaliser des modèles et d'exécuter une variété d'applications d'IA générative telles que des chatbots intelligents, des assistants, des fonctions de recherche et de synthèse, et bien plus encore. La plateforme sera une solution entièrement intégrée utilisant le logiciel d'IA générative et le calcul accéléré de NVIDIA, construite sur VMware Cloud Foundation et optimisée pour l'IA.
Raghu Raghuram, PDG de VMware, a déclaré : « L'IA générative et le multi-cloud vont de pair. Les données des clients sont partout, dans leurs centres de données, en périphérie, dans les cloud et bien plus encore. En collaboration avec NVIDIA, nous aiderons les entreprises à fonctionner à proximité de leur données en toute confiance charges de travail d'IA générative et résolvez leurs problèmes en matière de confidentialité, de sécurité et de contrôle des données d'entreprise.
Jensen Huang, fondateur et PDG de NVIDIA, a déclaré : « Les entreprises du monde entier se précipitent pour intégrer l'IA générative dans leurs activités. En élargissant notre coopération avec VMware, nous serons en mesure de servir des milliers de clients dans les domaines des services financiers, de la santé, de la fabrication et d'autres domaines. Des dizaines de milliers de clients fournissent les logiciels et l'informatique complets dont ils ont besoin, leur permettant d'utiliser des applications personnalisées en fonction de leurs propres données et d'exploiter pleinement le potentiel de l'IA générative. L'informatique full-stack améliore considérablement les performances de l'IA générativePour bénéficier plus rapidement des avantages commerciaux, les entreprises souhaitent simplifier et améliorer l’efficacité du développement, des tests et du déploiement d’applications d’IA générative. Selon McKinsey, l’IA générative pourrait ajouter jusqu’à 4 400 milliards de dollars à l’économie mondiale par an(1).
VMware Private AI Foundation avec NVIDIA aidera les entreprises à tirer pleinement parti de cette capacité à personnaliser de grands modèles de langage, à créer des modèles privés plus sécurisés pour un usage interne, à fournir une IA générative en tant que service aux utilisateurs et à mettre en œuvre de manière plus sécurisée des modèles de langage à grande échelle. Exécutez des charges de travail d’inférence à grande échelle.
Les différents outils d'IA intégrés qui devraient être fournis par la plateforme aideront les entreprises à exécuter de manière rentable des modèles matures formés à l'aide de leurs données privées. La plateforme, construite sur les logiciels VMware Cloud Foundation et NVIDIA AI Enterprise, devrait offrir les avantages suivants :
• Confidentialité : les clients pourront facilement exécuter des services d'IA partout où résident leurs données grâce à une architecture qui protège la confidentialité des données et sécurise l'accès.
• Choix : De NVIDIA NeMo™ à Llama 2 et plus encore, les entreprises disposeront d'un large éventail de choix quant à l'endroit où créer et exécuter leurs modèles, y compris les principales configurations matérielles OEM et les futures solutions de cloud public et de fournisseurs de services.
• Performance : des benchmarks récents du secteur montrent que certains cas d'utilisation exécutés sur une infrastructure accélérée par NVIDIA correspondent ou dépassent les performances du bare metal.
• Échelle du centre de données : la mise à l'échelle optimisée des GPU dans les environnements virtualisés permet aux charges de travail d'IA d'évoluer jusqu'à 16 vGPU/GPU sur une seule VM et sur plusieurs nœuds, accélérant ainsi le réglage fin et le déploiement de modèles d'IA génératifs.
• Coût réduit : toutes les ressources informatiques des GPU, DPU et CPU seront maximisées pour réduire les coûts globaux et créer un environnement de ressources mutualisées qui peut être partagé efficacement entre les équipes.
• Stockage accéléré : l'architecture de stockage VMware vSAN Express offre un stockage NVMe aux performances optimisées et prend en charge le stockage GPUDirect® via RDMA, permettant des transferts d'E/S directs du stockage vers le GPU sans avoir besoin d'un processeur.
• Mise en réseau accélérée : l'intégration approfondie entre vSphere et la technologie NVIDIA NVSwitch™ garantira davantage l'exécution de modèles multi-GPU sans goulots d'étranglement inter-GPU.
• Déploiement et délai de rentabilisation rapides : les images et bibliothèques de machines virtuelles vSphere Deep Learning fourniront des images de solution stables et clés en main, préinstallées avec divers frameworks et bibliothèques aux performances optimisées pour un prototypage rapide.
La plateforme utilisera NVIDIA NeMo, un framework cloud natif de bout en bout inclus dans NVIDIA AI Enterprise, le système d'exploitation de la plateforme NVIDIA AI, qui aide les entreprises à créer, personnaliser et déployer des modèles d'IA génératifs pratiquement n'importe où. NeMo combine un cadre personnalisé, une boîte à outils de garde-fou, des outils de gestion des données et des modèles pré-entraînés pour permettre aux entreprises d'adopter l'IA générative de manière simple, abordable et rapide.
Pour déployer l'IA générative en production, NeMo utilise TensorRT pour les grands modèles linguistiques (TRT-LLM) pour accélérer et optimiser les performances d'inférence du dernier LLM sur les GPU NVIDIA. Grâce à NeMo, VMware Private AI Foundation avec NVIDIA permettra aux entreprises d'importer leurs propres données et de créer et d'exécuter des modèles d'IA génératifs personnalisés sur l'infrastructure cloud hybride VMware.
Lors de la conférence VMware Explore 2023, NVIDIA et VMware se concentreront sur la manière dont les développeurs au sein de l'entreprise peuvent utiliser le nouveau NVIDIA AI Workbench pour extraire des modèles de communauté (tels que Llama 2 fourni sur Hugging Face), personnaliser à distance ces modèles et les exécuter dans le VMware Environnement Déployer une IA générative de niveau production dans .
Prise en charge étendue de l'écosystème pour VMware Private AI Foundation avec NVIDIA
VMware Private AI Foundation avec NVIDIA sera pris en charge par Dell, HPE et Lenovo. Les trois sociétés seront les premières à proposer des systèmes alimentés par des GPU NVIDIA L40S, des DPU NVIDIA BlueField®-3 et des SmartNIC NVIDIA ConnectX®-7 qui accéléreront les charges de travail de personnalisation et d'inférence LLM des entreprises.
Par rapport au GPU NVIDIA A100 Tensor Core, le GPU NVIDIA L40S peut améliorer les performances d'inférence et les performances d'entraînement de l'IA générative de 1,2 fois et 1,7 fois respectivement.
Le DPU NVIDIA BlueField-3 accélère, décharge et isole les charges de travail informatiques massives sur le GPU ou le CPU, y compris la virtualisation, la mise en réseau, le stockage, la sécurité et d'autres services d'IA natifs du cloud.
Les SmartNIC NVIDIA ConnectX-7 fournissent une mise en réseau intelligente et accélérée pour l'infrastructure du centre de données afin d'héberger certaines des charges de travail d'IA les plus exigeantes au monde.
VMware Private AI Foundation avec NVIDIA s'appuie sur une collaboration de dix ans entre les deux sociétés. Les résultats conjoints de recherche et de développement des deux parties ont optimisé l'infrastructure cloud de VMware afin qu'elle puisse exécuter NVIDIA AI Enterprise avec des performances comparables à celles du bare metal. La gestion des ressources et de l'infrastructure et la flexibilité offertes par VMware Cloud Foundation bénéficieront davantage aux clients communs.
Disponibilité
VMware prévoit de lancer VMware Private AI Foundation avec NVIDIA début 2024.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!