Maison > Périphériques technologiques > Industrie informatique > NVIDIA lance le service génératif AI Foundry basé sur Microsoft Azure, avec SAP SE, Amdocs et Getty Images en tête

NVIDIA lance le service génératif AI Foundry basé sur Microsoft Azure, avec SAP SE, Amdocs et Getty Images en tête

WBOY
Libérer: 2023-11-17 21:38:20
avant
589 Les gens l'ont consulté

La conférence Microsoft Ignite 2023 commence aujourd'hui. NVIDIA a lancé un service d'atelier d'IA basé sur le cloud intelligent de Microsoft Microsoft Azure, visant à aider les entreprises et les startups à développer, optimiser et déployer des applications d'IA génératives personnalisées sur la plateforme Azure

英伟达发布基于微软 Azure 的生成式 AI Foundry 服务, SAP SE、Amdocs 和 Getty Images 率先采用

Selon les rapports, ce service de fonderie NVIDIA AI intègre trois éléments majeurs : les modèles NVIDIA AI Foundation, le framework et les outils NVIDIA NeMo et les services de supercalcul IA cloud NVIDIA DGX.

NVIDIA a déclaré pouvoir fournir aux entreprises des solutions de bout en bout pour créer des modèles d'intelligence artificielle générative personnalisés. En outre, ils aident également les entreprises à utiliser le logiciel NVIDIA AI Enterprise pour déployer ces modèles personnalisés afin de prendre en charge les applications d'intelligence artificielle générative, notamment la recherche intelligente, la synthèse et la génération de contenu. Actuellement, trois fournisseurs majeurs, SAP SE, Amdocs et Getty Images, ont pris le relais. le leader dans son utilisation. Utilisez ce service pour créer son modèle d’IA personnalisé.

NVIDIA a également annoncé quelques mises à jour. Tout d’abord, ils mettront à jour TensorRT-LLM pour prendre en charge l’API Chat d’OpenAI et améliorer les capacités DirectML. Ces améliorations amélioreront les performances des modèles d'IA tels que Llama 2 et Stable Diffusion. Des informations plus détaillées peuvent être trouvées dans les rapports précédents sur ce site

Lecture connexe :

"NVIDIA présente en avant-première la nouvelle version de TensorRT-LLM : la capacité d'inférence augmente 5 fois, les cartes graphiques de plus de 8 Go peuvent fonctionner localement, prend en charge l'API Chat d'OpenAI"

Déclaration publicitaire : les liens de saut externes (y compris, mais sans s'y limiter, les hyperliens, les codes QR, les mots de passe, etc.) contenus dans l'article sont utilisés pour transmettre plus d'informations et gagner du temps de sélection. Les résultats sont à titre de référence uniquement. contenir cette déclaration.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:ithome.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal