


Défiez NVIDIA ! AMD lance une puce IA capable d'exécuter des modèles plus grands et d'écrire de la poésie
L'acteur numéro deux du marché de la puissance de calcul de l'IA et fabricant de puces AMD a lancé une nouvelle série de puces GPU MI300 pour intelligence artificielle pour concurrencer Nvidia sur le marché de la puissance de calcul de l'intelligence artificielle.
Tôt le matin du 14 juin, heure de Pékin, AMD a organisé comme prévu la "Première du centre de données AMD et de la technologie d'intelligence artificielle" et a lancé la série de processeurs AI MI300 lors de la réunion. Le MI300X, spécialement optimisé pour les modèles linguistiques étendus, sera livré à un groupe sélectionné de clients plus tard cette année.
Le PDG d'AMD, Su Zifeng, a présenté pour la première fois le MI300A, qui est le premier accélérateur de processeur accéléré (APU) au monde pour l'IA et le calcul haute performance (HPC). Il existe 146 milliards de transistors répartis sur 13 chipsets. Par rapport à la génération précédente du MI250, les performances du MI300 sont huit fois supérieures et l'efficacité est cinq fois supérieure.
Par la suite, Su Zifeng a annoncé le produit le plus parlé de cette conférence, le MI300X, qui est une version optimisée pour les grands modèles de langage.
"J'aime cette puce", a déclaré Su Zifeng. La puce MI300X et son architecture CDNA sont conçues pour les grands modèles de langage et d'autres modèles d'intelligence artificielle de pointe.
Les grands modèles de langage pour les applications d'IA générative utilisent beaucoup de mémoire car ils exécutent de plus en plus de calculs. AMD a présenté le MI300X exécutant un modèle Falcon de 40 milliards de paramètres. Le modèle GPT-3 d’OpenAI comporte 175 milliards de paramètres.
Elle a également utilisé le grand modèle de Hugging Face basé sur le MI300X pour écrire un poème sur San Francisco, où s'est tenu l'événement.
Su Zifeng a déclaré que la densité HBM (mémoire à bande passante élevée) fournie par le MI300X est 2,4 fois supérieure à celle du NVIDIA H100 et que la bande passante HBM est 1,6 fois supérieure à celle des produits concurrents. Cela signifie qu'AMD peut exécuter des modèles plus grands que le Nvidia H100.
"La taille des modèles devient de plus en plus grande et vous avez en fait besoin de plusieurs GPU pour exécuter les derniers grands modèles de langage", a souligné Su Zifeng, affirmant qu'avec l'augmentation de la mémoire sur les puces AMD, les développeurs n'en auront pas besoin d'autant. GPU , qui peuvent réduire les coûts pour les utilisateurs.
AMD a également annoncé le lancement d'une architecture Infinity intégrant 8 accélérateurs M1300X dans un seul système. Des systèmes similaires sont développés par Nvidia et Google, qui combinent huit GPU ou plus dans un boîtier pour les applications d'intelligence artificielle.
Une bonne chips n'est pas seulement le produit lui-même, mais a également besoin d'un bon écosystème. L'une des raisons pour lesquelles les développeurs d'IA ont toujours privilégié les puces Nvidia est qu'elles disposent d'un progiciel bien développé appelé CUDA qui leur donne accès aux fonctionnalités matérielles de base de la puce.
Afin de comparer le CUDA de NVIDIA, AMD a lancé son propre logiciel de puce "ROCm" pour créer son propre écosystème logiciel.
Su Zifeng a également déclaré aux investisseurs et aux analystes que l'intelligence artificielle est « l'opportunité de croissance à long terme la plus importante et la plus stratégique de l'entreprise ». « Nous pensons que l'accélérateur (marché) de l'intelligence artificielle des centres de données connaîtra une croissance de plus de 50 % ». taux de croissance annuel composé, passant d'environ 30 milliards de dollars américains cette année à plus de 150 milliards de dollars américains en 2027. »
Les grands modèles de langage tels que ChatGPT nécessitent les GPU les plus performants pour l'informatique. De nos jours, NVIDIA a un avantage absolu sur ce marché, avec 80 % du marché, tandis qu'AMD est considéré comme un concurrent sérieux.
Bien qu'AMD n'ait pas divulgué le prix, cette décision pourrait exercer une pression sur les prix des GPU Nvidia. Par exemple, le prix du H100 de ce dernier peut atteindre plus de 30 000 dollars américains. La baisse des prix des GPU pourrait contribuer à réduire le coût élevé de génération d’applications d’IA.
Cependant, de nombreux produits AMD présents à cette conférence étaient dans une position de « leader » en termes de performances. Cependant, le marché des capitaux n'a pas fait grimper le cours de l'action AMD, qui a plutôt clôturé en baisse de 3,61 %, tandis que son homologue Nvidia. a clôturé en hausse de 3,90 % et sa valeur marchande a clôturé pour la première fois au-dessus de la barre des 1 000 milliards de dollars.
【Source : Le Papier】
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

L'article passe en revue les meilleurs générateurs d'art AI, discutant de leurs fonctionnalités, de leur aptitude aux projets créatifs et de la valeur. Il met en évidence MidJourney comme la meilleure valeur pour les professionnels et recommande Dall-E 2 pour un art personnalisable de haute qualité.

Chatgpt 4 est actuellement disponible et largement utilisé, démontrant des améliorations significatives dans la compréhension du contexte et la génération de réponses cohérentes par rapport à ses prédécesseurs comme Chatgpt 3.5. Les développements futurs peuvent inclure un interg plus personnalisé

META'S LLAMA 3.2: un bond en avant dans l'IA multimodal et mobile Meta a récemment dévoilé Llama 3.2, une progression importante de l'IA avec de puissantes capacités de vision et des modèles de texte légers optimisés pour les appareils mobiles. S'appuyer sur le succès o

L'article compare les meilleurs chatbots d'IA comme Chatgpt, Gemini et Claude, en se concentrant sur leurs fonctionnalités uniques, leurs options de personnalisation et leurs performances dans le traitement et la fiabilité du langage naturel.

L'article traite des meilleurs assistants d'écriture d'IA comme Grammarly, Jasper, Copy.ai, WireSonic et Rytr, en se concentrant sur leurs fonctionnalités uniques pour la création de contenu. Il soutient que Jasper excelle dans l'optimisation du référencement, tandis que les outils d'IA aident à maintenir le ton

Falcon 3: un modèle révolutionnaire de grande langue open source Falcon 3, la dernière itération de la célèbre série Falcon de LLMS, représente une progression importante de la technologie de l'IA. Développé par le Technology Innovation Institute (TII), cet ouvert

L'article examine les meilleurs générateurs de voix d'IA comme Google Cloud, Amazon Polly, Microsoft Azure, IBM Watson et Descript, en se concentrant sur leurs fonctionnalités, leur qualité vocale et leur aptitude à différents besoins.

2024 a été témoin d'un simple passage de l'utilisation des LLM pour la génération de contenu pour comprendre leur fonctionnement intérieur. Cette exploration a conduit à la découverte des agents de l'IA - les systèmes autonomes manipulant des tâches et des décisions avec une intervention humaine minimale. Construire
