Les puces IA sont en rupture de stock dans le monde !
Le PDG de Google a comparé la révolution de l’IA à l’utilisation du feu par l’humanité, mais désormais, le feu numérique qui alimente l’industrie – les puces IA – est difficile à trouver.
La nouvelle génération de puces avancées qui pilotent les opérations d'IA sont presque toutes fabriquées par NVIDIA. Alors que ChatGPT sort du cercle, la demande du marché pour les puces de traitement graphique (GPU) NVIDIA dépasse de loin l'offre.
Sharon Zhou, co-fondatrice et PDG de Lamini, une startup qui aide les entreprises à créer des modèles d'IA tels que des chatbots, a déclaré :
« Parce qu’il y a une pénurie, tout tourne autour de votre cercle d’amis
."Comme le papier toilette pendant la pandémie."
En raison de l'existence de cette situation, des clients comme OpenAI, le créateur de ChatGPT, sont limités par la puissance de calcul des fournisseurs de services cloud comme Amazon et Microsoft. Pour développer et exploiter des modèles de plus en plus complexes et aider d’autres entreprises à créer des services d’IA, les développeurs d’IA doivent avoir accès à la puissance de calcul des serveurs.
Même les entrepreneurs technologiques les mieux connectés au monde travaillent dur pour garantir l’approvisionnement. Lors de l'audience du Congrès sur l'IA le 16 mai, le PDG d'OpenAI, Sam Altman, a déclaré qu'en raison des goulots d'étranglement de la puissance de calcul, il serait préférable que moins de personnes utilisent ChatGPT.
Le 23 mai, le PDG de Tesla, Musk, a déclaré lors du sommet du Conseil des PDG du Wall Street Journal :
"Actuellement, les GPU sont plus difficiles à obtenir que les médicaments. "
Cependant, Musk va toujours bien mieux.
Les startups qui ont déclaré qu'elles recherchaient la puissance de calcul d'Oracle plus tôt cette année se sont soudainement fait dire qu'un acheteur avait accaparé une grande partie de l'espace serveur disponible d'Oracle, a rapporté le Wall Street Journal. Selon des sources proches du dossier, ces nouvelles startups ont été informées que l’acheteur est Musk, qui développe un produit concurrent appelé X.AI pour contester la position d’OpenAI sur le marché.
Les startups tentent différentes manières de résoudre la pénurie
Sans puces de traitement graphique avancées, la vitesse d'exécution des modèles de langage à grande échelle en intelligence artificielle sera considérablement réduite. C'est un point de vue courant parmi les fondateurs de start-up. Les puces de traitement graphique avancées de Nvidia disposent d'excellentes capacités de calcul parallèle, ce qui est très critique pour le fonctionnement de l'IA.
Les analystes d'UBS estiment que la première version de ChatGPT nécessitera environ 10 000 puces de traitement graphique NVIDIA ; tandis que Musk estime que le nombre de processeurs avancés requis pour la version mise à jour est de 3 à 5 fois supérieur.
Nvidia a récemment déclaré que la société élargissait son offre pour répondre à la demande croissante. Le PDG de NVIDIA, Jensen Huang, a déclaré dimanche que la société avait augmenté la production de sa nouvelle puce phare H100 pour l'intelligence artificielle générative.
Les startups et les investisseurs en IA font de leur mieux pour résoudre le problème de la pénurie de puces. Certains investisseurs examinent leurs réseaux informatiques pour trouver de la puissance de calcul disponible, tandis que d'autres organisent des commandes de processeurs et de serveurs haute capacité à partager avec d'autres startups d'IA.
Certaines startups réduisent leurs modèles d'IA pour améliorer leur efficacité ; d'autres fondateurs cherchent à établir des relations avec les vendeurs d'Amazon et de Microsoft.
Sharon Zhou de Lamini a déclaré qu'ils disposaient des jetons nécessaires.. Lamini a été cofondée par lui et un ancien ingénieur NVIDIA. Mais elle et de nombreux autres fondateurs ont refusé de dire comment ils avaient obtenu les puces.
De nombreux fondateurs d'IA s'attendent à ce que la pénurie de puces IA dure au moins jusqu'à l'année prochaine.
Les fondateurs et les investisseurs déclarent Même s'il existe des entreprises établies dans le domaine des puces IA, elles doivent encore attendre des semaines pour les utiliser. Un PDG d'une startup d'IA a déclaré :
"Même si vous avez prépayé, cela ne veut pas dire que le GPU vous sera livré le lendemain ou la semaine prochaine, vous ne pouvez qu'attendre
."
Le PDG de Supermicro, l'un des plus grands fabricants de serveurs au monde, a déclaré que le retard de l'entreprise en matière de systèmes de puces graphiques a atteint un niveau record et que l'entreprise se précipite pour augmenter sa capacité de production.
Le marché secondaire est en plein essor, et NVIDIA devient aussi fou
La situation de rupture de stock a déclenché le marché secondaire des puces d'IA, dont certaines impliquent de grandes sociétés de cryptage Ces sociétés ont acheté des puces pour l'exploitation minière pendant le boom du cercle monétaire, mais n'en ont plus besoin maintenant pendant le. ralentissement du marché des devises numériques.
La demande pour les produits Nvidia a fait grimper les stocks de l’entreprise d’environ 167 % cette année. Les coûts des puces IA varient. Certains détaillants vendent les puces IA avancées de Nvidia pour environ 33 000 $, bien qu'elles puissent se vendre plus cher sur le marché secondaire en raison de la forte demande.
Kanjun Qiu, PDG de la société de recherche en intelligence artificielle General Intelligent, achète depuis l'année dernière des puces graphiques avancées pour ses serveurs, lui permettant ainsi de faire face à la pénurie actuelle.
Un investisseur en capital-risque lui a récemment envoyé un message lui demandant s'il existait une capacité excédentaire qui pourrait être louée à d'autres startups. Qiu n'a pas encore décidé d'abandonner ou non sa puce.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Selon les informations du 14 novembre, Nvidia a officiellement lancé le nouveau GPU H200 lors de la conférence "Supercomputing23" le matin du 13, heure locale, et a mis à jour la gamme de produits GH200. Parmi eux, le H200 est toujours construit sur l'architecture Hopper H100 existante. Cependant, une mémoire à bande passante plus élevée (HBM3e) a été ajoutée pour mieux gérer les grands ensembles de données nécessaires au développement et à la mise en œuvre de l'intelligence artificielle, ce qui améliore de 60 à 90 % les performances globales d'exécution de grands modèles par rapport à la génération précédente H100. . Le GH200 mis à jour alimentera également la prochaine génération de supercalculateurs IA. En 2024, plus de 200 exaflops de puissance de calcul de l’IA seront en ligne. H200

Le 19 juin, selon les médias de Taiwan, en Chine, Google (Google) a contacté MediaTek pour coopérer afin de développer la dernière puce d'IA orientée serveur et prévoit de la confier au processus 5 nm de TSMC pour la fonderie, avec des plans pour production de masse au début de l’année prochaine. Selon le rapport, des sources ont révélé que cette coopération entre Google et MediaTek fournirait à MediaTek des solutions de sérialisation et de désérialisation (SerDes) et aiderait à intégrer le processeur tenseur (TPU) auto-développé par Google pour aider Google à créer les dernières puces Server AI qui seront plus puissantes. que les architectures CPU ou GPU. L’industrie souligne que de nombreux services actuels de Google sont liés à l’IA. Elle a investi dans la technologie d’apprentissage profond il y a de nombreuses années et a constaté que l’utilisation de GPU pour effectuer des calculs d’IA était très coûteuse. Google a donc décidé de le faire.

Après le lancement de la NVIDIA H200, connue comme la puce d'IA la plus puissante au monde, l'industrie a commencé à attendre avec impatience la puce B100, plus puissante de NVIDIA. Dans le même temps, OpenAI, la start-up d'IA la plus populaire cette année, a démarré. pour développer un modèle GPT-5 plus puissant et plus complexe. Guotai Junan a souligné dans le dernier rapport de recherche que les B100 et GPT5 aux performances illimitées devraient être commercialisés en 2024 et que les mises à niveau majeures pourraient générer une productivité sans précédent. L’agence s’est déclarée optimiste quant au fait que l’IA entrera dans une période de développement rapide et que sa visibilité se poursuivra jusqu’en 2024. Par rapport aux générations de produits précédentes, quelle est la puissance du B100 et du GPT-5 ? Nvidia et OpenAI ont déjà donné un aperçu : le B100 pourrait être plus de 4 fois plus rapide que le H100, et le GPT-5 pourrait atteindre un super

Les progrès en matière d'efficacité énergétique du KL730 ont résolu le plus gros goulot d'étranglement dans la mise en œuvre des modèles d'intelligence artificielle : le coût énergétique. Par rapport à l'industrie et aux puces Kneron précédentes, la puce KL730 a augmenté de 3 à 4 fois. Des modèles de langage GPT légers à grande échelle, tels que nanoGPT, et fournissent une puissance de calcul effective de 0,35 à 4 téra par seconde. La société d'IA Kneron a annoncé aujourd'hui la sortie de la puce KL730, qui intègre un NPU de qualité automobile et un traitement du signal d'image (ISP). pour apporter une IA sûre et à faible consommation d'énergie. Les capacités sont renforcées dans divers scénarios d'application tels que les serveurs de périphérie, les maisons intelligentes et les systèmes de conduite assistée automobile. Kneron, basé à San Diego, est connu pour ses unités de traitement neuronal (NPU) révolutionnaires, et sa dernière puce, la KL730, vise à atteindre

Alors que le monde est toujours obsédé par les puces NVIDIA H100 et les achète follement pour répondre à la demande croissante de puissance de calcul de l'IA, lundi, heure locale, NVIDIA a discrètement lancé sa dernière puce AI H200, qui est utilisée pour entraîner de grands modèles d'IA par rapport à d'autres. Les performances des produits de génération précédente H100 et H200 ont été améliorées d'environ 60 à 90 %. Le H200 est une version améliorée du Nvidia H100. Il est également basé sur l'architecture Hopper comme le H100. La mise à niveau principale comprend 141 Go de mémoire vidéo HBM3e, et la bande passante de la mémoire vidéo est passée de 3,35 To/s du H100 à 4,8. To/s. Selon le site officiel de Nvidia, la H200 est également la première puce de la société à utiliser la mémoire HBM3e. Cette mémoire est plus rapide et a une plus grande capacité, elle est donc plus adaptée aux grands langages.

Selon les mots originaux, il peut être réécrit comme suit : (Global TMT 16 août 2023) La société d'IA Kneron, dont le siège est à San Diego et connue pour ses unités de traitement neuronal (NPU) révolutionnaires, a annoncé la sortie de la puce KL730. La puce intègre un NPU de qualité automobile et un traitement du signal d'image (ISP) et fournit des capacités d'IA sûres et à faible consommation d'énergie pour divers scénarios d'application tels que les serveurs de périphérie, les maisons intelligentes et les systèmes de conduite assistée automobile. La puce KL730 a obtenu d'excellents résultats. termes d'efficacité énergétique. Une percée, par rapport aux puces Nerner précédentes, son efficacité énergétique a augmenté de 3 à 4 fois et est de 150 % à 200 % supérieure à celle des produits similaires dans les grandes industries. La puce a une puissance de calcul effective de 0,35 à 4 téra par seconde et peut prendre en charge le grand GPT léger le plus avancé.

Dimensity 9300 a récemment acquis une position de leader dans le domaine des puces phares pour téléphones mobiles, surpassant avec succès ses concurrents. Sur le marché sous-phare avec un volume d'expédition élevé, MediaTek a fait preuve d'une nouvelle compétitivité. Dans l'après-midi du 21 novembre, MediaTek a officiellement lancé la puce sous-phare de nouvelle génération Dimensity 8300. La nouvelle génération de puces a été considérablement améliorée en termes de performances, d'efficacité énergétique et d'IA générative, offrant ainsi une expérience de niveau phare. Lors de l'événement, le Dr Li Yanji, directeur général adjoint de la division des communications sans fil de MediaTek, a déclaré : « Le Dimensity 8300 possède des capacités d'IA finales très économes en énergie, prend en charge un stockage de niveau phare et offre d'excellents jeux, images et divertissements multimédia. les expériences avec une innovation de plate-forme complète ouvriront davantage de nouvelles opportunités pour le marché des smartphones haut de gamme. » Dimensity 8300 adopte 4.

Le PDG de Google compare la révolution de l’IA à l’utilisation du feu par l’humanité, mais désormais, le feu numérique qui alimente l’industrie – les puces IA – est difficile à trouver. La nouvelle génération de puces avancées qui pilotent les opérations d'IA sont presque toutes fabriquées par NVIDIA. Alors que ChatGPT sort du cercle, la demande du marché pour les puces de traitement graphique (GPU) NVIDIA dépasse de loin l'offre. "Parce qu'il y a une pénurie, la clé est votre cercle d'amis", a déclaré Sharon Zhou, co-fondatrice et PDG de Lamini, une startup qui aide les entreprises à construire des modèles d'IA tels que des chatbots. "C'est comme du papier toilette pendant l'épidémie". Ce genre de chose a limité la puissance de calcul que les fournisseurs de cloud comme Amazon et Microsoft peuvent offrir à des clients comme OpenAI, le créateur de ChatGPT.
