Maison > Périphériques technologiques > IA > NVIDIA n'est pas le seul bénéficiaire, la formation à l'IA profite également aux fabricants de puces mémoire

NVIDIA n'est pas le seul bénéficiaire, la formation à l'IA profite également aux fabricants de puces mémoire

WBOY
Libérer: 2023-05-31 17:16:58
avant
1053 Les gens l'ont consulté

NVIDIA nest pas le seul bénéficiaire, la formation à lIA profite également aux fabricants de puces mémoire

Nouvelle du 30 mai, même si le marché des puces mémoire est atone, il existe une demande énorme pour l'intelligence artificielle, qui profitera à des entreprises comme Samsung et SK Hynix.

Dans un rapport financier du 24 mai, la valeur marchande de Nvidia a bondi de 207 milliards de dollars en deux jours. Auparavant, l'industrie des semi-conducteurs était en récession, mais les prévisions de ce rapport financier ont donné aux gens beaucoup de confiance et d'espoir.

Si le domaine de l'intelligence artificielle décolle, les géants de la technologie traditionnelle comme Microsoft et les start-ups comme OpenAI solliciteront l'aide d'entreprises comme Samsung et SK Hynix.

Pour traiter de grandes quantités de données, analyser la vidéo, l'audio et le texte et simuler la créativité humaine, l'apprentissage automatique nécessite des puces mémoire. En fait, les entreprises d’IA achètent peut-être plus de puces DRAM que jamais.

La raison pour laquelle les puces mémoire sont si demandées est simple : la puce IA de NVIDIA est différente des processeurs standards dans la mesure où elle peut lire et traiter une grande quantité de données à la fois, puis afficher les résultats immédiatement. Mais pour profiter de cette puissance, les ordinateurs doivent recevoir des données rapidement et sans délai. C'est ce que font les puces mémoire.

Le processeur ne peut pas lire les données directement depuis le disque dur - il est trop lent et inefficace. Les fabricants de puces préfèrent utiliser l'espace interne précieux pour augmenter la puissance de calcul. La sauvegarde des données dans le cache interne de la puce devient donc le deuxième choix. La meilleure chose à faire est donc d’utiliser la DRAM.

Lors de la formation de chatbots complexes, vous devrez peut-être accéder rapidement à des milliards de messages pour un traitement par lots. S'il n'y a pas assez de DRAM dans le système, l'ordinateur sera considérablement plus lent, ce qui signifie que même le meilleur processeur pour lequel vous avez dépensé 10 000 $ ne sera pas en mesure de fournir sa valeur. Chaque processeur IA haut de gamme peut nécessiter jusqu'à 1 To de mémoire DRAM installée, soit 30 fois plus qu'un ordinateur portable haut de gamme. Le cabinet d'études TrendForce a déclaré que cela signifie qu'à un moment donné cette année, les ventes de puces DRAM utilisées dans les serveurs dépasseront celles utilisées dans les smartphones.

Les systèmes d'intelligence artificielle doivent également être capables de sauvegarder les données de sortie rapidement et en grande quantité pour une lecture et une écriture rapides, ils doivent donc utiliser des puces NAND, qui sont également les puces utilisées dans les smartphones et la plupart des ordinateurs portables. Samsung, le leader mondial, occupe la première place dans ce domaine, suivi du fabricant de mémoires Kioxia, issu du japonais Toshiba, et du sud-coréen SK Hynix.

Au dernier trimestre, les puces de mémoire DRAM et NAND ont contribué à 8,9 milliards de dollars de revenus pour Samsung, dépassant de loin les 4,3 milliards de dollars de l'activité centres de données de Nvidia (qui comprend des produits pour l'intelligence artificielle). Mais il est important de noter qu’il s’agit du pire trimestre pour la division mémoire de Samsung depuis sept ans, et que les ventes de mémoire liées à l’IA ne représentent qu’une petite partie du chiffre d’affaires total.

À l'avenir, pour chaque puce d'intelligence artificielle haut de gamme vendue, une douzaine de puces DRAM supplémentaires seront expédiées, ce qui signifie que les revenus d'entreprises telles que Samsung et SK Hynix augmenteront. Ensemble, ces sociétés contrôlent 95 % des parts de marché des DRAM. À mesure que Nvidia grandit, ils le feront également.

Il ne fait aucun doute que la révolution de l’intelligence artificielle est là, et les chatbots sympas, les moteurs de recherche omniprésents et les fabricants de processeurs hautes performances sont parmi les plus grands gagnants. Les entreprises qui produisent en masse des puces mémoire ne seront pas en reste. (Tchenchen)

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal