La différence entre les puces analogiques et les puces numériques
La différence entre les puces analogiques et les puces numériques
1. Les puces analogiques sont utilisées pour générer, amplifier et traiter divers signaux analogiques, tandis que les puces numériques sont utilisées. Les puces analogiques sont utilisées pour générer, amplifier et traiter divers signaux numériques ;
2. Les puces analogiques utilisent la fonction d'amplification des transistors, tandis que les puces analogiques numériques utilisent la fonction de commutation des cristaux.
Puce
Après l'invention et la production en série du transistor, divers composants semi-conducteurs à semi-conducteurs tels que des diodes, des transistors, etc. ont été largement utilisés, remplaçant la fonction et le rôle des tubes à vide dans les circuits. Entre le milieu et la fin du 20e siècle, les progrès de la technologie de fabrication des semi-conducteurs ont rendu possibles les circuits intégrés. Comparés aux circuits assemblés à la main utilisant des composants électroniques discrets individuels, les circuits intégrés peuvent intégrer un grand nombre de microtransistors dans une petite puce, ce qui constitue une énorme amélioration. Les capacités de production à grande échelle, la fiabilité et l'approche modulaire de la conception de circuits intégrés ont assuré l'adoption rapide de circuits intégrés standardisés pour remplacer les conceptions utilisant des transistors discrets.
Les circuits intégrés présentent deux avantages principaux par rapport aux transistors discrets : le coût et les performances. Le faible coût est dû au fait que tous les composants de la puce sont imprimés comme une unité via la technologie de photolithographie, plutôt que de fabriquer un seul transistor à la fois. Les performances élevées sont dues à la commutation rapide des composants, qui consomme moins d'énergie car les composants sont petits et proches les uns des autres. En 2006, la surface des puces est passée de quelques millimètres carrés à 350 mm², et chaque mm² pouvait atteindre un million de transistors.
Le premier prototype de circuit intégré a été réalisé par Jack Kilby en 1958 et comprenait un transistor bipolaire, trois résistances et un condensateur.
Selon le nombre de dispositifs microélectroniques intégrés sur une puce, les circuits intégrés peuvent être répartis dans les catégories suivantes :
Circuit intégré à petite échelle (nom complet de SSI en anglais est l'intégration à petite échelle) moins de 10 portes logiques ou moins de 100 transistors.
Le circuit intégré à échelle moyenne (le nom complet MSI en anglais est Medium Scale Integration) comporte 11 à 100 portes logiques ou 101 à 1 000 transistors.
Le circuit intégré à grande échelle (le nom complet de LSI en anglais est Large Scale Integration) comporte 101 à 1 000 portes logiques ou 1 001 à 10 000 transistors.
Un circuit intégré à très grande échelle (VLSI, nom complet en anglais : Very large scale Integration) possède 1 001 à 10 000 portes logiques ou 10 001 à 100 000 transistors.
L'intégration à très grande échelle (le nom complet anglais ULSI est Ultra Large Scale Integration) comporte 10 001 à 1 million de portes logiques ou 100 001 à 10 millions de transistors.
GLSI (nom complet en anglais est Giga Scale Integration) possède plus de 1 000 001 de portes logiques ou plus de 10 000 001 de transistors.
Tutoriel recommandé : "PHP"
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Selon les informations du 30 mai, même si le marché des puces mémoire est atone, il existe une énorme demande d'intelligence artificielle, qui profitera à des entreprises telles que Samsung et SK Hynix. Le 24 mai, Nvidia a publié son rapport financier et la valeur marchande de l’entreprise a bondi de 207 milliards de dollars en deux jours. Auparavant, l'industrie des semi-conducteurs était en récession, et ces prévisions du rapport financier ont donné aux gens beaucoup de confiance et d'espoir. Si le domaine de l’intelligence artificielle décolle, les géants de la technologie traditionnelle comme Microsoft et les start-up comme OpenAI solliciteront l’aide d’entreprises comme Samsung et SK Hynix. L'apprentissage automatique nécessite des puces mémoire pour traiter de grandes quantités de données, analyser la vidéo, l'audio et le texte et simuler la créativité humaine. En fait, les entreprises d’IA achètent peut-être plus de puces DRAM que jamais. Demande de puces mémoire

On ne sait pas exactement qui a fabriqué la puce de 1 nm. Du point de vue de la recherche et du développement, la puce de 1 nm a été développée conjointement par Taiwan, la Chine et les États-Unis. Du point de vue de la production de masse, cette technologie n’est pas encore pleinement réalisée. Le principal responsable de cette recherche est le Dr Zhu Jiadi du MIT, un scientifique chinois. Le Dr Zhu Jiadi a déclaré que la recherche en est encore à ses débuts et qu'elle est encore loin d'une production de masse.

Nouvelles de ce site le 28 novembre. Selon le site officiel de Changxin Memory, Changxin Memory a lancé la dernière puce mémoire LPDDR5DRAM. Il s'agit de la première marque nationale à lancer des produits LPDDR5 développés et produits de manière indépendante. Elle n'a réalisé aucune percée sur le marché national. marché et a également rendu la présentation des produits de Changxin Storage sur le marché des terminaux mobiles plus diversifiée. Ce site Web a remarqué que les produits de la série Changxin Memory LPDDR5 incluent des particules LPDDR5 de 12 Go, des puces 12GBLPDDR5 emballées par POP et des puces 6GBLPDDR5 emballées par DSC. La puce 12GBLPDDR5 a été vérifiée sur les modèles des principaux fabricants de téléphones mobiles nationaux tels que Xiaomi et Transsion. LPDDR5 est un produit lancé par Changxin Memory pour le marché des appareils mobiles de milieu à haut de gamme.

Ce site Web a rapporté le 13 novembre que, selon le Taiwan Economic Daily, la demande de packaging avancé CoWoS de TSMC est sur le point d'exploser. Outre NVIDIA, qui a confirmé l'expansion de ses commandes en octobre, des clients importants tels qu'Apple, AMD, Broadcom et Marvell. ont également récemment poursuivi leurs commandes de manière significative. Selon les rapports, TSMC travaille dur pour accélérer l'expansion de la capacité de production d'emballages avancés de CoWoS afin de répondre aux besoins des cinq principaux clients mentionnés ci-dessus. La capacité de production mensuelle de l'année prochaine devrait augmenter d'environ 20 % par rapport à l'objectif initial pour atteindre 35 000 pièces. Les analystes ont déclaré que les cinq principaux clients de TSMC ont passé des commandes importantes, ce qui montre que les applications d'intelligence artificielle sont devenues très populaires et que les principaux fabricants s'y intéressent. puces d'intelligence artificielle. La demande a considérablement augmenté. Les enquêtes sur ce site ont révélé que la technologie d'emballage avancée CoWoS actuelle est principalement divisée en trois types - CoWos-S.

Il était une fois l’intelligence artificielle qui était entrée dans un goulot d’étranglement qui durait depuis des décennies en raison d’une puissance de calcul insuffisante, et le GPU a déclenché l’apprentissage profond. À l'ère ChatGPT, l'IA est à nouveau confrontée au problème de la puissance de calcul insuffisante en raison des grands modèles. Existe-t-il un moyen pour NVIDIA de le faire cette fois-ci ? Le 22 mars, la conférence GTC a eu lieu officiellement lors de la Keynote qui vient de se tenir, le PDG de NVIDIA, Jen-Hsun Huang, a présenté les puces préparées pour ChatGPT. "Accélérer l'informatique n'est pas facile. En 2012, le modèle de vision par ordinateur AlexNet utilisait une GeForce GTX580 et pouvait traiter 262 Peta FLOPS par seconde. Ce modèle a déclenché une explosion de la technologie de l'IA", a déclaré Huang. "Dix ans plus tard, Tr

Selon les informations de ce site Web du 24 août, la plupart des fabricants de technologies ont présenté des produits nouveaux ou à venir à la Gamescom. Par exemple, ASRock a présenté sa version mise à jour "demi-génération" de la carte mère Z790. Ces nouvelles cartes mères utilisent la puce RTL8125-BG. est utilisé à la place du RTL8126-CG utilisé dans le prototype présenté au salon Computex en juin. Selon le média néerlandais Tweakers, plusieurs fabricants de cartes mères participant à la Gamescom ont révélé que bien que la puce de carte réseau filaire 5GbE de Realtek, RTL8126-CG, soit moins chère, elle ne sera pas installée sur les cartes mères lancées cet automne en raison de problèmes de stabilité. problème, mais ils ne pourront pas le résoudre avant la sortie des nouvelles cartes mères cet automne

Après que ChatGPT soit devenu populaire, la guerre de l'IA entre les deux géants Google et Microsoft a brûlé de nouvelles puces de serveur de terrain. Aujourd’hui, l’IA et le cloud computing sont devenus des champs de bataille, et les puces sont également devenues la clé pour réduire les coûts et gagner des clients professionnels. À l’origine, les grandes entreprises telles qu’Amazon, Microsoft et Google étaient toutes réputées pour leurs logiciels, mais elles dépensent désormais des milliards de dollars dans le développement et la production de puces. La puce d'IA ChatGPT développée par les grands géants de la technologie est devenue populaire et les principaux fabricants ont lancé un concours de puces. Selon les médias étrangers The Information et d'autres sources, ces trois grands fabricants ont maintenant lancé ou prévoient de lancer 8 serveurs et. Puces IA pour le développement de produits internes, la location de serveurs cloud ou les deux. "si tu

Les dernières nouvelles montrent que, selon les rapports du Science and Technology Innovation Board Daily et de Blue Whale Finance, des sources de la chaîne industrielle ont révélé que NVIDIA a développé la dernière version de puces IA adaptées au marché chinois, notamment HGXH20, L20PCle et L2PCle. Pour l'instant, NVIDIA n'a pas commenté. Des personnes proches du dossier ont déclaré que ces trois puces sont toutes basées sur des améliorations de NVIDIA H100. NVIDIA devrait les annoncer dès le 16 novembre et les fabricants nationaux recevront des échantillons dès que celles-ci seront disponibles. jours. Après avoir vérifié les informations publiques, nous avons appris que NVIDIAH100TensorCoreGPU adopte la nouvelle architecture Hopper, basée sur le processus TSMC N4 et intégrant 80 milliards de transistors. Par rapport au produit de la génération précédente, il peut fournir des services multi-experts (MoE)