


Alors que nous continuons à nous rapprocher des limites de la loi de Moore, les interconnexions des puces sont également en grande difficulté.
Les interconnexions – parfois les lignes métalliques de l’ordre du nanomètre qui connectent les transistors aux circuits des circuits intégrés – ont besoin d’une « refonte ». À mesure que les usines de puces électroniques se rapprochent progressivement des limites de la loi de Moore, l'interconnexion devient un goulot d'étranglement majeur dans l'industrie.
Lors du 68e IEEE International Electronic Devices Meeting (IEDM) début décembre 2022, Chris Penny d'IBM a déclaré aux ingénieurs : « Depuis environ 20 à 25 ans, le cuivre est le métal de choix pour les interconnexions. le cuivre ralentit désormais, ce qui offre des opportunités pour des conducteurs alternatifs "
Selon le rapport de recherche IEDM 2022, le ruthénium (Ruthénium) est le matériau candidat numéro un, mais ce n'est pas comme utiliser un métal. C'est aussi simple que possible. passer à un autre métal. Le processus par lequel ils sont formés sur la puce doit être inversé. Ces nouvelles connexions nécessiteront des formes différentes et des densités plus élevées, ainsi que de meilleures propriétés d'isolation, de peur que la capacité consommatrice de signaux ne leur enlève tous leurs avantages.
La localisation des interconnexions est également vouée à changer, et ce changement est à venir. Mais les recherches montrent de plus en plus que les avantages de ce changement ont un coût.
Ruthénium, Top Vias et Air Gap
Actuellement, le ruthénium est le remplacement du cuivre le plus populaire. Mais les recherches montrent que les anciennes méthodes utilisées pour construire des interconnexions en cuivre ne fonctionnent pas bien avec le ruthénium. Les interconnexions en cuivre sont construites selon un procédé dit damasquiné. Les premiers fabricants de puces ont utilisé la photolithographie pour graver les formes des interconnexions dans la couche d'isolation diélectrique située au-dessus des transistors. Ils ont ensuite déposé des matériaux de revêtement et de barrière pour empêcher les atomes de cuivre de dériver vers d’autres parties de la puce et de gâcher l’ensemble du processus. La tranchée est ensuite remplie de cuivre, la remplissant souvent trop, de sorte que l'excédent doit être poli.
Penny a déclaré aux ingénieurs d'IEDM que tous les éléments supplémentaires, y compris les plots et les barrières, représentent 40 à 50 % du volume d'interconnexion. En conséquence, les parties conductrices des interconnexions se rétrécissent, en particulier dans les connexions verticales ultrafines entre les couches d'interconnexion, ce qui entraîne une résistance accrue.
Mais les chercheurs d'IBM et de Samsung ont trouvé un moyen de construire des interconnexions en ruthénium rapprochées et à faible résistance sans avoir besoin de doublures ou de graines. Le processus, appelé litho-etch assisté par espaceur (SALELE), repose sur la double aide de la lithographie ultraviolette extrême. Au lieu de remplir les tranchées, il grave les interconnexions en ruthénium hors de la couche ou du métal, puis remplit les espaces avec du diélectrique.
Les chercheurs ont obtenu une résistance optimale en utilisant des interconnexions horizontales ultra fines et à haute densité, mais cela a ajouté de la capacité et a perdu l'avantage. Heureusement, les espaces entre les minces fils de ruthénium sont sujets à la pénétration de l'air car SALELE a construit des connexions verticales appelées vias (c'est-à-dire au-dessus des connexions horizontales plutôt qu'en dessous), ce qui est actuellement le meilleur isolant. Pour ces interconnexions ultra fines et à haute densité, l'ajout d'entrefers présente d'énormes avantages potentiels, réduisant la capacité de ligne de 30 %, a déclaré Penny. Il suffit de dire que la technologie SALELE fournit une feuille de route pour les processus à 1 nm et au-delà.
Carte PCB utilisant un routage traversant. Source de l'image : https://www.wevolver.com/article/what-is-a-via-a-comprehensive-guide
Rails enterrés, technologie d'alimentation électrique arrière et puces 3D
Intel prévoit de changer complètement aux puces L'emplacement d'interconnexion pour l'alimentation des transistors supérieurs pourrait être mis en œuvre dès 2024. La solution, appelée alimentation par l'arrière, consiste à déplacer le réseau d'interconnexion de puissance sous le silicium pour se connecter aux transistors par le bas. Ce schéma présente deux avantages principaux : Premièrement, il permet au courant de passer à travers des interconnexions plus larges avec une résistance plus faible, réduisant ainsi les pertes de puissance. La seconde est de laisser de la place aux interconnexions de transmission du signal au-dessus des transistors, ce qui permet de réduire la taille des cellules logiques.
Lors de la conférence IEDM2022, les chercheurs d'Imec ont proposé quelques moyens de rendre l'alimentation électrique arrière plus efficace, c'est-à-dire en rapprochant les extrémités du réseau d'alimentation (appelés rails d'alimentation enterrés) des transistors sans les endommager. ces transistors. Mais ils ont également découvert un problème légèrement troublant, dans lequel l’alimentation électrique arrière peut provoquer une accumulation de chaleur lorsqu’elle est utilisée dans des puces empilées en 3D.
Mais voici la bonne nouvelle : lorsque les chercheurs d'Imec ont examiné la distance horizontale nécessaire entre les rails d'alimentation enterrés et les transistors, la réponse était presque nulle. Même si des cycles de traitement supplémentaires sont nécessaires pour garantir que les transistors ne soient pas affectés, les chercheurs affirment qu'il est possible de construire la piste à côté de la région du canal du transistor, bien qu'à des dizaines de nanomètres en dessous. Cela signifie que les cellules logiques peuvent être plus petites.
La mauvaise nouvelle : dans le cadre de recherches distinctes, les ingénieurs d'Imec ont simulé plusieurs versions du même futur CPU. Certains disposent du réseau électrique utilisé aujourd'hui, appelé alimentation frontale, où toutes les interconnexions, y compris les données et l'alimentation, sont construites en couches au-dessus du silicium. D'autres disposent de réseaux alimentés par l'arrière, dont l'un est une pile 3D de deux processeurs avec une alimentation arrière en bas et une alimentation avant en haut.
La simulation du CPU 2D a vérifié la supériorité de l'alimentation arrière. Par exemple, par rapport à l'alimentation frontale, elle réduit de moitié la perte de transmission de puissance et la chute de tension transitoire n'est pas trop évidente. Plus important encore, la surface du processeur est réduite de 8 %. Cependant, la partie la plus chaude de la puce arrière est environ 45 % plus chaude que la partie la plus chaude de la puce avant. Cela peut être dû au fait que l'alimentation arrière nécessite que la puce soit suffisamment fine pour qu'elle doive être liée à un morceau de silicium séparé pour plus de stabilité. Cette liaison bloque le flux de chaleur.
Le vrai problème réside dans le circuit intégré 3D. Le processeur supérieur doit être alimenté par le processeur inférieur, mais le long transfert vers le haut crée certains problèmes. Bien que les caractéristiques de chute de tension du processeur inférieur soient toujours meilleures que celles des puces frontales, les performances du processeur supérieur sont bien pires à cet égard. Le réseau d’alimentation d’un circuit intégré 3D consomme deux fois plus d’énergie qu’un seul réseau de puce frontale. Pour aggraver les choses, la pile 3D ne dissipe pas très bien la chaleur, la partie la plus chaude de la puce inférieure étant presque 2,5 fois plus chaude qu'un seul processeur frontal. Le processeur supérieur est un peu plus froid, mais pas beaucoup.
Les chercheurs ont testé un scénario dans lequel un processeur doté d'un réseau alimenté par l'arrière (gris en bas) était connecté à un autre processeur doté d'un réseau alimenté par l'avant (gris en haut).
Rongmei Chen, chercheur à l'Imec, a déclaré que la simulation IC 3D est en effet quelque peu irréaliste. Il est peu probable qu’il soit empilé deux processeurs identiques, alors que l’empilement de mémoire avec un processeur est beaucoup plus courant. "Cette comparaison est injuste, mais elle reflète certains problèmes potentiels", a-t-il déclaré.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds





Selon les informations du 30 mai, même si le marché des puces mémoire est atone, il existe une énorme demande d'intelligence artificielle, qui profitera à des entreprises telles que Samsung et SK Hynix. Le 24 mai, Nvidia a publié son rapport financier et la valeur marchande de l’entreprise a bondi de 207 milliards de dollars en deux jours. Auparavant, l'industrie des semi-conducteurs était en récession, et ces prévisions du rapport financier ont donné aux gens beaucoup de confiance et d'espoir. Si le domaine de l’intelligence artificielle décolle, les géants de la technologie traditionnelle comme Microsoft et les start-up comme OpenAI solliciteront l’aide d’entreprises comme Samsung et SK Hynix. L'apprentissage automatique nécessite des puces mémoire pour traiter de grandes quantités de données, analyser la vidéo, l'audio et le texte et simuler la créativité humaine. En fait, les entreprises d’IA achètent peut-être plus de puces DRAM que jamais. Demande de puces mémoire

On ne sait pas exactement qui a fabriqué la puce de 1 nm. Du point de vue de la recherche et du développement, la puce de 1 nm a été développée conjointement par Taiwan, la Chine et les États-Unis. Du point de vue de la production de masse, cette technologie n’est pas encore pleinement réalisée. Le principal responsable de cette recherche est le Dr Zhu Jiadi du MIT, un scientifique chinois. Le Dr Zhu Jiadi a déclaré que la recherche en est encore à ses débuts et qu'elle est encore loin d'une production de masse.

Nouvelles de ce site le 28 novembre. Selon le site officiel de Changxin Memory, Changxin Memory a lancé la dernière puce mémoire LPDDR5DRAM. Il s'agit de la première marque nationale à lancer des produits LPDDR5 développés et produits de manière indépendante. Elle n'a réalisé aucune percée sur le marché national. marché et a également rendu la présentation des produits de Changxin Storage sur le marché des terminaux mobiles plus diversifiée. Ce site Web a remarqué que les produits de la série Changxin Memory LPDDR5 incluent des particules LPDDR5 de 12 Go, des puces 12GBLPDDR5 emballées par POP et des puces 6GBLPDDR5 emballées par DSC. La puce 12GBLPDDR5 a été vérifiée sur les modèles des principaux fabricants de téléphones mobiles nationaux tels que Xiaomi et Transsion. LPDDR5 est un produit lancé par Changxin Memory pour le marché des appareils mobiles de milieu à haut de gamme.

Ce site Web a rapporté le 13 novembre que, selon le Taiwan Economic Daily, la demande de packaging avancé CoWoS de TSMC est sur le point d'exploser. Outre NVIDIA, qui a confirmé l'expansion de ses commandes en octobre, des clients importants tels qu'Apple, AMD, Broadcom et Marvell. ont également récemment poursuivi leurs commandes de manière significative. Selon les rapports, TSMC travaille dur pour accélérer l'expansion de la capacité de production d'emballages avancés de CoWoS afin de répondre aux besoins des cinq principaux clients mentionnés ci-dessus. La capacité de production mensuelle de l'année prochaine devrait augmenter d'environ 20 % par rapport à l'objectif initial pour atteindre 35 000 pièces. Les analystes ont déclaré que les cinq principaux clients de TSMC ont passé des commandes importantes, ce qui montre que les applications d'intelligence artificielle sont devenues très populaires et que les principaux fabricants s'y intéressent. puces d'intelligence artificielle. La demande a considérablement augmenté. Les enquêtes sur ce site ont révélé que la technologie d'emballage avancée CoWoS actuelle est principalement divisée en trois types - CoWos-S.

Il était une fois l’intelligence artificielle qui était entrée dans un goulot d’étranglement qui durait depuis des décennies en raison d’une puissance de calcul insuffisante, et le GPU a déclenché l’apprentissage profond. À l'ère ChatGPT, l'IA est à nouveau confrontée au problème de la puissance de calcul insuffisante en raison des grands modèles. Existe-t-il un moyen pour NVIDIA de le faire cette fois-ci ? Le 22 mars, la conférence GTC a eu lieu officiellement lors de la Keynote qui vient de se tenir, le PDG de NVIDIA, Jen-Hsun Huang, a présenté les puces préparées pour ChatGPT. "Accélérer l'informatique n'est pas facile. En 2012, le modèle de vision par ordinateur AlexNet utilisait une GeForce GTX580 et pouvait traiter 262 Peta FLOPS par seconde. Ce modèle a déclenché une explosion de la technologie de l'IA", a déclaré Huang. "Dix ans plus tard, Tr

Selon les informations de ce site Web du 24 août, la plupart des fabricants de technologies ont présenté des produits nouveaux ou à venir à la Gamescom. Par exemple, ASRock a présenté sa version mise à jour "demi-génération" de la carte mère Z790. Ces nouvelles cartes mères utilisent la puce RTL8125-BG. est utilisé à la place du RTL8126-CG utilisé dans le prototype présenté au salon Computex en juin. Selon le média néerlandais Tweakers, plusieurs fabricants de cartes mères participant à la Gamescom ont révélé que bien que la puce de carte réseau filaire 5GbE de Realtek, RTL8126-CG, soit moins chère, elle ne sera pas installée sur les cartes mères lancées cet automne en raison de problèmes de stabilité. problème, mais ils ne pourront pas le résoudre avant la sortie des nouvelles cartes mères cet automne

Après que ChatGPT soit devenu populaire, la guerre de l'IA entre les deux géants Google et Microsoft a brûlé de nouvelles puces de serveur de terrain. Aujourd’hui, l’IA et le cloud computing sont devenus des champs de bataille, et les puces sont également devenues la clé pour réduire les coûts et gagner des clients professionnels. À l’origine, les grandes entreprises telles qu’Amazon, Microsoft et Google étaient toutes réputées pour leurs logiciels, mais elles dépensent désormais des milliards de dollars dans le développement et la production de puces. La puce d'IA ChatGPT développée par les grands géants de la technologie est devenue populaire et les principaux fabricants ont lancé un concours de puces. Selon les médias étrangers The Information et d'autres sources, ces trois grands fabricants ont maintenant lancé ou prévoient de lancer 8 serveurs et. Puces IA pour le développement de produits internes, la location de serveurs cloud ou les deux. "si tu

Les dernières nouvelles montrent que, selon les rapports du Science and Technology Innovation Board Daily et de Blue Whale Finance, des sources de la chaîne industrielle ont révélé que NVIDIA a développé la dernière version de puces IA adaptées au marché chinois, notamment HGXH20, L20PCle et L2PCle. Pour l'instant, NVIDIA n'a pas commenté. Des personnes proches du dossier ont déclaré que ces trois puces sont toutes basées sur des améliorations de NVIDIA H100. NVIDIA devrait les annoncer dès le 16 novembre et les fabricants nationaux recevront des échantillons dès que celles-ci seront disponibles. jours. Après avoir vérifié les informations publiques, nous avons appris que NVIDIAH100TensorCoreGPU adopte la nouvelle architecture Hopper, basée sur le processus TSMC N4 et intégrant 80 milliards de transistors. Par rapport au produit de la génération précédente, il peut fournir des services multi-experts (MoE)
