


Da wir uns immer weiter den Grenzen des Mooreschen Gesetzes nähern, stecken auch Chip-Verbindungen in großen Schwierigkeiten.
Verbindungen – manchmal die nanometerbreiten Metallleitungen, die Transistoren mit Schaltkreisen auf ICs verbinden – müssen „überholt“ werden. Da Chipfabriken allmählich an die Grenzen des Mooreschen Gesetzes stoßen, wird die Vernetzung zu einem großen Engpass in der Branche.
Auf dem 68. IEEE International Electronic Devices Meeting (IEDM) Anfang Dezember 2022 sagte Chris Penny von IBM zu den Ingenieuren: „Seit etwa 20 bis 25 Jahren ist Kupfer das Metall der Wahl für Verbindungen Kupfer verlangsamt sich jetzt, was Möglichkeiten für alternative Leiter bietet.“ Wechsel zu einem anderen Metall. Der Prozess ihrer Entstehung auf dem Chip muss umgekehrt werden. Diese neuen Verbindungen erfordern andere Formen und höhere Dichten sowie bessere Isolationseigenschaften, damit die signalverzehrende Kapazität nicht alle Vorteile zunichte macht.
Auch die Lage der Verbindungen wird sich ändern, und dieser Wandel wird bald kommen. Untersuchungen zeigen jedoch zunehmend, dass die Vorteile dieser Verschiebung ihren Preis haben.
Ruthenium, Top Vias und Air Gap
Derzeit ist Ruthenium der beliebteste Kupferersatz. Untersuchungen zeigen jedoch, dass ältere Methoden zum Aufbau von Kupferverbindungen mit Ruthenium nicht gut funktionieren. Kupferverbindungen werden im sogenannten Damascene-Verfahren hergestellt. Die ersten Chiphersteller nutzten die Fotolithographie, um die Formen von Verbindungen in die dielektrische Isolationsschicht über den Transistoren zu schneiden. Anschließend lagerten sie Liner- und Barrierematerialien ab, um zu verhindern, dass Kupferatome in andere Teile des Chips wandern und den gesamten Prozess durcheinander bringen. Der Graben wird dann mit Kupfer aufgefüllt, wobei es häufig zu einer Überfüllung kommt, so dass der Überschuss wegpoliert werden muss.Penny sagte den IEDM-Ingenieuren, dass all die zusätzlichen Dinge, einschließlich Pads und Barrieren, 40–50 % des Verbindungsvolumens ausmachen. Dadurch verengen sich die leitenden Abschnitte der Leiterbahnen, insbesondere in den ultrafeinen vertikalen Verbindungen zwischen Leiterbahnschichten, was zu einem erhöhten Widerstand führt.
Aber Forscher von IBM und Samsung haben einen Weg gefunden, eng beieinander liegende Rutheniumverbindungen mit geringem Widerstand zu bauen, ohne dass Liner oder Seeds erforderlich sind. Der als Spacer Assisted Litho-Etch Litho-Etch (SALELE) bezeichnete Prozess beruht auf der doppelten Hilfe der extrem ultravioletten Lithographie. Anstatt Gräben zu füllen, werden Rutheniumverbindungen aus der Schicht oder dem Metall geätzt und die Lücken dann mit Dielektrikum gefüllt.
Die Forscher erreichten den optimalen Widerstand mithilfe ultradünner, hochdichter horizontaler Verbindungen, allerdings wurde dadurch die Kapazität erhöht und der Vorteil verloren. Glücklicherweise sind die Zwischenräume zwischen den dünnen Rutheniumdrähten anfällig für das Eindringen von Luft, da SALELE vertikale Verbindungen, sogenannte Vias, konstruiert hat (d. h. über den horizontalen Verbindungen und nicht darunter), was derzeit der beste Isolator ist. Für diese ultradünnen Verbindungen mit hoher Dichte bietet das Hinzufügen von Luftspalten enorme potenzielle Vorteile, sagte Penny und reduzierte die Leitungskapazität um 30 Prozent. Es genügt zu sagen, dass die SALELE-Technologie eine Roadmap für Prozesse im 1-nm-Bereich und darüber hinaus bietet.
Leiterplatte mit Durchgangslochführung. Bildquelle: https://www.wevolver.com/article/what-is-a-via-a-comprehensive-guide
Vergrabene Schienen, Backside-Stromversorgungstechnologie und 3D-Chips
Intel plant einen kompletten Wandel Zu Chips Der Verbindungsstandort für die obere Transistorstromversorgung könnte bereits im Jahr 2024 implementiert werden. Die Lösung, Back-Side-Power-Delivery genannt, besteht darin, das Stromverbindungsnetzwerk unter das Silizium zu verlegen, um von unten eine Verbindung zu den Transistoren herzustellen. Dieses Schema hat zwei Hauptvorteile: Erstens ermöglicht es den Stromfluss durch breitere Verbindungen mit geringerem Widerstand, wodurch der Leistungsverlust reduziert wird. Die zweite besteht darin, über den Transistoren Platz für Signalübertragungsverbindungen zu schaffen, was bedeutet, dass die Logikzellen kleiner sein können.Auf der IEDM2022-Konferenz schlugen Imec-Forscher einige Möglichkeiten vor, wie die Stromversorgung auf der Rückseite effizienter funktionieren könnte, d diese Transistoren. Sie entdeckten jedoch auch ein etwas besorgniserregendes Problem, bei dem das Netzteil auf der Rückseite beim Einsatz in 3D-Stapelchips zu einem Wärmestau führen kann.
Aber hier ist die gute Nachricht: Als die Forscher von Imec untersuchten, wie viel horizontaler Abstand zwischen vergrabenen Stromschienen und Transistoren benötigt wird, war die Antwort fast Null. Obwohl zusätzliche Verarbeitungszyklen erforderlich sind, um sicherzustellen, dass die Transistoren nicht beeinträchtigt werden, ist es den Forschern zufolge möglich, die Leiterbahn neben dem Kanalbereich des Transistors aufzubauen – wenn auch immer noch einige Dutzend Nanometer darunter. Dies bedeutet, dass die Logikzellen kleiner sein können.
Die schlechte Nachricht: In separaten Untersuchungen haben Imec-Ingenieure mehrere Versionen derselben zukünftigen CPU simuliert. Einige verfügen über das heute verwendete Stromnetz, das sogenannte Front-End-Power, bei dem alle Verbindungen, einschließlich Daten und Strom, in Schichten auf dem Silizium aufgebaut sind. Andere verfügen über rückseitig mit Strom versorgte Netzwerke, eines davon ist ein 3D-Stapel aus zwei CPUs mit einem hinteren Netzteil unten und einem vorderen Netzteil oben.
Die Simulation der 2D-CPU bestätigte die Überlegenheit der rückseitigen Stromversorgung. Im Vergleich zur frontseitigen Stromversorgung wird beispielsweise der Verlust der Stromübertragung um die Hälfte reduziert, und der vorübergehende Spannungsabfall ist nicht allzu offensichtlich. Noch wichtiger ist, dass die CPU-Fläche um 8 % reduziert wird. Allerdings ist der heißeste Teil des hinteren Chips etwa 45 % heißer als der heißeste Teil des vorderen Chips. Dies kann daran liegen, dass der Chip für die Stromversorgung auf der Rückseite so dünn sein muss, dass er aus Stabilitätsgründen mit einem separaten Stück Silizium verbunden werden muss. Diese Verbindung blockiert den Wärmefluss.
Das eigentliche Problem liegt im 3D-IC. Die obere CPU muss Strom von der unteren CPU beziehen, aber die lange Übertragung nach oben führt zu einigen Problemen. Während die Spannungsabfalleigenschaften der unteren CPU immer noch besser sind als die der Front-End-Chips, ist die Leistung der oberen CPU in dieser Hinsicht deutlich schlechter. Das Stromversorgungsnetzwerk eines 3D-IC verbraucht doppelt so viel Strom wie ein einzelnes Front-End-Chipnetzwerk. Erschwerend kommt hinzu, dass der 3D-Stack die Wärme nicht sehr gut ableitet, da der heißeste Teil des unteren Chips fast 2,5-mal heißer ist als eine einzelne nach vorne gerichtete CPU. Die Top-CPU ist etwas kühler, aber nicht viel.
Die Forscher testeten ein Szenario, bei dem eine CPU (unten grau) mit einem Stromversorgungsnetzwerk auf der Rückseite mit einer anderen mit einem Stromversorgungsnetzwerk auf der Vorderseite gepaart wurde. Seite Stromversorgungsnetz Die CPU (oben grau) ist angeschlossen. Rongmei Chen, ein Forscher bei Imec, sagte, dass die 3D-IC-Simulation tatsächlich etwas unrealistisch sei. Das Zusammenstapeln zweier identischer CPUs ist unwahrscheinlich, während das Stapeln von Speicher mit einer CPU viel häufiger vorkommt. „Dieser Vergleich ist unfair, spiegelt aber einige potenzielle Probleme wider“, sagte er.
Das obige ist der detaillierte Inhalt vonDa wir uns immer weiter den Grenzen des Mooreschen Gesetzes nähern, stecken auch Chip-Verbindungen in großen Schwierigkeiten.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen





Nachrichten vom 30. Mai zufolge ist der Markt für Speicherchips zwar schleppend, es besteht jedoch eine enorme Nachfrage nach künstlicher Intelligenz, von der Unternehmen wie Samsung und SK Hynix profitieren werden. Am 24. Mai veröffentlichte Nvidia seinen Finanzbericht und der Marktwert des Unternehmens stieg innerhalb von zwei Tagen um 207 Milliarden US-Dollar. Zuvor befand sich die Halbleiterindustrie in einem Abschwung, und diese Finanzberichtsprognose gab den Menschen große Zuversicht und Hoffnung. Wenn der Bereich der künstlichen Intelligenz auf dem Vormarsch ist, werden traditionelle Technologiegiganten wie Microsoft und Start-ups wie OpenAI Hilfe von Unternehmen wie Samsung und SK Hynix suchen. Maschinelles Lernen erfordert Speicherchips, um große Datenmengen zu verarbeiten, Video, Audio und Text zu analysieren und menschliche Kreativität zu simulieren. Tatsächlich kaufen KI-Unternehmen möglicherweise mehr DRAM-Chips als je zuvor. Nachfrage nach Speicherchips

Es ist nicht sicher, wer den 1-nm-Chip hergestellt hat. Aus Forschungs- und Entwicklungsperspektive wurde der 1-nm-Chip gemeinsam von Taiwan, China und den Vereinigten Staaten entwickelt. Aus Sicht der Massenproduktion ist diese Technologie noch nicht vollständig ausgereift. Der Hauptverantwortliche für diese Forschung ist Dr. Zhu Jiadi vom MIT, ein chinesischer Wissenschaftler. Dr. Zhu Jiadi sagte, dass sich die Forschung noch in einem frühen Stadium befinde und noch weit von der Massenproduktion entfernt sei.

Neuigkeiten von dieser Website am 28. November. Laut der offiziellen Website von Changxin Memory hat Changxin Memory den neuesten LPDDR5DRAM-Speicherchip auf den Markt gebracht. Es ist die erste inländische Marke, die unabhängig entwickelte und produzierte LPDDR5-Produkte auf den Markt bringt Markt und hat auch dafür gesorgt, dass das Produktlayout von Changxin Storage auf dem Markt für mobile Endgeräte vielfältiger ist. Auf dieser Website wurde festgestellt, dass die Produkte der LPDDR5-Serie von Changxin Memory 12 GB LPDDR5-Partikel, 12 GBLPDDR5-Chips im POP-Gehäuse und 6 GBLPDDR5-Chips im DSC-Gehäuse umfassen. Der 12GBLPDDR5-Chip wurde auf Modellen gängiger inländischer Mobiltelefonhersteller wie Xiaomi und Transsion verifiziert. LPDDR5 ist ein von Changxin Memory eingeführtes Produkt für den Markt für mobile Geräte der mittleren bis oberen Preisklasse.

Diese Website berichtete am 13. November, dass laut Taiwan Economic Daily die Nachfrage nach fortschrittlichen CoWoS-Paketen von TSMC explodieren wird. Neben NVIDIA, das seine Auftragsausweitung im Oktober bestätigt hat, sind auch Schwergewichtskunden wie Apple, AMD, Broadcom und Marvell dabei haben in letzter Zeit auch Aufträge deutlich verfolgt. Berichten zufolge arbeitet TSMC intensiv daran, den Ausbau der Produktionskapazität für fortschrittliche Verpackungen von CoWoS zu beschleunigen, um den Anforderungen der oben genannten fünf Großkunden gerecht zu werden. Die monatliche Produktionskapazität wird im nächsten Jahr voraussichtlich um etwa 20 % vom ursprünglichen Ziel auf 35.000 Stück steigen. Analysten sagten, dass die fünf Hauptkunden von TSMC große Bestellungen aufgegeben haben, was zeigt, dass Anwendungen der künstlichen Intelligenz weit verbreitet sind und große Hersteller daran interessiert sind Die Nachfrage nach Chips für künstliche Intelligenz ist erheblich gestiegen. Die aktuelle CoWoS-Verpackungstechnologie ist hauptsächlich in drei Typen unterteilt: CoWos-S

Einst geriet die künstliche Intelligenz aufgrund unzureichender Rechenleistung in einen jahrzehntelangen Engpass, und die GPU löste Deep Learning aus. In der ChatGPT-Ära steht die KI erneut vor dem Problem unzureichender Rechenleistung aufgrund großer Modelle. Hat NVIDIA dieses Mal eine Lösung? Am 22. März fand die GTC-Konferenz offiziell statt. Bei der gerade abgehaltenen Keynote stellte NVIDIA-CEO Jen-Hsun Huang die für ChatGPT vorbereiteten Chips aus. „Es ist nicht einfach, die Datenverarbeitung zu beschleunigen. Im Jahr 2012 nutzte das Computer-Vision-Modell AlexNet die GeForceGTX580 und konnte 262 PetaFLOPS pro Sekunde verarbeiten. Dieses Modell löste eine Explosion der KI-Technologie aus“, sagte Huang. „Zehn Jahre später, Tr

Laut Nachrichten dieser Website vom 24. August stellten die meisten Technologiehersteller auf der Gamescom einige neue oder kommende neue Produkte vor. Beispielsweise zeigte ASRock seine aktualisierte „Halbgeneration“-Version des Z790-Motherboards. Diese neuen Motherboards verwenden den RTL8125-BG-Chip wird anstelle des RTL8126-CG verwendet, der im Prototyp auf der Computex-Messe im Juni verwendet wurde. Laut den niederländischen Medien Tweakers gaben mehrere an der Gamescom teilnehmende Motherboard-Hersteller bekannt, dass der kabelgebundene 5-GbE-Netzwerkkartenchip RTL8126-CG von Realtek zwar günstiger ist, aber aufgrund von Stabilitätsproblemen nicht auf Motherboards installiert wird, die Realtek angeblich behebt Das ist ein Problem, aber sie werden es nicht beheben können, bevor die neuen Motherboards im Herbst auf den Markt kommen

Nachdem ChatGPT populär wurde, brannte der KI-Krieg zwischen den beiden Giganten Google und Microsoft auf neue Server-Chips. Heute sind KI und Cloud Computing zu Schlachtfeldern geworden, und Chips sind auch zum Schlüssel zur Kostensenkung und Gewinnung von Geschäftskunden geworden. Ursprünglich waren große Unternehmen wie Amazon, Microsoft und Google alle für ihre Software bekannt, doch mittlerweile geben sie Milliarden von Dollar für die Entwicklung und Produktion von Chips aus. Der von großen Technologiegiganten entwickelte KI-Chip ChatGPT ist populär geworden, und große Hersteller haben einen Chip-Wettbewerb gestartet. Berichten ausländischer Medien zufolge haben diese drei großen Hersteller inzwischen 8 Server- und KI-Chips für die interne Produktentwicklung, Cloud-Server-Vermietung oder beides. "wenn du

Die neuesten Nachrichten zeigen, dass laut Berichten des Science and Technology Innovation Board Daily und von Blue Whale Finance Quellen aus der Industriekette enthüllten, dass NVIDIA die neueste Version von KI-Chips entwickelt hat, die für den chinesischen Markt geeignet sind, darunter HGXH20, L20PCle und L2PCle. Bisher hat sich NVIDIA nicht dazu geäußert, dass diese drei Chips alle auf Verbesserungen von NVIDIA H100 basieren und dass inländische Hersteller diese voraussichtlich schon am 16. November bekannt geben werden Tage. Nach Prüfung öffentlicher Informationen erfuhren wir, dass NVIDIAH100TensorCoreGPU die neue Hopper-Architektur übernimmt, die auf dem TSMC N4-Prozess basiert und 80 Milliarden Transistoren integriert. Im Vergleich zum Produkt der vorherigen Generation kann es Multi-Experten (MoE) bereitstellen.
