


Zuerst in China: Changxin Memory bringt den LPDDR5-DRAM-Speicherchip auf den Markt
Neuigkeiten von dieser Website vom 28. November: Laut der offiziellen Website von Changxin Memory hat Changxin Memory den neuesten LPDDR5-DRAM-Speicherchip auf den Markt gebracht. Es ist die erste inländische Marke, die unabhängig entwickelte und produzierte LPDDR5-Produkte auf den Markt bringt und im Inland keinen Durchbruch erzielt Gleichzeitig wird dadurch auch das Produktlayout von Changxin Storage auf dem Markt für mobile Endgeräte diversifiziert.
Auf dieser Website wurde festgestellt, dass die Produkte der Changxin Memory LPDDR5-Serie 12-GB-LPDDR5-Partikel, 12-GB-LPDDR5-Chips im POP-Gehäuse und 6-GB-LPDDR5-Chips im DSC-Gehäuse enthalten. Der 12-GB-LPDDR5-Chip wurde auf Modellen gängiger inländischer Mobiltelefonhersteller wie Xiaomi und Transsion verifiziert. LPDDR5 ist ein von Changxin Memory auf den Markt gebrachtes Produkt für den Markt für mobile Geräte der mittleren bis oberen Preisklasse. Seine Vermarktung wird das Produktlayout der Changxin Memory DRAM-Chips weiter verbessern.

Laut der Produkteinführung auf der offiziellen Website von Changxin Storage ist LPDDR5 die fünfte Generation von dynamischen Direktzugriffsspeichern mit doppelter Rate und extrem geringem Stromverbrauch. Im Vergleich zur Vorgängergeneration LPDDR4X sind die Kapazität und Geschwindigkeit eines einzelnen Partikels von Changxin Storage LPDDR5 um 50 % erhöht und erreichen 12 GB bzw. 6400 Mbit/s, während der Stromverbrauch um 30 % reduziert wird. LPDDR5 fügt leistungsstarke RAS-Funktionen hinzu und nutzt integrierten Fehlerkorrekturcode (On-Die ECC) und andere Technologien, um eine Echtzeit-Fehlerkorrektur zu erreichen, Systemausfälle zu reduzieren, die Datensicherheit zu gewährleisten und die Stabilität zu verbessern. Der 12-GB-LPDDR5-Chip von Changxin ist in 8 12-GB-Partikel verpackt. Dies ist das erste Chipprodukt von Changxin Memory, das Package-on-Package verwendet.
Zuvor bestanden die Produkte von Changxin Storage hauptsächlich aus DDR4-, LPDD4X- und DDR4-Modulen. Das Produktportfolio deckt Speicheranforderungen unterschiedlicher Leistung, Kapazität und Nutzung ab und bietet durch gemeinsame Forschung und Entwicklung marktgerechte Lösungen Bedürfnisse verschiedener Segmente. Seine Produkte werden derzeit häufig in Smartphones, Smart Tablets, Desktop-Computern, Laptops, Servern, Set-Top-Boxen und anderen Endgeräten vieler führender inländischer Hersteller eingesetzt. Werbeaussage: Die im Artikel enthaltenen externen Sprunglinks (einschließlich, aber nicht beschränkt auf Hyperlinks, QR-Codes, Passwörter usw.) dienen der Übermittlung weiterer Informationen und der Zeitersparnis bei der Auswahl. Die Ergebnisse dienen nur als Referenz Diese Website enthält diese Erklärung.Das obige ist der detaillierte Inhalt vonZuerst in China: Changxin Memory bringt den LPDDR5-DRAM-Speicherchip auf den Markt. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Nachrichten vom 30. Mai zufolge ist der Markt für Speicherchips zwar schleppend, es besteht jedoch eine enorme Nachfrage nach künstlicher Intelligenz, von der Unternehmen wie Samsung und SK Hynix profitieren werden. Am 24. Mai veröffentlichte Nvidia seinen Finanzbericht und der Marktwert des Unternehmens stieg innerhalb von zwei Tagen um 207 Milliarden US-Dollar. Zuvor befand sich die Halbleiterindustrie in einem Abschwung, und diese Finanzberichtsprognose gab den Menschen große Zuversicht und Hoffnung. Wenn der Bereich der künstlichen Intelligenz auf dem Vormarsch ist, werden traditionelle Technologiegiganten wie Microsoft und Start-ups wie OpenAI Hilfe von Unternehmen wie Samsung und SK Hynix suchen. Maschinelles Lernen erfordert Speicherchips, um große Datenmengen zu verarbeiten, Video, Audio und Text zu analysieren und menschliche Kreativität zu simulieren. Tatsächlich kaufen KI-Unternehmen möglicherweise mehr DRAM-Chips als je zuvor. Nachfrage nach Speicherchips

Es ist nicht sicher, wer den 1-nm-Chip hergestellt hat. Aus Forschungs- und Entwicklungsperspektive wurde der 1-nm-Chip gemeinsam von Taiwan, China und den Vereinigten Staaten entwickelt. Aus Sicht der Massenproduktion ist diese Technologie noch nicht vollständig ausgereift. Der Hauptverantwortliche für diese Forschung ist Dr. Zhu Jiadi vom MIT, ein chinesischer Wissenschaftler. Dr. Zhu Jiadi sagte, dass sich die Forschung noch in einem frühen Stadium befinde und noch weit von der Massenproduktion entfernt sei.

Neuigkeiten von dieser Website am 28. November. Laut der offiziellen Website von Changxin Memory hat Changxin Memory den neuesten LPDDR5DRAM-Speicherchip auf den Markt gebracht. Es ist die erste inländische Marke, die unabhängig entwickelte und produzierte LPDDR5-Produkte auf den Markt bringt Markt und hat auch dafür gesorgt, dass das Produktlayout von Changxin Storage auf dem Markt für mobile Endgeräte vielfältiger ist. Auf dieser Website wurde festgestellt, dass die Produkte der LPDDR5-Serie von Changxin Memory 12 GB LPDDR5-Partikel, 12 GBLPDDR5-Chips im POP-Gehäuse und 6 GBLPDDR5-Chips im DSC-Gehäuse umfassen. Der 12GBLPDDR5-Chip wurde auf Modellen gängiger inländischer Mobiltelefonhersteller wie Xiaomi und Transsion verifiziert. LPDDR5 ist ein von Changxin Memory eingeführtes Produkt für den Markt für mobile Geräte der mittleren bis oberen Preisklasse.

Diese Website berichtete am 13. November, dass laut Taiwan Economic Daily die Nachfrage nach fortschrittlichen CoWoS-Paketen von TSMC explodieren wird. Neben NVIDIA, das seine Auftragsausweitung im Oktober bestätigt hat, sind auch Schwergewichtskunden wie Apple, AMD, Broadcom und Marvell dabei haben in letzter Zeit auch Aufträge deutlich verfolgt. Berichten zufolge arbeitet TSMC intensiv daran, den Ausbau der Produktionskapazität für fortschrittliche Verpackungen von CoWoS zu beschleunigen, um den Anforderungen der oben genannten fünf Großkunden gerecht zu werden. Die monatliche Produktionskapazität wird im nächsten Jahr voraussichtlich um etwa 20 % vom ursprünglichen Ziel auf 35.000 Stück steigen. Analysten sagten, dass die fünf Hauptkunden von TSMC große Bestellungen aufgegeben haben, was zeigt, dass Anwendungen der künstlichen Intelligenz weit verbreitet sind und große Hersteller daran interessiert sind Die Nachfrage nach Chips für künstliche Intelligenz ist erheblich gestiegen. Die aktuelle CoWoS-Verpackungstechnologie ist hauptsächlich in drei Typen unterteilt: CoWos-S

Einst geriet die künstliche Intelligenz aufgrund unzureichender Rechenleistung in einen jahrzehntelangen Engpass, und die GPU löste Deep Learning aus. In der ChatGPT-Ära steht die KI erneut vor dem Problem unzureichender Rechenleistung aufgrund großer Modelle. Hat NVIDIA dieses Mal eine Lösung? Am 22. März fand die GTC-Konferenz offiziell statt. Bei der gerade abgehaltenen Keynote stellte NVIDIA-CEO Jen-Hsun Huang die für ChatGPT vorbereiteten Chips aus. „Es ist nicht einfach, die Datenverarbeitung zu beschleunigen. Im Jahr 2012 nutzte das Computer-Vision-Modell AlexNet die GeForceGTX580 und konnte 262 PetaFLOPS pro Sekunde verarbeiten. Dieses Modell löste eine Explosion der KI-Technologie aus“, sagte Huang. „Zehn Jahre später, Tr

Nachdem ChatGPT populär wurde, brannte der KI-Krieg zwischen den beiden Giganten Google und Microsoft auf neue Server-Chips. Heute sind KI und Cloud Computing zu Schlachtfeldern geworden, und Chips sind auch zum Schlüssel zur Kostensenkung und Gewinnung von Geschäftskunden geworden. Ursprünglich waren große Unternehmen wie Amazon, Microsoft und Google alle für ihre Software bekannt, doch mittlerweile geben sie Milliarden von Dollar für die Entwicklung und Produktion von Chips aus. Der von großen Technologiegiganten entwickelte KI-Chip ChatGPT ist populär geworden, und große Hersteller haben einen Chip-Wettbewerb gestartet. Berichten ausländischer Medien zufolge haben diese drei großen Hersteller inzwischen 8 Server- und KI-Chips für die interne Produktentwicklung, Cloud-Server-Vermietung oder beides. "wenn du

Laut Nachrichten dieser Website vom 24. August stellten die meisten Technologiehersteller auf der Gamescom einige neue oder kommende neue Produkte vor. Beispielsweise zeigte ASRock seine aktualisierte „Halbgeneration“-Version des Z790-Motherboards. Diese neuen Motherboards verwenden den RTL8125-BG-Chip wird anstelle des RTL8126-CG verwendet, der im Prototyp auf der Computex-Messe im Juni verwendet wurde. Laut den niederländischen Medien Tweakers gaben mehrere an der Gamescom teilnehmende Motherboard-Hersteller bekannt, dass der kabelgebundene 5-GbE-Netzwerkkartenchip RTL8126-CG von Realtek zwar günstiger ist, aber aufgrund von Stabilitätsproblemen nicht auf Motherboards installiert wird, die Realtek angeblich behebt Das ist ein Problem, aber sie werden es nicht beheben können, bevor die neuen Motherboards im Herbst auf den Markt kommen

Die neuesten Nachrichten zeigen, dass laut Berichten des Science and Technology Innovation Board Daily und von Blue Whale Finance Quellen aus der Industriekette enthüllten, dass NVIDIA die neueste Version von KI-Chips entwickelt hat, die für den chinesischen Markt geeignet sind, darunter HGXH20, L20PCle und L2PCle. Bisher hat sich NVIDIA nicht dazu geäußert, dass diese drei Chips alle auf Verbesserungen von NVIDIA H100 basieren und dass inländische Hersteller diese voraussichtlich schon am 16. November bekannt geben werden Tage. Nach Prüfung öffentlicher Informationen erfuhren wir, dass NVIDIAH100TensorCoreGPU die neue Hopper-Architektur übernimmt, die auf dem TSMC N4-Prozess basiert und 80 Milliarden Transistoren integriert. Im Vergleich zum Produkt der vorherigen Generation kann es Multi-Experten (MoE) bereitstellen.
