


Mit der Einführung großer KI-Modelle sind die Serverpreise um das Zwanzigfache gestiegen, und der Investitionswert des Sektors wird hervorgehoben?
Im Zeitalter der Intelligenz ist die sinnvolle Nutzung von KI zur zentralen Wettbewerbsfähigkeit von Ländern, Branchen und Unternehmen geworden. Insbesondere nach der Geburt großer Modelle, die durch ChatGPT repräsentiert werden, wurde die KI-Branche aufs Gaspedal gedrückt Der Bedarf an Rechenleistung ist explodiert.
Als eine der Rechenleistungsinfrastrukturen wird erwartet, dass die Nachfrage nach KI-Servern vom kontinuierlichen Anstieg der Rechenleistungsnachfrage profitieren und schnell wachsen wird, und der Marktwert wird hervorgehoben.
Seit diesem Jahr steigen die Preise für KI-Server und sind in den Fokus des Marktes gerückt. Ein Unternehmen gab bekannt, dass der Preis für einen Server für künstliche Intelligenz, den es im Juni letzten Jahres gekauft hatte, in weniger als einem Jahr um fast das Zwanzigfache gestiegen ist.
01 Der KI-Großmodellboom steht vor der Tür
Der Hauptgrund für den erheblichen Anstieg der Preise für KI-Server ist die explosionsartige Marktnachfrage.
Mit der rasanten Entwicklung der Technologie der künstlichen Intelligenz sind in den letzten Jahren große Modelle wie AIGC zu einem unvermeidlichen Trend geworden. Mit der Einführung der phänomenalen KI-Anwendung ChatGPT im November 2022 wurde der weltweite Investitionsboom schnell ausgelöst.
Derzeit hat das Wettrüsten der großen Technologiegiganten bei großen KI-Modellen begonnen. Große in- und ausländische Giganten wie Microsoft, Google, Amazon usw. haben fast alle in die Entwicklung groß angelegter KI-Anwendungen investiert.
Im Inland haben Unternehmen wie Alibaba, 360 und SenseTime seit der ersten Ankündigung von „Wen Xin Yi Yan“ am 16. März sukzessive den Fortschritt großer Modellprojekte demonstriert.
Der Investitionsboom in große KI-Modelle nimmt weiter zu, und die Realisierung großer KI-Modelle erfordert riesige Datenmengen und leistungsstarke Rechenleistung zur Unterstützung des Trainings- und Inferenzprozesses, und auch die Nachfrage nach KI-Rechenleistung wird exponentiell zunehmen.
Huawei prognostiziert, dass der Bedarf an Rechenleistung aufgrund des Ausbruchs der KI bis 2030 im Vergleich zu 2020 um das 500-fache steigen wird. Die Hauptinvestitionsmöglichkeiten werden sich auf Server, optische Module, Computerchips, Rechenzentren und andere Hardwarebereiche konzentrieren und enorme Chancen mit sich bringen.
Unter diesen dürfte der KI-Server als wichtiges, auf Rechenleistung basierendes Gerät schnelle Entwicklungsmöglichkeiten im KI-Zeitalter eröffnen. Laut IDC-Daten wird die Marktgröße von Chinas KI-Servern im Jahr 2021 5,7 Milliarden US-Dollar betragen, was einem Anstieg von 61,6 % gegenüber dem Vorjahr entspricht. Die Marktgröße wird bis 2025 voraussichtlich auf 10,9 Milliarden US-Dollar wachsen 17,5 %.
02 Kernkomponente GPU ist „schwer zu finden“
Auf dem äußerst anspruchsvollen Markt für KI-Server steigen die Preise aufgrund eines gravierenden Versorgungsengpasses bei den Kernkomponenten GPU (Bildprozessor, Beschleunigungschip) weiter an. Aufgrund der steigenden Kosten für Teile und Komponenten ist der Preis für KI-Server entsprechend gestiegen.
Es wird berichtet, dass die Rechenleistung der aktuellen Allzweck-Server-CPU (Zentraleinheit) die Anforderungen von KI-Anwendungen nicht erfüllen kann, während die GPU (Bildprozessor, Beschleunigungschip) über Echtzeit-Hochgeschwindigkeits-Parallelrechnen verfügt und Gleitkomma-Rechnerfunktionen und ist besser darin, intensive Datenoperationen wie KI-Training/-Inferenz, maschinelles Lernen und andere Anwendungsszenarien zu sortieren.
Gleichzeitig sind herkömmliche Server in der Regel mit bis zu 4 CPUs + entsprechendem Speicher und Festplatten ausgestattet. KI-Server müssen oft mit 2 CPUs + 8 GPUs ausgestattet sein, und einige High-End-Server benötigen sogar 16 GPUs. Mit anderen Worten: Bei KI-Servern wird die Nachfrage nach GPUs exponentiell steigen.
Aus Sicht der Marktgröße: Angesichts der Tatsache, dass der Stückpreis von KI-Servern mehr als 20-mal höher ist als der von gewöhnlichen Servern, spekuliert der Markt, dass das zukünftige Marktpotenzial von GPUs mit zunehmender Leckagerate von KI-Servern steigen wird riesig sein. Schätzungen von VerifiedMarketResearch zufolge wird der globale GPU-Markt im Jahr 2027 voraussichtlich 185,3 Milliarden US-Dollar erreichen, und der chinesische Markt wird im Jahr 2027 34,6 Milliarden US-Dollar erreichen.
Auf der Angebotsseite Das schöne Land bremst weiterhin die Entwicklung der chinesischen KI-Industrie und hindert große GPU-Hersteller wie NVIDIA (Marktanteil bis zu 80 %) und AMD daran, Hochleistungs-GPUs nach China zu verkaufen.
Der inländische Mangel an Upstream-GPUs ist schwerwiegend und den Serverherstellern mangelt es an Kernkomponenten, was sich natürlich auf die Produktion von KI-Serverunternehmen auswirken wird.
In diesem Zusammenhang steht die GPU-Lokalisierung unmittelbar bevor. Derzeit beschleunigen Unternehmen, vertreten durch führende Hersteller von Kommunikationsgeräten wie ZTE, den Einsatz von GPU-Servern.
Bei der jährlichen Leistungsbesprechung 2022 erklärte Xu Ziyang, Executive Director und Präsident von ZTE, dass bis Ende dieses Jahres ein ChatGPT-GPU-Server eingeführt wird, der große Breitbandverbindungen unterstützt.
Xu Ziyang sagte, dass es drei Hauptschritte gibt: Es ist geplant, bis Ende dieses Jahres ein GPU-Modell auf den Markt zu bringen, das ChatGPT mit großer Bandbreite unterstützt, um das Training großer Modelle, einschließlich KI-Server, zu unterstützen , Hochleistungsschalter usw.; zweitens wird ZTE seine Fähigkeiten in die Digital Nebula-Lösung einbringen; drittens wird ZTE eine eigene neue Generation von KI-Chips entwickeln, um die Argumentationskosten zu senken.
Viele Institutionen zufolge wird ZTE voraussichtlich von der durch ChatGPT ausgelösten KI-Welle profitieren. Laut dem von IDC veröffentlichten „China Server Market Tracking Report Prelim for the Fourth Quarter of 2022“ ist der Marktanteil von ZTE von 3,1 % auf 5,3 % gestiegen und gehört damit zu den Top 5 des Landes.
Fazit:
Mit der sukzessiven Einführung großer Downstream-Modelle steigt die Nachfrage nach KI-Rechenleistung rasant. Aus Sicht der Branchentrends beschleunigt sich der Fortschritt der GPU-Lokalisierung. Allerdings besteht in vielerlei Hinsicht eine große Lücke zwischen inländischen GPU-Produkten und ausländischen Marktführern wie Nvidia, sodass es noch schwieriger ist, Durchbrüche zu erzielen.
Aus diesem Grund spekuliert der Markt auch, dass die Preise für KI-Server in Zukunft weiter steigen könnten.
Autor: Bottle
Das obige ist der detaillierte Inhalt vonMit der Einführung großer KI-Modelle sind die Serverpreise um das Zwanzigfache gestiegen, und der Investitionswert des Sektors wird hervorgehoben?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Der ChatGPT-Brand hat zu einer weiteren Welle der KI-Begeisterung geführt. Die Branche geht jedoch allgemein davon aus, dass sich nur große Unternehmen und superreiche Unternehmen KI leisten können, wenn die KI in die Ära großer KI-Modelle eintritt, da die Erstellung großer KI-Modelle sehr teuer ist . Das erste ist, dass es rechenintensiv ist. Avi Goldfarb, Marketingprofessor an der University of Toronto, sagte: „Wenn Sie ein Unternehmen gründen, selbst ein großes Sprachmodell entwickeln und es selbst berechnen möchten, sind die Kosten zu hoch. OpenAI ist sehr teuer und kostet Milliarden von Dollar.“ „Mietcomputer werden sicherlich viel billiger sein, aber Unternehmen müssen immer noch hohe Gebühren an AWS und andere Unternehmen zahlen. Zweitens sind Daten teuer. Trainingsmodelle erfordern riesige Datenmengen, manchmal sind die Daten leicht verfügbar und manchmal nicht. Daten wie CommonCrawl und LAION können kostenlos sein

In den letzten Jahren sind mit dem Aufkommen neuer Technologiemodelle, der Wertsteigerung von Anwendungsszenarien in verschiedenen Branchen und der Verbesserung der Produkteffekte aufgrund der Ansammlung riesiger Datenmengen Anwendungen der künstlichen Intelligenz aus Bereichen wie Konsum und Internet ausgestrahlt worden zu traditionellen Branchen wie Fertigung, Energie und Elektrizität. Der Reifegrad der Technologie und Anwendung künstlicher Intelligenz in Unternehmen verschiedener Branchen in den Hauptbereichen wirtschaftlicher Produktionsaktivitäten wie Design, Beschaffung, Produktion, Management und Vertrieb verbessert sich ständig und beschleunigt die Implementierung und Abdeckung künstlicher Intelligenz in allen Bereichen schrittweise Integration in das Hauptgeschäft, um den Industriestatus zu verbessern oder die Betriebseffizienz zu optimieren und die eigenen Vorteile weiter auszubauen. Die groß angelegte Implementierung innovativer Anwendungen der Technologie der künstlichen Intelligenz hat die starke Entwicklung des Big-Data-Intelligence-Marktes vorangetrieben und auch den zugrunde liegenden Data-Governance-Diensten Marktvitalität verliehen. Mit Big Data, Cloud Computing und Computing

Unter KI-Großmodellen versteht man Modelle der künstlichen Intelligenz, die mithilfe umfangreicher Daten und leistungsstarker Rechenleistung trainiert werden. Diese Modelle weisen in der Regel ein hohes Maß an Genauigkeit und Generalisierungsfähigkeiten auf und können auf verschiedene Bereiche wie die Verarbeitung natürlicher Sprache, Bilderkennung, Spracherkennung usw. angewendet werden. Das Training großer KI-Modelle erfordert eine große Menge an Daten und Rechenressourcen, und in der Regel ist es erforderlich, ein verteiltes Computer-Framework zu verwenden, um den Trainingsprozess zu beschleunigen. Der Trainingsprozess dieser Modelle ist sehr komplex und erfordert eine eingehende Untersuchung und Optimierung der Datenverteilung, Merkmalsauswahl, Modellstruktur usw. KI-Großmodelle haben ein breites Anwendungsspektrum und können in verschiedenen Szenarien eingesetzt werden, z. B. im intelligenten Kundenservice, im Smart Home, beim autonomen Fahren usw. In diesen Anwendungen können große KI-Modelle Menschen dabei helfen, verschiedene Aufgaben schneller und genauer zu erledigen und die Arbeitseffizienz zu verbessern.

Generative KI (AIGC) hat eine neue Ära der allgemeinen künstlichen Intelligenz eingeleitet. Der Wettbewerb um große Modelle ist zu einem spektakulären Schwerpunkt geworden, und das Erwachen der Macht ist zunehmend zu einem Branchenkonsens geworden. In der neuen Ära bewegen sich große Modelle von Einzelmodalität zu Multimodalität, die Größe von Parametern und Trainingsdatensätzen wächst exponentiell und riesige unstrukturierte Daten erfordern gleichzeitig die Unterstützung leistungsstarker Mischlastfunktionen; datenintensiv Das neue Paradigma erfreut sich immer größerer Beliebtheit und Anwendungsszenarien wie Supercomputing und High Performance Computing (HPC) rücken in die Tiefe. Bestehende Datenspeichergrundlagen sind nicht mehr in der Lage, den ständig wachsenden Anforderungen gerecht zu werden. Wenn Rechenleistung, Algorithmen und Daten die „Troika“ sind, die die Entwicklung künstlicher Intelligenz vorantreibt, dann müssen diese drei angesichts der enormen Veränderungen im äußeren Umfeld dringend wieder an Dynamik gewinnen

Vivo veröffentlichte am 1. November auf der Entwicklerkonferenz 2023 seine selbst entwickelte allgemeine Matrix für künstliche Intelligenz – das Blue Heart Model. Vivo kündigte an, dass das Blue Heart Model 5 Modelle mit unterschiedlichen Parameterebenen auf den Markt bringen wird : Milliarden, Dutzende Milliarden und Hunderte von Milliarden, die Kernszenarien abdecken, und ihre Modellfähigkeiten nehmen eine führende Position in der Branche ein. Vivo ist der Ansicht, dass ein gutes selbstentwickeltes großes Modell die folgenden fünf Anforderungen erfüllen muss: großer Maßstab, umfassende Funktionen, leistungsstarke Algorithmen, sicher und zuverlässig, unabhängige Entwicklung und sollte weitgehend Open Source sein. Der neu geschriebene Inhalt ist wie folgt: Unter ihnen Das erste ist das Blue-Heart-Modell Modell 7B, ein 7-Milliarden-Level-Modell, das duale Dienste für Mobiltelefone und die Cloud bereitstellen soll. Vivo sagte, dass dieses Modell in Bereichen wie Sprachverständnis und Texterstellung eingesetzt werden kann.

Kürzlich entwickelte ein Team von Informatikern ein flexibleres und belastbareres Modell für maschinelles Lernen mit der Fähigkeit, bekannte Informationen regelmäßig zu vergessen, eine Funktion, die in bestehenden groß angelegten Sprachmodellen nicht zu finden ist. Tatsächliche Messungen zeigen, dass die „Vergessensmethode“ in vielen Fällen beim Training sehr effizient ist und das Vergessensmodell eine bessere Leistung erbringt. Jea Kwon, ein KI-Ingenieur am Institute for Basic Science in Korea, sagte, die neue Forschung bedeute einen erheblichen Fortschritt auf dem Gebiet der KI. Die Trainingseffizienz der „Vergessensmethode“ ist sehr hoch. Die meisten gängigen KI-Sprach-Engines verwenden künstliche neuronale Netzwerktechnologie. Jedes „Neuron“ in dieser Netzwerkstruktur ist eigentlich eine mathematische Funktion. Sie sind miteinander verbunden, um Informationen zu empfangen und zu übertragen.

Künstliche Intelligenz ist in jüngster Zeit wieder in den Fokus menschlicher Innovationen gerückt und der Rüstungswettbewerb rund um KI ist intensiver denn je. Nicht nur aus Angst, den neuen Trend zu verpassen, versammeln sich Technologiegiganten, um sich dem Kampf der großen Modelle anzuschließen, sondern auch Peking, Shanghai, Shenzhen und andere Orte haben Richtlinien und Maßnahmen eingeführt, um Forschung zu Algorithmen und Schlüsselinnovationen für große Modelle durchzuführen Technologien, um ein Hochland für Innovationen im Bereich der künstlichen Intelligenz zu schaffen. Große KI-Modelle boomen, und große Technologiegiganten haben sich angeschlossen. Der kürzlich auf dem Zhongguancun-Forum 2023 veröffentlichte „China Artificial Intelligence Large Model Map Research Report“ zeigt, dass Chinas große KI-Modelle einen boomenden Entwicklungstrend aufweisen, und das gibt es auch viele Unternehmen der Branche. Robin Li, Gründer, Vorsitzender und CEO von Baidu, sagte unverblümt, dass wir an einem neuen Ausgangspunkt stehen

1978 gründeten Stuart Marson und andere von der University of California das weltweit erste kommerzielle CADD-Unternehmen und leisteten Pionierarbeit bei der Entwicklung eines chemischen Reaktions- und Datenbankabrufsystems. Seitdem ist das computergestützte Arzneimitteldesign (Computer Aided Drug Design, CADD) in eine Ära rasanter Entwicklung eingetreten und hat sich für Pharmaunternehmen zu einem wichtigen Mittel für die Arzneimittelforschung und -entwicklung entwickelt, was zu revolutionären Verbesserungen in diesem Bereich geführt hat. Am 5. Oktober 1981 veröffentlichte das Fortune-Magazin einen Titelartikel mit dem Titel „Die nächste industrielle Revolution: Merck entwirft Medikamente durch Computer“, in dem offiziell die Einführung der CADD-Technologie angekündigt wurde. Im Jahr 1996 wurde der erste auf SBDD (Structur-Based Drug Design) basierende Carboanhydrase-Inhibitor erfolgreich auf den Markt gebracht und fand breite Anwendung in der Arzneimittelforschung und -entwicklung.
