


Warum KI-Workloads die Rechenzentrumsbranche möglicherweise nicht verändern
Auf den ersten Blick scheint der KI-Boom ein großer Segen für die Rechenzentrumsbranche zu sein. Je mehr Unternehmen in KI investieren, desto mehr Rechenzentrumskapazität werden sie benötigen, oder?
KI wird definitiv die Nachfrage nach Rechenzentren ankurbeln, aber ich glaube, dass sich der Einfluss von KI auf die Branche letztendlich als begrenzt erweisen wird. Hier ist der Grund.
Wie sich KI auf Rechenzentren auswirkt
Der Grund dafür, dass die Nachfrage nach KI in Rechenzentren steigt, ist ganz einfach: Der Aufbau und die Bereitstellung von KI-Workloads erfordern viel IT-Infrastruktur – in vielen Fällen einschließlich spezialisierter Infrastruktur wie mit GPUs ausgestattete Server . Der Kern von Rechenzentren ist offensichtlich der Ort, an dem die Infrastruktur gehostet wird, da sie nicht nur Platz zum Hosten von Servern bieten, sondern auch die physischen Sicherheitskontrollen, effiziente Energiesysteme, Kühllösungen und andere Ressourcen bereitstellen, die Unternehmen zum Schutz ihrer Investitionen in die KI-Infrastruktur benötigen .
Wenn also die Zeit vergeht und immer mehr Unternehmen versuchen, KI-Modelle zu entwickeln oder einzusetzen, werden sie sich an Rechenzentren wenden, um die Server zu hosten, die sie zum Erreichen ihrer Ziele benötigen – zumindest ist dies die Meinung populärer Geheimdienste.
Wird KI das Rechenzentrum wirklich verändern?
In den nächsten Jahren wird die Anzahl der Server in Rechenzentren schrittweise zunehmen, die für KI-Arbeitslasten bestimmt sind. Teilweise bauen Unternehmen sogar neue Rechenzentren speziell für KI.
Allerdings ist es im Allgemeinen wahr, dass KI die Branche völlig revolutionieren wird oder dass KI-Workloads andere Arten von Anwendungen (wie Webhosting) übertreffen und zum Schlüsselpfad für Rechenzentren werden werden.
Hier sind vier Gründe, warum die Auswirkungen des KI-Booms auf Rechenzentren möglicherweise nicht so groß sind, wie es scheint.
Vorübergehender Bedarf an KI-Infrastruktur
Erstens erfordert die Zulassung von KI-Anwendungsfällen nicht, dass Unternehmen dauerhaft über KI-Infrastruktur verfügen. Wenn Sie ein Modell trainieren müssen, benötigen Sie während des Trainings viel Rechenleistung, können diese Serverkapazität dann aber erst nutzen, wenn Sie das nächste Modell trainieren.
Für die meisten an KI interessierten Unternehmen ist es daher finanziell sinnvoller, eine IaaS-Lösung für ihre KI-Infrastrukturanforderungen zu nutzen, anstatt eigene Server zu kaufen und diese in einem Rechenzentrum bereitzustellen. Im Gegensatz zu anderen Arten von Workloads erfordert KI eine intermittierende, groß angelegte Infrastruktur.
Inaktive KI-Infrastruktur gibt es bereits in Hülle und Fülle
Der Kauf von KI-Infrastruktur und Rechenzentrumsfläche zum Hosten ist angesichts der riesigen Mengen an günstiger Infrastrukturkapazität, die bereits von IaaS-Anbietern verfügbar sind, noch schwieriger zu rechtfertigen.
Zum Beispiel sind Spot-VM-Instanzen im Vergleich zu Standard-Public-Cloud-Servern mit erheblichen Rabatten erhältlich und eignen sich hervorragend für die Durchführung von KI-Trainings. Der Hauptnachteil von Spot-Instanzen – Cloud-Anbieter können Instanzen ohne Vorwarnung herunterfahren und möglicherweise die darauf gehosteten Arbeitslasten unterbrechen – stellt für das KI-Training kein allzu großes Problem dar, da das Training in vielen Fällen auf verschiedenen Instanzen angehalten und wieder aufgenommen werden kann .
Kurz gesagt: Es ist unwahrscheinlich, dass Unternehmen ihre Rechenzentrumsfläche erweitern, um KI-Workloads zu unterstützen, wenn sie für denselben Zweck ultragünstige bestehende IaaS-Angebote nutzen können.
Nur wenige Unternehmen bauen ihre eigenen KI-Modelle auf
Egal welche Infrastruktur Sie nutzen, die Entwicklung, Schulung und Bereitstellung von KI-Modellen von Grund auf ist harte Arbeit – so schwer, dass nur wenige Unternehmen dies tun können. Die meisten Menschen werden sich wahrscheinlich für KI-Dienste von Drittanbietern von Unternehmen wie Microsoft oder Google entscheiden.
Diese Dienste werden von Anbietern bereitgestellt, die ihre eigenen Modelle erstellen und trainieren, sodass Kunden, die diese Modelle verwenden, keine eigene KI-Infrastruktur erwerben müssen.
Der KI-Wahnsinn wird irgendwann nachlassen
Derzeit ist GenAI ein heißes Thema und es besteht ein zunehmender Druck auf Unternehmen, in KI-Lösungen zu investieren, aber in fünf oder zehn Jahren werden die KI-Strategien der meisten Unternehmen wahrscheinlich ausgereift sein und sie wird neue Technologietrends bestimmen.
Für Rechenzentren bedeutet dies, dass ein durch KI verursachter Nachfrageanstieg wahrscheinlich größtenteils nur vorübergehender Natur ist – es wäre unklug, die Kapazität von Rechenzentren erheblich zu erweitern, nur um dann festzustellen, dass sie mittelfristig nicht mehr benötigt wird.
Fazit
Fazit: Mit Ausnahme derjenigen, die sich auf die Entwicklung von KI-Software spezialisiert haben, haben nur wenige Unternehmen einen guten Grund, in Rechenzentren zur Unterstützung von KI-Workloads zu investieren. Erwarten Sie, dass der Hype um KI vor allem in den nächsten Jahren zu einem gewissen Wachstum der Rechenzentrumskapazität führen wird. Erwarten Sie jedoch nicht, dass KI zu einem deutlichen Anstieg der Nachfrage nach Rechenzentrumsflächen führen wird, da der vorhandene Raum wahrscheinlich ausreichen wird, um den Bedarf zu decken der meisten Unternehmen.
Das obige ist der detaillierte Inhalt vonWarum KI-Workloads die Rechenzentrumsbranche möglicherweise nicht verändern. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Der Befehl centOS stilldown wird heruntergefahren und die Syntax wird von [Optionen] ausgeführt [Informationen]. Zu den Optionen gehören: -h das System sofort stoppen; -P schalten Sie die Leistung nach dem Herunterfahren aus; -r neu starten; -t Wartezeit. Zeiten können als unmittelbar (jetzt), Minuten (Minuten) oder als bestimmte Zeit (HH: MM) angegeben werden. Hinzugefügten Informationen können in Systemmeldungen angezeigt werden.

Backup- und Wiederherstellungsrichtlinie von GitLab im Rahmen von CentOS -System Um die Datensicherheit und Wiederherstellung der Daten zu gewährleisten, bietet GitLab on CentOS eine Vielzahl von Sicherungsmethoden. In diesem Artikel werden mehrere gängige Sicherungsmethoden, Konfigurationsparameter und Wiederherstellungsprozesse im Detail eingeführt, um eine vollständige GitLab -Sicherungs- und Wiederherstellungsstrategie aufzubauen. 1. Manuell Backup Verwenden Sie den GitLab-RakegitLab: Backup: Befehl erstellen, um die manuelle Sicherung auszuführen. Dieser Befehl unterstützt wichtige Informationen wie GitLab Repository, Datenbank, Benutzer, Benutzergruppen, Schlüssel und Berechtigungen. Die Standardsicherungsdatei wird im Verzeichnis/var/opt/gitlab/backups gespeichert. Sie können /etc /gitlab ändern

Vollständige Anleitung zur Überprüfung der HDFS -Konfiguration in CentOS -Systemen In diesem Artikel wird die Konfiguration und den laufenden Status von HDFS auf CentOS -Systemen effektiv überprüft. Die folgenden Schritte helfen Ihnen dabei, das Setup und den Betrieb von HDFs vollständig zu verstehen. Überprüfen Sie die Hadoop -Umgebungsvariable: Stellen Sie zunächst sicher, dass die Hadoop -Umgebungsvariable korrekt eingestellt ist. Führen Sie im Terminal den folgenden Befehl aus, um zu überprüfen, ob Hadoop ordnungsgemäß installiert und konfiguriert ist: Hadoopsion-Check HDFS-Konfigurationsdatei: Die Kernkonfigurationsdatei von HDFS befindet sich im/etc/hadoop/conf/verzeichnis, wobei core-site.xml und hdfs-site.xml von entscheidender Bedeutung sind. verwenden

Aktivieren Sie die Pytorch -GPU -Beschleunigung am CentOS -System erfordert die Installation von CUDA-, CUDNN- und GPU -Versionen von Pytorch. Die folgenden Schritte führen Sie durch den Prozess: Cuda und Cudnn Installation Bestimmen Sie die CUDA-Version Kompatibilität: Verwenden Sie den Befehl nvidia-smi, um die von Ihrer NVIDIA-Grafikkarte unterstützte CUDA-Version anzuzeigen. Beispielsweise kann Ihre MX450 -Grafikkarte CUDA11.1 oder höher unterstützen. Download und installieren Sie Cudatoolkit: Besuchen Sie die offizielle Website von Nvidiacudatoolkit und laden Sie die entsprechende Version gemäß der höchsten CUDA -Version herunter und installieren Sie sie, die von Ihrer Grafikkarte unterstützt wird. Installieren Sie die Cudnn -Bibliothek:

Die Installation von MySQL auf CentOS umfasst die folgenden Schritte: Hinzufügen der entsprechenden MySQL Yum -Quelle. Führen Sie den Befehl mySQL-server aus, um den MySQL-Server zu installieren. Verwenden Sie den Befehl mySQL_SECURE_INSTALLATION, um Sicherheitseinstellungen vorzunehmen, z. B. das Festlegen des Stammbenutzerkennworts. Passen Sie die MySQL -Konfigurationsdatei nach Bedarf an. Tune MySQL -Parameter und optimieren Sie Datenbanken für die Leistung.

Docker verwendet Linux -Kernel -Funktionen, um eine effiziente und isolierte Anwendungsumgebung zu bieten. Sein Arbeitsprinzip lautet wie folgt: 1. Der Spiegel wird als schreibgeschützte Vorlage verwendet, die alles enthält, was Sie für die Ausführung der Anwendung benötigen. 2. Das Union File System (UnionFS) stapelt mehrere Dateisysteme, speichert nur die Unterschiede, speichert Platz und beschleunigt. 3. Der Daemon verwaltet die Spiegel und Container, und der Kunde verwendet sie für die Interaktion. 4. Namespaces und CGroups implementieren Container -Isolation und Ressourcenbeschränkungen; 5. Mehrere Netzwerkmodi unterstützen die Containerverbindung. Nur wenn Sie diese Kernkonzepte verstehen, können Sie Docker besser nutzen.

Der Befehl zum Neustart des SSH -Dienstes lautet: SystemCTL Neustart SSHD. Detaillierte Schritte: 1. Zugriff auf das Terminal und eine Verbindung zum Server; 2. Geben Sie den Befehl ein: SystemCTL Neustart SSHD; 1. Überprüfen Sie den Dienststatus: SystemCTL -Status SSHD.

Pytorch Distributed Training on CentOS -System erfordert die folgenden Schritte: Pytorch -Installation: Die Prämisse ist, dass Python und PIP im CentOS -System installiert sind. Nehmen Sie abhängig von Ihrer CUDA -Version den entsprechenden Installationsbefehl von der offiziellen Pytorch -Website ab. Für CPU-Schulungen können Sie den folgenden Befehl verwenden: PipinstallTorChTorChVisionTorChaudio Wenn Sie GPU-Unterstützung benötigen, stellen Sie sicher, dass die entsprechende Version von CUDA und CUDNN installiert ist und die entsprechende Pytorch-Version für die Installation verwenden. Konfiguration der verteilten Umgebung: Verteiltes Training erfordert in der Regel mehrere Maschinen oder mehrere Maschinen-Mehrfach-GPUs. Ort
