


Pourquoi les charges de travail de l'IA ne transformeront peut-être pas le secteur des centres de données
À première vue, le boom de l'IA peut sembler une énorme aubaine pour l'industrie des centres de données. Plus les entreprises investissent dans l’IA, plus elles auront besoin de capacité de centre de données, n’est-ce pas ?
L’IA va certainement stimuler la demande de centres de données, mais je pense que l’impact de l’IA sur l’industrie s’avérera finalement limité. Voici pourquoi.
Comment l'IA impacte les centres de données
Pour augmenter la demande d'IA dans les centres de données, la raison est très simple : la création et le déploiement de charges de travail d'IA nécessitent beaucoup d'infrastructure informatique - dans de nombreux cas, y compris une infrastructure spécialisée telle qu'un serveur équipé d'un GPU . Le cœur des centres de données est évidemment l'endroit où l'infrastructure est hébergée, car ils fournissent non seulement de l'espace pour héberger les serveurs, mais fournissent également les contrôles de sécurité physique, les systèmes énergétiques efficaces, les solutions de refroidissement et autres ressources dont les entreprises ont besoin pour protéger leurs investissements dans l'infrastructure d'IA. .
Ainsi, à mesure que le temps passe et que de plus en plus d'entreprises cherchent à créer ou à déployer des modèles d'IA, elles se tourneront vers les centres de données pour héberger les serveurs nécessaires pour atteindre leurs objectifs - du moins c'est ce que l'intelligence populaire a tendance à penser.
L'IA va-t-elle vraiment changer le data center ?
Dans les prochaines années, le nombre de serveurs dans les datacenters va progressivement augmenter, dédiés aux charges de travail de l'IA. Dans certains cas, les entreprises construisent même de nouveaux centres de données spécifiquement pour l’IA.
Cependant, de manière générale, il est vrai que l'IA va complètement bouleverser le secteur, ou que les charges de travail de l'IA dépasseront d'autres types d'applications (comme l'hébergement Web) et deviendront la voie clé pour les centres de données.
Voici quatre raisons pour lesquelles l'impact du boom de l'IA sur les centres de données n'est peut-être pas aussi important qu'il y paraît.
Besoin temporaire d'une infrastructure d'IA
Premièrement, autoriser les cas d'utilisation de l'IA n'oblige pas les entreprises à posséder en permanence une infrastructure d'IA. Si vous devez entraîner un modèle, vous aurez besoin de beaucoup de puissance de calcul pendant la formation, mais vous ne pourrez alors pas utiliser cette capacité du serveur tant que vous n'aurez pas entraîné le modèle suivant.
Ainsi, pour la plupart des entreprises intéressées par l'IA, il est plus judicieux financièrement d'utiliser une solution IaaS pour leurs besoins en infrastructure d'IA, plutôt que d'acheter vos propres serveurs et de les déployer dans un centre de données. Contrairement à d’autres types de charges de travail, l’IA nécessite une infrastructure intermittente à grande échelle.
Les infrastructures d'IA inutilisées sont déjà nombreuses
L'achat d'une infrastructure d'IA et d'espace de centre de données à héberger est encore plus difficile à justifier étant donné les grandes quantités de capacité d'infrastructure bon marché déjà disponibles auprès des fournisseurs IaaS.
Par exemple, les instances Spot VM sont disponibles à des remises importantes par rapport aux serveurs cloud publics standard et constituent un excellent moyen d'effectuer une formation en IA. Le principal inconvénient des instances Spot (les fournisseurs de cloud peuvent arrêter les instances sans aucun avertissement, perturbant potentiellement les charges de travail hébergées sur celles-ci) n'est pas vraiment un problème pour la formation à l'IA, car dans de nombreux cas, la formation peut s'interrompre et reprendre sur différentes instances. .
En bref, il est peu probable que les entreprises étendent l’empreinte de leur centre de données pour prendre en charge les charges de travail d’IA alors qu’elles peuvent utiliser des offres IaaS existantes ultra bon marché dans le même but.
Peu d'entreprises créent leurs propres modèles d'IA
Quelle que soit l'infrastructure que vous utilisez, développer, former et déployer des modèles d'IA à partir de zéro est un travail difficile - si dur que peu d'entreprises peuvent le faire. La plupart des gens choisiront probablement des services d’IA tiers proposés par des sociétés telles que Microsoft ou Google.
Ces services sont fournis par des fournisseurs qui construisent et entraînent leurs propres modèles, de sorte que les clients utilisant ces modèles n'ont pas besoin d'acheter leur propre infrastructure d'IA.
L'engouement pour l'IA finira par s'atténuer
Actuellement, la GenAI est un sujet brûlant et il y a une pression croissante sur les entreprises pour qu'elles investissent dans des solutions d'IA, mais dans cinq ou dix ans, les stratégies d'IA de la plupart des entreprises auront probablement mûri et elles fera pivoter les nouvelles tendances technologiques.
Ce que cela signifie pour les centres de données, c'est que toute augmentation de la demande provoquée par l'IA sera probablement pour l'essentiel temporaire : il serait imprudent d'augmenter considérablement la capacité des centres de données pour constater ensuite qu'elle n'est plus nécessaire à moyen terme.
Conclusion
Conclusion : à l'exception de celles qui se spécialisent dans le développement de logiciels d'IA, peu d'entreprises ont de bonnes raisons d'investir dans des centres de données pour prendre en charge les charges de travail d'IA. Attendez-vous à ce que le battage médiatique autour de l'IA entraîne une certaine croissance de la capacité des centres de données, en particulier au cours des prochaines années, mais ne vous attendez pas à ce que l'IA provoque une augmentation significative de la demande d'espace dans les centres de données, car l'espace existant sera probablement suffisant pour répondre aux besoins. de la plupart des entreprises.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

La commande de fermeture CENTOS est arrêtée et la syntaxe est la fermeture de [options] le temps [informations]. Les options incluent: -H Arrêtez immédiatement le système; -P éteignez l'alimentation après l'arrêt; -r redémarrer; -t temps d'attente. Les temps peuvent être spécifiés comme immédiats (maintenant), minutes (minutes) ou une heure spécifique (HH: mm). Des informations supplémentaires peuvent être affichées dans les messages système.

La politique de sauvegarde et de récupération de GitLab dans le système CentOS afin d'assurer la sécurité et la récupérabilité des données, Gitlab on CentOS fournit une variété de méthodes de sauvegarde. Cet article introduira plusieurs méthodes de sauvegarde courantes, paramètres de configuration et processus de récupération en détail pour vous aider à établir une stratégie complète de sauvegarde et de récupération de GitLab. 1. MANUEL BACKUP Utilisez le Gitlab-RakegitLab: Backup: Créer la commande pour exécuter la sauvegarde manuelle. Cette commande sauvegarde des informations clés telles que le référentiel Gitlab, la base de données, les utilisateurs, les groupes d'utilisateurs, les clés et les autorisations. Le fichier de sauvegarde par défaut est stocké dans le répertoire / var / opt / gitlab / backups. Vous pouvez modifier / etc / gitlab

Guide complet pour vérifier la configuration HDFS dans les systèmes CentOS Cet article vous guidera comment vérifier efficacement la configuration et l'état de l'exécution des HDF sur les systèmes CentOS. Les étapes suivantes vous aideront à bien comprendre la configuration et le fonctionnement des HDF. Vérifiez la variable d'environnement Hadoop: Tout d'abord, assurez-vous que la variable d'environnement Hadoop est correctement définie. Dans le terminal, exécutez la commande suivante pour vérifier que Hadoop est installé et configuré correctement: HadoopVersion Check HDFS Fichier de configuration: Le fichier de configuration de base de HDFS est situé dans le répertoire / etc / hadoop / conf / le répertoire, où Core-site.xml et hdfs-site.xml sont cruciaux. utiliser

Activer l'accélération du GPU Pytorch sur le système CentOS nécessite l'installation de versions CUDA, CUDNN et GPU de Pytorch. Les étapes suivantes vous guideront tout au long du processus: CUDA et CUDNN Installation détermineront la compatibilité de la version CUDA: utilisez la commande NVIDIA-SMI pour afficher la version CUDA prise en charge par votre carte graphique NVIDIA. Par exemple, votre carte graphique MX450 peut prendre en charge CUDA11.1 ou plus. Téléchargez et installez Cudatoolkit: visitez le site officiel de Nvidiacudatoolkit et téléchargez et installez la version correspondante selon la version CUDA la plus élevée prise en charge par votre carte graphique. Installez la bibliothèque CUDNN:

L'installation de MySQL sur CENTOS implique les étapes suivantes: Ajout de la source MySQL YUM appropriée. Exécutez la commande YUM Install MySQL-Server pour installer le serveur MySQL. Utilisez la commande mysql_secure_installation pour créer des paramètres de sécurité, tels que la définition du mot de passe de l'utilisateur racine. Personnalisez le fichier de configuration MySQL selon les besoins. Écoutez les paramètres MySQL et optimisez les bases de données pour les performances.

Docker utilise les fonctionnalités du noyau Linux pour fournir un environnement de fonctionnement d'application efficace et isolé. Son principe de travail est le suivant: 1. Le miroir est utilisé comme modèle en lecture seule, qui contient tout ce dont vous avez besoin pour exécuter l'application; 2. Le Système de fichiers Union (UnionFS) empile plusieurs systèmes de fichiers, ne stockant que les différences, l'économie d'espace et l'accélération; 3. Le démon gère les miroirs et les conteneurs, et le client les utilise pour l'interaction; 4. Les espaces de noms et les CGROUP implémentent l'isolement des conteneurs et les limitations de ressources; 5. Modes de réseau multiples prennent en charge l'interconnexion du conteneur. Ce n'est qu'en comprenant ces concepts principaux que vous pouvez mieux utiliser Docker.

La commande pour redémarrer le service SSH est: SystemCTL Redémarrer SSHD. Étapes détaillées: 1. Accédez au terminal et connectez-vous au serveur; 2. Entrez la commande: SystemCTL Restart SSHD; 3. Vérifiez l'état du service: SystemCTL Status Sshd.

La formation distribuée par Pytorch sur le système CentOS nécessite les étapes suivantes: Installation de Pytorch: La prémisse est que Python et PIP sont installés dans le système CentOS. Selon votre version CUDA, obtenez la commande d'installation appropriée sur le site officiel de Pytorch. Pour la formation du processeur uniquement, vous pouvez utiliser la commande suivante: pipinstalltorchtorchVisionTorChaudio Si vous avez besoin d'une prise en charge du GPU, assurez-vous que la version correspondante de CUDA et CUDNN est installée et utilise la version Pytorch correspondante pour l'installation. Configuration de l'environnement distribué: la formation distribuée nécessite généralement plusieurs machines ou des GPU multiples uniques. Lieu
