


Les géants mondiaux de l'informatique utilisent l'IA pour aider les centres de données à économiser de l'énergie et à réduire les émissions
Les centres de données alimentent les applications, les sites Web et les services utilisés chaque jour par des milliards de personnes dans le monde, et ils peuvent être des endroits dangereux pour les travailleurs qui les construisent et les entretiennent. Les travailleurs doivent parfois entretenir les équipements électriques du centre de données lorsque celui-ci est sous tension. Ils peuvent être exposés à des produits chimiques tels que le chlore, utilisé comme désinfectant dans l’eau circulant dans les systèmes de refroidissement liquide des ordinateurs et des serveurs. En juin 2015, cinq personnes ont dû être hospitalisées après une fuite de chlore dans un centre de données Apple à Maiden, en Caroline du Nord.
Désormais, les centres de données sont plus sécurisés qu'avant. Mais à la recherche de solutions d’avenir, certains géants de la technologie affirment étudier comment appliquer l’intelligence artificielle pour prévenir les problèmes de sécurité. Par exemple, Microsoft développe un système d'intelligence artificielle capable d'analyser les données provenant de diverses sources et de générer des alertes pour les équipes de construction et d'exploitation des centres de données afin de « prévenir ou atténuer l'impact des incidents de sécurité ». Un système complémentaire mais connexe est également en cours de développement pour tenter de détecter et de prédire les impacts sur les plans de construction des centres de données.
"Ces initiatives en sont aux premiers tests et devraient commencer à s'adapter à nos environnements de production plus tard cette année", a déclaré un porte-parole de Microsoft par e-mail.
Meta prétend également étudier comment l'intelligence artificielle peut prédire comment ses centres de données fonctionneront dans des « conditions environnementales extrêmes » qui pourraient conduire à des conditions de travail dangereuses. La société a déclaré qu'elle développait des modèles physiques pour simuler des conditions extrêmes et alimentait ces données dans des modèles d'IA chargés d'optimiser la consommation électrique, le refroidissement et le flux d'air des serveurs.
Le porte-parole de Meta a déclaré aux médias : « Notre centre de données contient une grande quantité de données opérationnelles et, dans certaines zones, il existe une fréquence élevée de capteurs intégrés dans les serveurs, les racks et les halls de données. » Chaque serveur et équipement réseau. effectue des charges de travail différentes, consommera différentes quantités d'énergie, générera différentes quantités de chaleur et créera différentes quantités de flux d'air dans le centre de données. Notre équipe [d'infrastructure] collecte toutes les données de chaque serveur, puis développe un modèle d'IA capable de le faire. être répartis dans l'ensemble du centre de données, de nos serveurs et de nos racks, et envoyer des charges de travail à ces serveurs pour optimiser les performances et l'efficacité
Bien entendu, outre la sécurité, les entreprises ont d'autres motivations pour garantir que leurs centres de données restent dans un état optimal. . Les pannes de courant coûtent cher et sont de plus en plus fréquentes. Un tiers des propriétaires et exploitants de centres de données ont admis avoir subi une panne majeure au cours des 12 derniers mois, selon une enquête réalisée en 2020 par la société de conseil informatique IT Uptime Institute. Une personne sur six a déclaré que ses pannes avaient coûté plus d'un million de dollars, contre une sur dix en 2019.
Meta, qui exploite plus de 20 centres de données dans le monde, y compris de nouveaux projets au Texas et dans le Missouri, affirme qu'elle construira 50 à 100 nouveaux centres de données par an dans un avenir prévisible.
L'IA promet également de trouver des opportunités d'économie d'énergie dans les centres de données qui sont souvent méconnues, et donc des économies de coûts, ce qui est un autre aspect attractif pour les entreprises. En 2018, Google affirmait qu'un système d'intelligence artificielle développé par sa filiale DeepMind était capable d'économiser en moyenne 30 % d'énergie par rapport à la consommation énergétique historique de ses centres de données.
Lorsqu'on l'a contacté pour commenter, DeepMind a déclaré qu'il n'avait aucune mise à jour à partager au-delà de l'annonce initiale. IBM et Amazon n'ont pas répondu aux demandes de renseignements. Mais Meta et Microsoft affirment qu’ils utilisent désormais l’IA pour effectuer des ajustements de puissance similaires.
Microsoft a lancé fin 2021 une « approche de détection des anomalies » d'intelligence artificielle qui utilise les données de télémétrie des équipements électriques et mécaniques pour mesurer et atténuer les événements anormaux d'alimentation et d'eau dans les centres de données. La société utilise également des méthodes basées sur l'IA pour identifier et résoudre les problèmes liés aux compteurs d'énergie des centres de données et déterminer les emplacements idéaux pour placer les serveurs afin de minimiser le gaspillage d'énergie, de réseau et de capacité de refroidissement.
Meta affirme avoir utilisé l'apprentissage par renforcement pour réduire la quantité d'air pompée dans les centres de données à des fins de refroidissement. À un niveau élevé, l’apprentissage par renforcement est un système d’intelligence artificielle qui apprend à résoudre des problèmes par essais et erreurs. La plupart des centres de données utilisent de l'air extérieur et des systèmes de refroidissement par évaporation, l'optimisation du flux d'air est donc une priorité absolue.
L'empreinte environnementale réduite est un avantage supplémentaire du système d'IA de régulation de l'énergie. Selon un rapport de l'Environmental Investigation Agency, les centres de données ont consommé environ 1 % de la demande mondiale d'électricité et ont contribué à 0,3 % de toutes les émissions de dioxyde de carbone en 2020. Un centre de données typique utilise 3 à 5 millions de gallons d'eau par jour, ce qui équivaut à la consommation d'eau d'une ville de 30 000 à 50 000 habitants.
Microsoft a précédemment annoncé son intention de faire fonctionner tous ses centres de données avec 100 % d'énergie renouvelable d'ici 2025. Meta affirme avoir réalisé cet exploit en 2020.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds



Selon l'actualité du 15 avril 2024, une enquête 2024 des DSI et des dirigeants technologiques récemment publiée par Gartner montre que plus de 60 % des entreprises chinoises prévoient de déployer l'intelligence artificielle générative (GenAI) au cours des 12 à 24 prochains mois. Étant donné que les entreprises chinoises ont tendance à déployer GenAI localement plutôt que via le cloud public, l’environnement d’infrastructure actuel ne peut pas prendre en charge les projets GenAI. Cela favorisera la transformation de la conception des centres de données des entreprises chinoises. Zhang Lukeng, directeur de recherche chez Gartner, a déclaré : « En raison de problèmes de sécurité et de confidentialité des données et d'exigences réglementaires, certaines entreprises préfèrent déployer des solutions GenAl ou affiner les grands modèles de langage (LLM) sur site. Le déploiement de GenAl sur site est important. pour les centres de données, pas seulement

Selon des informations publiées sur ce site Web le 18 juin, Samsung Semiconductor a récemment présenté sur son blog technologique son disque SSD de nouvelle génération de qualité centre de données BM1743, équipé de sa dernière mémoire flash QLC (v7). ▲Disque SSD de qualité centre de données Samsung QLC BM1743 Selon TrendForce en avril, dans le domaine des disques SSD de qualité centre de données QLC, seuls Samsung et Solidigm, une filiale de SK Hynix, avaient réussi la vérification du client d'entreprise à ce temps. Par rapport à la génération précédente v5QLCV-NAND (remarque sur ce site : Samsung v6V-NAND n'a pas de produits QLC), la mémoire flash Samsung v7QLCV-NAND a presque doublé le nombre de couches d'empilement et la densité de stockage a également été considérablement améliorée. Dans le même temps, la fluidité de v7QLCV-NAND

Nouvelles de ce site le 19 janvier. Selon les nouvelles officielles d'Inspur Server, le 18 janvier, Inspur Information et Intel ont publié conjointement la première conception de référence de serveur à plaque froide entièrement refroidie par liquide au monde et l'ont ouvert à l'industrie pour promouvoir un serveur entièrement refroidi par liquide. solutions de plaques froides. Déploiement d’applications à grande échelle dans les centres de données mondiaux. Sur la base de cette conception de référence, Inspur Information a lancé un serveur à plaques froides entièrement refroidi par liquide, prétendant atteindre un refroidissement liquide de près de 100 % des composants du serveur et atteindre une valeur PUE proche de 1. Remarque tirée de ce site : PUE est l'abréviation de Power Usage Effectiveness. La formule de calcul est « consommation d'énergie totale du centre de données/consommation d'énergie des équipements informatiques ». et autres systèmes. Plus le PUE proche de 1 représente la consommation d'équipements non informatiques.

L’essor rapide de l’intelligence artificielle (IA) générative met en évidence le rythme effréné avec lequel les entreprises adoptent l’IA. Selon un récent rapport d'Accenture, 98 % des chefs d'entreprise affirment que l'intelligence artificielle jouera un rôle important dans leur stratégie au cours des trois à cinq prochaines années. Les analystes de McKinsey ont découvert que près de 65 % des entreprises prévoient d'augmenter leurs investissements dans l'intelligence artificielle au cours des trois prochaines années. NVIDIA, AMD et Intel lancent de nouvelles puces conçues pour l'intelligence artificielle générative et le calcul haute performance (HPC). seulement je viens juste de commencer. Les fournisseurs de cloud public et les sociétés émergentes de puces électroniques sont également en concurrence. Les analystes d’IDC prédisent que les dépenses mondiales en logiciels, matériel et services d’intelligence artificielle atteindront 300 milliards de dollars, dépassant les 154 milliards de dollars prévus cette année.

Avec le développement rapide d’Internet, le nombre de visites sur les sites Web augmente également. Pour répondre à cette demande, nous devons construire un système hautement disponible. Un centre de données distribué est un système qui répartit la charge de chaque centre de données sur différents serveurs pour augmenter la stabilité et l'évolutivité du système. Dans le développement PHP, nous pouvons également implémenter des centres de données distribués via certaines technologies. Cache distribué Le cache distribué est l'une des technologies les plus couramment utilisées dans les applications distribuées sur Internet. Il met en cache les données sur plusieurs nœuds pour améliorer la vitesse d'accès aux données et

Alors que la demande de traitement et de stockage de données continue d’augmenter, les centres de données sont aux prises avec les défis d’une évolution et d’une évolutivité constantes. Les changements continus dans les plates-formes, la conception des appareils, les topologies, les exigences en matière de densité de puissance et les besoins en refroidissement ont souligné le besoin urgent de nouvelles conceptions structurelles. L'infrastructure des centres de données a souvent du mal à aligner les charges informatiques actuelles et prévues sur son infrastructure critique, ce qui entraîne des inadéquations qui menacent sa capacité à répondre à des demandes croissantes. Dans ce contexte, les approches traditionnelles des centres de données doivent être modifiées. Les centres de données intègrent désormais les technologies d’intelligence artificielle (IA) et d’apprentissage automatique (ML) dans leur infrastructure pour rester compétitifs. En implémentant une couche basée sur l'IA dans l'architecture traditionnelle des centres de données, les entreprises peuvent créer des centres de données autonomes sans avoir recours à la main d'œuvre humaine.

Les centres de données de colocation sont généralement conçus pour accueillir des dizaines, voire des centaines d'applications diverses de clients. Cependant, Nvidia propose un modèle de centre de données unique dédié à l'exécution d'applications spécifiques pour un seul client. L'émergence d'une « usine d'intelligence artificielle » Ce nouveau type de centre de données se distingue des centres de données traditionnels et se concentre sur la fourniture de services d'infrastructure plus efficaces et plus flexibles. Les centres de données traditionnels hébergent souvent plusieurs applications et plusieurs locataires, tandis que les nouveaux centres de données se concentrent davantage sur l'allocation dynamique et l'optimisation des ressources pour répondre aux besoins des différentes applications et locataires. La conception de ce nouveau centre de données est plus flexible et intelligente, et peut ajuster l'allocation des ressources en temps réel en fonction de la demande, améliorant ainsi l'efficacité et les performances globales. Grâce à ce concept de conception innovant, ces nouveaux datacenters utilisent principalement

Les normes comprennent : 1. les normes d'infrastructure ; 2. les normes environnementales ; 3. les normes d'équipement ; 4. les paramètres des zones auxiliaires ; 5. les exigences du système de protection contre la foudre et de mise à la terre ; 6. les exigences du système de surveillance de l'environnement électrique ; . Exigences du système d'alarme antivol ; 9. Exigences du système de sécurité ; 10. Exigences du système d'alimentation et de distribution électrique, etc. Introduction détaillée : 1. Normes d'infrastructure : comprenant une série d'éléments tels que l'aménagement de la salle informatique, l'électricité forte, l'électricité faible, l'électricité, la climatisation, la protection incendie et la sécurité. Des normes strictes de construction de salles informatiques, sûres, fiables et efficaces, doivent être formulées pour garantir la haute disponibilité et la maintenabilité du centre de données.
