


Comment l'intelligence artificielle et l'apprentissage automatique vont-ils changer le data center ?
Goldman Sachs prédit que les investissements mondiaux dans l’intelligence artificielle devraient atteindre 200 milliards de dollars d’ici 2025.
Le vaste potentiel de ces technologies en évolution rapide a entraîné une augmentation significative de leurs cas d'utilisation, de la transformation des soins de santé à l'amélioration de l'expérience client. Bien que le pouvoir transformateur de l’intelligence artificielle et de l’apprentissage automatique ait fait l’objet de nombreuses discussions dans divers secteurs, un domaine relativement moins compris et discuté est leur rôle dans les centres de données.
Les centres de données sont l'épine dorsale de l'ère numérique, possédant une infrastructure critique pour stocker et traiter de grandes quantités de données. Dans ce monde axé sur les données, il est crucial de disposer des bonnes données, et toutes les entreprises recherchent de meilleurs moyens de prendre des décisions éclairées qui conduisent à une productivité et une efficacité énergétique accrues. C’est tout le potentiel de l’intelligence artificielle et de l’apprentissage automatique dans les centres de données.
L'intelligence artificielle utilise des données pour effectuer des tâches qui nécessitent normalement l'intelligence humaine. L’apprentissage automatique, quant à lui, est la partie de l’intelligence artificielle qui utilise des algorithmes pour apprendre à partir des données, améliorant ainsi les performances et améliorant progressivement la précision. Ensemble, ces technologies permettent l'automatisation des tâches, les prédictions pour aider à la prise de décision, la réduction des erreurs humaines et une foule d'autres avantages.
L'intelligence artificielle et l'apprentissage automatique peuvent aider. L'un des défis majeurs des opérations des centres de données est la consommation d'énergie. Les centres de données consomment de grandes quantités d’électricité pour assurer le fonctionnement des serveurs et la circulation des données. Bien que la décarbonation des centres de données offre une opportunité cruciale pour les efforts de développement durable des entreprises, une récente enquête Hitachi Vantara a révélé que les progrès jusqu'à présent ont été lents. Malgré la pression mondiale visant à lutter contre les émissions de carbone, près de la moitié (49 %) des personnes interrogées s'attendent à ce que l'empreinte carbone de leur centre de données reste la même, voire augmente.
On peut affirmer que les organisations manquent d’opportunités significatives pour tirer parti de la bonne technologie pour atteindre les objectifs de zéro émission nette. Ici, les solutions d’intelligence artificielle et d’apprentissage automatique peuvent être déployées de différentes manières. Par exemple, de grandes quantités de données sont analysées pour identifier les domaines d'inefficacité énergétique et opérationnelle tout en formulant de meilleures recommandations en matière de distribution d'énergie afin d'éviter la surconsommation d'énergie et de réduire la consommation globale d'énergie.
En rationalisant les processus, en automatisant les tâches de routine et en identifiant les goulots d'étranglement, l'intelligence artificielle et l'apprentissage automatique peuvent aider à réduire la consommation d'énergie inutile et à libérer de précieuses ressources humaines, permettant ainsi au personnel du centre de données de se concentrer sur des tâches plus stratégiques et à valeur ajoutée. En rationalisant les processus, en automatisant les tâches de routine et en identifiant les goulots d'étranglement, l'IA et l'apprentissage automatique peuvent contribuer à réduire la consommation d'énergie inutile et à libérer de précieuses ressources humaines, permettant ainsi au personnel du centre de données de se concentrer sur des tâches plus stratégiques et à valeur ajoutée.
En plus de l'environnement avantages, ces technologies peuvent être utilisées pour prédire et résoudre les problèmes opérationnels avant qu’ils ne dégénèrent en problèmes critiques. En analysant les données historiques et les mesures en temps réel, les algorithmes d'IA peuvent détecter les anomalies, prédire les pannes potentielles et fournir des informations exploitables aux opérateurs de centres de données, leur permettant ainsi de résoudre de manière proactive les problèmes potentiels. En détectant ces problèmes à temps, les opérateurs peuvent éviter des temps d'arrêt coûteux et tout risque de réputation associé.
L’intelligence artificielle et l’apprentissage automatique peuvent également améliorer plus largement la robustesse et la résilience des opérations des centres de données. Grâce à des modèles de surveillance et d'apprentissage continus, ces technologies peuvent optimiser automatiquement les charges de travail, allouer les ressources plus efficacement et s'adapter de manière dynamique à l'évolution des demandes. Cela conduira à une infrastructure de centre de données plus agile et adaptable, capable de gérer les fluctuations du trafic et des charges de travail sans intervention manuelle, garantissant ainsi des opérations transparentes et une meilleure expérience utilisateur.
Pour que les solutions d'IA puissent gérer et optimiser les centres de données, un accès en temps réel aux données et métadonnées est nécessaire, y compris la consommation de ressources et les informations de configuration des services clés. Ceci peut être réalisé en mettant en œuvre une structure décentralisée de données et de métadonnées qui fournit un accès standardisé aux données et un traitement distribué des requêtes sur différentes sources de données. De plus, les modèles d’IA doivent être équipés d’outils permettant d’accéder au bon type d’informations selon les besoins. Ces soi-disant agents (c'est-à-dire les modèles ML/IA avec accès aux outils) sont optimisés pour effectuer les tâches requises pour gérer de manière optimale les centres de données.
Bien que les avantages potentiels de l'intelligence artificielle et de l'apprentissage automatique dans les centres de données soient indéniables, ils doivent être considérées comme leurs propres impacts environnementaux potentiels. À mesure que le boom de l’IA se poursuit, l’empreinte carbone des centres de données est susceptible d’augmenter en raison de l’augmentation de la consommation d’énergie et des exigences matérielles. Cela souligne la nécessité d’une mise en œuvre responsable et durable de l’IA.
Les opérateurs de centres de données doivent utiliser ces technologies puissantes à bon escient, en se concentrant sur le matériel économe en énergie et les algorithmes d'optimisation. L’intelligence artificielle et l’apprentissage automatique peuvent également être utilisés pour développer des systèmes de refroidissement intelligents qui ajustent intelligemment le refroidissement en fonction de données en temps réel, réduisant ainsi le gaspillage d’énergie.
Pour réduire davantage l'empreinte carbone (tout en améliorant la sécurité et les performances), nous vous recommandons d'utiliser Rust pour réimplémenter les services JAVA. De plus, même si la transition des machines virtuelles vers les conteneurs Linux est encore en cours, nous prévoyons que de plus en plus de services seront implémentés sous la forme de modules WASM, ce qui contribuera également à améliorer l'efficacité et la sécurité
L'essor de l'intelligence artificielle et de l'apprentissage automatique a ouvert de nouveaux domaines de possibilités pour l'industrie des centres de données. Des économies d'énergie au dépannage amélioré en passant par une robustesse accrue et une efficacité opérationnelle améliorée, ces technologies ont le potentiel de révolutionner les opérations des centres de données et de conduire l'industrie vers un avenir plus durable. Cependant, il est crucial que l’IA et l’apprentissage automatique soient mis en œuvre de manière responsable et consciente, en tenant compte de leur impact sur l’environnement et en les utilisant comme des outils pour relever les défis du développement durable plutôt que de les exacerber. Avec la bonne approche, l’IA et l’apprentissage automatique peuvent véritablement transformer le secteur des centres de données et ouvrir la voie à un avenir axé sur les données
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Ce site a rapporté le 27 juin que Jianying est un logiciel de montage vidéo développé par FaceMeng Technology, une filiale de ByteDance. Il s'appuie sur la plateforme Douyin et produit essentiellement du contenu vidéo court pour les utilisateurs de la plateforme. Il est compatible avec iOS, Android et. Windows, MacOS et autres systèmes d'exploitation. Jianying a officiellement annoncé la mise à niveau de son système d'adhésion et a lancé un nouveau SVIP, qui comprend une variété de technologies noires d'IA, telles que la traduction intelligente, la mise en évidence intelligente, l'emballage intelligent, la synthèse humaine numérique, etc. En termes de prix, les frais mensuels pour le clipping SVIP sont de 79 yuans, les frais annuels sont de 599 yuans (attention sur ce site : équivalent à 49,9 yuans par mois), l'abonnement mensuel continu est de 59 yuans par mois et l'abonnement annuel continu est de 59 yuans par mois. est de 499 yuans par an (équivalent à 41,6 yuans par mois) . En outre, le responsable de Cut a également déclaré que afin d'améliorer l'expérience utilisateur, ceux qui se sont abonnés au VIP d'origine

Améliorez la productivité, l’efficacité et la précision des développeurs en intégrant une génération et une mémoire sémantique améliorées par la récupération dans les assistants de codage IA. Traduit de EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, auteur JanakiramMSV. Bien que les assistants de programmation d'IA de base soient naturellement utiles, ils ne parviennent souvent pas à fournir les suggestions de code les plus pertinentes et les plus correctes, car ils s'appuient sur une compréhension générale du langage logiciel et des modèles d'écriture de logiciels les plus courants. Le code généré par ces assistants de codage est adapté à la résolution des problèmes qu’ils sont chargés de résoudre, mais n’est souvent pas conforme aux normes, conventions et styles de codage des équipes individuelles. Cela aboutit souvent à des suggestions qui doivent être modifiées ou affinées pour que le code soit accepté dans l'application.

Pour en savoir plus sur l'AIGC, veuillez visiter : 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou est différent de la banque de questions traditionnelle que l'on peut voir partout sur Internet. nécessite de sortir des sentiers battus. Les grands modèles linguistiques (LLM) sont de plus en plus importants dans les domaines de la science des données, de l'intelligence artificielle générative (GenAI) et de l'intelligence artificielle. Ces algorithmes complexes améliorent les compétences humaines et stimulent l’efficacité et l’innovation dans de nombreux secteurs, devenant ainsi la clé permettant aux entreprises de rester compétitives. LLM a un large éventail d'applications. Il peut être utilisé dans des domaines tels que le traitement du langage naturel, la génération de texte, la reconnaissance vocale et les systèmes de recommandation. En apprenant de grandes quantités de données, LLM est capable de générer du texte

Les grands modèles linguistiques (LLM) sont formés sur d'énormes bases de données textuelles, où ils acquièrent de grandes quantités de connaissances du monde réel. Ces connaissances sont intégrées à leurs paramètres et peuvent ensuite être utilisées en cas de besoin. La connaissance de ces modèles est « réifiée » en fin de formation. À la fin de la pré-formation, le modèle arrête effectivement d’apprendre. Alignez ou affinez le modèle pour apprendre à exploiter ces connaissances et répondre plus naturellement aux questions des utilisateurs. Mais parfois, la connaissance du modèle ne suffit pas, et bien que le modèle puisse accéder à du contenu externe via RAG, il est considéré comme bénéfique de l'adapter à de nouveaux domaines grâce à un réglage fin. Ce réglage fin est effectué à l'aide de la contribution d'annotateurs humains ou d'autres créations LLM, où le modèle rencontre des connaissances supplémentaires du monde réel et les intègre.

Selon des informations publiées sur ce site Web le 18 juin, Samsung Semiconductor a récemment présenté sur son blog technologique son disque SSD de nouvelle génération de qualité centre de données BM1743, équipé de sa dernière mémoire flash QLC (v7). ▲Disque SSD de qualité centre de données Samsung QLC BM1743 Selon TrendForce en avril, dans le domaine des disques SSD de qualité centre de données QLC, seuls Samsung et Solidigm, une filiale de SK Hynix, avaient réussi la vérification du client d'entreprise à ce temps. Par rapport à la génération précédente v5QLCV-NAND (remarque sur ce site : Samsung v6V-NAND n'a pas de produits QLC), la mémoire flash Samsung v7QLCV-NAND a presque doublé le nombre de couches d'empilement et la densité de stockage a également été considérablement améliorée. Dans le même temps, la fluidité de v7QLCV-NAND

L'ensemble de données ScienceAI Question Answering (QA) joue un rôle essentiel dans la promotion de la recherche sur le traitement du langage naturel (NLP). Des ensembles de données d'assurance qualité de haute qualité peuvent non seulement être utilisés pour affiner les modèles, mais également évaluer efficacement les capacités des grands modèles linguistiques (LLM), en particulier la capacité à comprendre et à raisonner sur les connaissances scientifiques. Bien qu’il existe actuellement de nombreux ensembles de données scientifiques d’assurance qualité couvrant la médecine, la chimie, la biologie et d’autres domaines, ces ensembles de données présentent encore certaines lacunes. Premièrement, le formulaire de données est relativement simple, et la plupart sont des questions à choix multiples. Elles sont faciles à évaluer, mais limitent la plage de sélection des réponses du modèle et ne peuvent pas tester pleinement la capacité du modèle à répondre aux questions scientifiques. En revanche, les questions et réponses ouvertes

L'apprentissage automatique est une branche importante de l'intelligence artificielle qui donne aux ordinateurs la possibilité d'apprendre à partir de données et d'améliorer leurs capacités sans être explicitement programmés. L'apprentissage automatique a un large éventail d'applications dans divers domaines, de la reconnaissance d'images et du traitement du langage naturel aux systèmes de recommandation et à la détection des fraudes, et il change notre façon de vivre. Il existe de nombreuses méthodes et théories différentes dans le domaine de l'apprentissage automatique, parmi lesquelles les cinq méthodes les plus influentes sont appelées les « Cinq écoles d'apprentissage automatique ». Les cinq grandes écoles sont l’école symbolique, l’école connexionniste, l’école évolutionniste, l’école bayésienne et l’école analogique. 1. Le symbolisme, également connu sous le nom de symbolisme, met l'accent sur l'utilisation de symboles pour le raisonnement logique et l'expression des connaissances. Cette école de pensée estime que l'apprentissage est un processus de déduction inversée, à travers les connaissances existantes.

Editeur | KX Dans le domaine de la recherche et du développement de médicaments, il est crucial de prédire avec précision et efficacité l'affinité de liaison des protéines et des ligands pour le criblage et l'optimisation des médicaments. Cependant, les études actuelles ne prennent pas en compte le rôle important des informations sur la surface moléculaire dans les interactions protéine-ligand. Sur cette base, des chercheurs de l'Université de Xiamen ont proposé un nouveau cadre d'extraction de caractéristiques multimodales (MFE), qui combine pour la première fois des informations sur la surface des protéines, la structure et la séquence 3D, et utilise un mécanisme d'attention croisée pour comparer différentes modalités. alignement. Les résultats expérimentaux démontrent que cette méthode atteint des performances de pointe dans la prédiction des affinités de liaison protéine-ligand. De plus, les études d’ablation démontrent l’efficacité et la nécessité des informations sur la surface des protéines et de l’alignement des caractéristiques multimodales dans ce cadre. Les recherches connexes commencent par "S
