Si vous recherchez des sujets intéressants, l'Intelligence Artificielle (IA) ne vous décevra pas. L'intelligence artificielle englobe un ensemble d'algorithmes statistiques puissants et époustouflants qui peuvent jouer aux échecs, déchiffrer une écriture manuscrite bâclée, comprendre la parole, classer des images satellite, et bien plus encore. La disponibilité d’ensembles de données géants pour la formation de modèles d’apprentissage automatique a été l’un des facteurs clés du succès de l’intelligence artificielle. Mais tout ce travail informatique n’est pas gratuit. Certains experts en IA sont de plus en plus préoccupés par les impacts environnementaux associés à la création de nouveaux algorithmes, un débat qui a suscité de nouvelles idées sur la manière de permettre aux machines d'apprendre plus efficacement afin de réduire l'empreinte carbone de l'IA.
Pour entrer dans les détails, nous devons d'abord considérer les milliers de centres de données (disséminés dans le monde) qui gèrent nos demandes informatiques 24h/24 et 7j/7. Pour les chercheurs en IA, ces tâches incluent la formation d’algorithmes multicouches avec des milliards d’éléments de données (ou jetons – des bits de mots équivalents à quatre caractères ou environ 3/4 d’un mot en anglais). L’effort de calcul impliqué est étonnant. La société d'infrastructure d'intelligence artificielle Lambda fournit des faits intéressants sur GPT-3, le puissant modèle de langage naturel d'OpenAI pour générer du texte de type humain. Selon l'analyse de Lambda, si vous vouliez entraîner le modèle de 175 milliards de paramètres du GPT-3 sur un seul NVIDIA RTX 8000, cela prendrait 665 ans, ce qui n'est pas en reste lorsqu'il s'agit de cartes graphiques.
En termes simples, plus le modèle est grand, meilleures sont les performances. L'équipe de Lambda a souligné que la taille des modèles de langage de pointe augmente à un rythme de 10 fois par an, ce qui nous ramène aux préoccupations concernant. la croissance des empreintes de l’IA. De retour au centre de données, il est possible d'ajouter d'autres chiffres à la discussion, du moins à un niveau élevé. Selon les estimations de l'Agence internationale de l'énergie (AIE), la consommation totale d'électricité des centres de données mondiaux se situe entre 200 et 250 TWh. Pour rendre ce chiffre plus facile à visualiser, en supposant que les locomotives et le matériel roulant consomment en moyenne 2,5 kilowattheures par kilomètre parcouru, 225 térawattheures suffisent pour permettre à un train électrique à grande vitesse de parcourir 9 millions de kilomètres. Même si seule une partie (dans les centres de données) sera utilisée pour entraîner et exécuter des modèles d’IA, des sources indiquent que les demandes informatiques en matière d’apprentissage automatique et de formation dépassent la croissance moyenne de l’activité des centres de données.
À ce stade, il est juste de reconnaître que les centres de données réussissent bien à gérer leurs besoins énergétiques – les préoccupations environnementales sont un facteur de motivation, mais il convient de mentionner que l'électricité représente une dépense d'exploitation importante pour chaque installation qui est toutes « essentielle à sa mission ». Malgré une augmentation du trafic Internet mondial, en hausse de 40 % rien qu’en 2020, la consommation énergétique des centres de données est restée relativement stable au cours de la dernière décennie. "La forte croissance de la demande de services de centres de données continue d'être compensée par des gains d'efficacité continus dans les serveurs, le stockage, les commutateurs réseau et l'infrastructure des centres de données, ainsi que par la part croissante des services assurés par des centres de données cloud et hyperscale efficaces", a déclaré l'AIE. a écrit.
De plus, les opérateurs de centres de données verticalement intégrés comme Amazon, Google, Facebook, etc. ajouteront bientôt que leurs installations sont alimentées par des énergies renouvelables. Naturellement, cela réduit la charge environnementale du traitement des données, dans la mesure où l’électricité nécessaire à l’alimentation des racks de matériel informatique et aux services auxiliaires nécessaires tels que le chauffage, la climatisation et l’éclairage peut provenir du soleil et du vent. Cependant, comme le Financial Times ne l’a pas choisi, même si un accord énergétique sur un centre de données peut compenser 100 % de sa consommation électrique par des énergies renouvelables, les installations peuvent toujours consommer des combustibles fossiles lorsque l’énergie éolienne et solaire n’est pas disponible. Il faut également prendre en compte les émissions de carbone intégrées au dispositif informatique lui-même, car les méthodes de fabrication et les activités d’approvisionnement en composants et matériaux créent également des émissions de carbone – ce que Microsoft reconnaît.
Plus tôt cette année, Microsoft a abordé le sujet de la formation efficace des modèles dans un récent article de blog. Les développeurs sont occupés à explorer les moyens de réduire l’empreinte carbone de l’IA, ou du moins de freiner sa croissance. Les étapes ici incluent la recherche de moyens de réduire les besoins en calcul et en mémoire lors du réglage fin du modèle, avec des recommandations recommandant de diviser par trois l'utilisation du GPU au cours de cette étape du processus. La compression du modèle s'avère également prometteuse, dans laquelle les sous-couches de données d'IA sont élaguées en versions plus clairsemées mais toujours représentatives de conditions précédemment combinées. Ici, la recherche montre que la compression des modèles peut nécessiter environ 40 % de temps de formation en moins tout en obtenant des résultats algorithmiques similaires.
Les développeurs peuvent également bénéficier d'outils de veille qui permettront de repérer les gains réalisés en optimisant le code ou les modalités d'hébergement des données. "CodeCarbon est un progiciel léger qui s'intègre parfaitement à votre base de code Python", écrivent les inventeurs, qui mettent leur outil à disposition gratuitement. "Il estime la quantité de dioxyde de carbone (CO2) produite par les ressources cloud ou informatiques personnelles utilisées pour exécuter du code."
Le cycle va et vient, et une IA plus économe en énergie pourrait être déployée à l’avenir pour aider à guider des opérations de centre de données plus efficaces afin de réduire – vous l’aurez deviné – l’empreinte carbone de l’IA. Aujourd'hui, Cirrus Nexus propose un logiciel que les opérateurs de centres de données peuvent utiliser pour attribuer un coût au carbone et le propager via des algorithmes d'intelligence artificielle. Les résultats montrent non seulement les calculs de CO2, mais fournissent également un aperçu de la manière dont les utilisateurs peuvent configurer leurs installations pour maximiser les avantages environnementaux disponibles.
Rendre visible l’empreinte carbone des algorithmes qui alimentent la technologie actuelle aide de plusieurs manières. Cela ouvre des discussions sur les moyens les plus efficaces de former l'intelligence artificielle du futur, rendant les services informatiques et leurs clients plus responsables des coûts environnementaux de l'informatique. En fin de compte, cela pourrait être bon pour les affaires. Notamment, Amazon a publié un outil d'empreinte carbone client plus tôt cette année, et d'autres grandes entreprises telles que Google permettent aux clients d'exporter des informations sur les émissions de carbone du cloud – un service actuellement en avant-première.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!