Le coût et la durabilité de l'IA générative
Tous ceux qui utilisent DALL-E pour créer des images ou qui laissent ChatGPT rédiger une dissertation consomment beaucoup de ressources cloud. Qui va payer pour tout cela ?
Traducteur | Bugatti
Reviewer | Sun Shujuan
L'intelligence artificielle (IA) est une technologie gourmande en ressources pour toute plateforme (y compris le cloud public). La plupart des technologies d'IA nécessitent de grandes quantités de calculs d'inférence, augmentant ainsi la demande en ressources de processeur, de réseau et de stockage, ce qui, à terme, augmente les factures d'électricité, les coûts d'infrastructure et les émissions de carbone.
La montée en puissance des systèmes d’IA générative tels que ChatGPT a une fois de plus mis cette question au premier plan. Compte tenu de la popularité de cette technologie et de son utilisation probablement généralisée par les entreprises, les gouvernements et le grand public, on peut s’attendre à un arc inquiétant dans la courbe de croissance de la consommation d’énergie.
L'IA est réalisable depuis les années 1970, mais n'a initialement pas eu beaucoup d'impact commercial étant donné que les systèmes d'IA matures et complets nécessitent beaucoup de ressources pour fonctionner correctement. Je me souviens d'un système basé sur l'IA que j'ai conçu dans la vingtaine et qui nécessitait plus de 40 millions de dollars en matériel, logiciels et espace de centre de données pour le faire fonctionner. Par ailleurs, ce projet, comme beaucoup d’autres projets d’IA, n’a jamais vu de date de sortie et la solution commerciale n’était tout simplement pas viable.
Le cloud computing change tout. Avec le cloud public, les tâches qui étaient autrefois hors de portée peuvent désormais être traitées avec une rentabilité suffisamment importante. En fait, comme vous l’avez peut-être deviné, l’essor du cloud computing est parallèle à celui de l’IA au cours des 10 à 15 dernières années, et je dirais que les deux sont désormais étroitement liés.
Durabilité et coût des ressources cloud
En fait, il ne faut pas beaucoup de recherches pour prédire ce qui se passera dans ce domaine. La demande du marché pour les services d’IA va monter en flèche, comme les systèmes d’IA générative et d’autres systèmes d’IA et d’apprentissage automatique qui sont désormais très populaires. En tête de peloton, ce seront les entreprises qui recherchent un avantage grâce à l'innovation (comme les chaînes d'approvisionnement intelligentes), ou même les milliers d'étudiants qui se tournent vers les systèmes d'IA générative pour rédiger leurs travaux de session.
La demande accrue d'IA signifie une demande accrue pour les ressources utilisées par ces systèmes d'IA, telles que les cloud publics et les services qu'ils fournissent. Cette demande sera probablement satisfaite par davantage de centres de données hébergeant des serveurs et des équipements réseau gourmands en énergie.
Les fournisseurs de cloud public, comme tout autre fournisseur de ressources de services publics, augmenteront leurs prix à mesure que la demande augmente, tout comme nous constatons des augmentations saisonnières des factures d'électricité résidentielles (encore une fois en fonction de la demande). Par conséquent, nous contrôlons généralement la consommation d’électricité et augmentons la température du climatiseur en été.
Cependant, les coûts plus élevés du cloud computing n’auront peut-être pas le même impact sur les entreprises. Les entreprises peuvent constater que ces systèmes d’IA ne sont pas superflus, mais nécessaires pour piloter certains processus métier clés. Dans de nombreux cas, ils peuvent essayer d’économiser de l’argent en interne, peut-être en réduisant les effectifs pour compenser le coût des systèmes d’IA. Ce n’est un secret pour personne : les systèmes d’IA générative remplaceront bientôt de nombreux travailleurs de l’information.
Que pouvons-nous faire ?
Si la demande de ressources pour faire fonctionner les systèmes d’IA entraîne une augmentation des coûts de calcul et des émissions de carbone, que pouvons-nous faire pour y remédier ? La réponse réside peut-être dans la recherche de moyens plus efficaces permettant à l’IA d’utiliser pleinement les ressources telles que les processeurs, les réseaux et le stockage.
Par exemple, l'échantillonnage du pipeline peut accélérer l'apprentissage profond en réduisant la quantité de données traitées. Des recherches du Massachusetts Institute of Technology (MIT) et d'IBM montrent que l'utilisation de cette approche peut réduire les ressources nécessaires pour exécuter des réseaux neuronaux sur de grands ensembles de données. Cependant, cela limite également la précision, ce qui est acceptable pour certains cas d'utilisation professionnelle mais pas pour tous.
Une autre approche déjà utilisée dans d’autres domaines technologiques est l’informatique en mémoire. Cette architecture peut accélérer le traitement de l’IA en évitant que les données entrent et sortent de la mémoire. Au lieu de cela, les calculs de l'IA s'exécutent directement dans le module de mémoire, ce qui accélère considérablement les choses.
D'autres approches sont en cours de développement, comme le changement de processeur physique (en utilisant des coprocesseurs pour gérer les calculs de l'IA afin d'augmenter la vitesse) ou l'adoption de modèles informatiques de nouvelle génération comme l'informatique quantique. Vous pouvez vous attendre à ce que les grands fournisseurs de cloud public annoncent prochainement des technologies qui résoudront bon nombre de ces problèmes.
Que devez-vous faire ?
Cet article n'a pas pour but d'éviter l'IA pour réduire les coûts du cloud computing ou sauver la planète. L’IA est une méthode informatique fondamentale que la plupart des entreprises peuvent utiliser pour créer une valeur considérable.
Il est recommandé que lorsque vous entreprenez un projet de développement basé sur l'IA ou un nouveau projet de développement de système d'IA, vous compreniez clairement l'impact sur le coût et la durabilité, car les deux sont étroitement liés. Vous devez faire un choix coût/bénéfice, ce qui revient vraiment au vieux sujet de la valeur que vous pouvez apporter à l'entreprise pour le coût et le risque que vous devez prendre. Rien de nouveau ici.
Je pense que ce problème devrait en grande partie être résolu grâce à l'innovation, qu'il s'agisse de l'informatique en mémoire, de l'informatique quantique ou d'autres technologies qui n'ont pas encore émergé. Les fournisseurs de technologies d’IA et les fournisseurs de cloud computing souhaitent rendre l’IA plus rentable, plus économe en énergie et plus respectueuse de l’environnement, ce qui est une bonne nouvelle.
Titre original : Le coût et la durabilité de l'IA générative, auteur : David S. Linthicum
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Le DALL-E 3 a été officiellement introduit en septembre 2023 en tant que modèle considérablement amélioré par rapport à son prédécesseur. Il est considéré comme l’un des meilleurs générateurs d’images IA à ce jour, capable de créer des images avec des détails complexes. Cependant, au lancement, c'était exclu

Ce site a rapporté le 27 juin que Jianying est un logiciel de montage vidéo développé par FaceMeng Technology, une filiale de ByteDance. Il s'appuie sur la plateforme Douyin et produit essentiellement du contenu vidéo court pour les utilisateurs de la plateforme. Il est compatible avec iOS, Android et. Windows, MacOS et autres systèmes d'exploitation. Jianying a officiellement annoncé la mise à niveau de son système d'adhésion et a lancé un nouveau SVIP, qui comprend une variété de technologies noires d'IA, telles que la traduction intelligente, la mise en évidence intelligente, l'emballage intelligent, la synthèse humaine numérique, etc. En termes de prix, les frais mensuels pour le clipping SVIP sont de 79 yuans, les frais annuels sont de 599 yuans (attention sur ce site : équivalent à 49,9 yuans par mois), l'abonnement mensuel continu est de 59 yuans par mois et l'abonnement annuel continu est de 59 yuans par mois. est de 499 yuans par an (équivalent à 41,6 yuans par mois) . En outre, le responsable de Cut a également déclaré que afin d'améliorer l'expérience utilisateur, ceux qui se sont abonnés au VIP d'origine

Selon des informations publiées sur ce site le 31 juillet, le géant de la technologie Amazon a poursuivi mardi la société de télécommunications finlandaise Nokia devant le tribunal fédéral du Delaware, l'accusant d'avoir violé plus d'une douzaine de brevets d'Amazon liés à la technologie de cloud computing. 1. Amazon a déclaré dans le procès que Nokia avait abusé des technologies liées à Amazon Cloud Computing Service (AWS), notamment l'infrastructure de cloud computing, les technologies de sécurité et de performance, pour améliorer ses propres produits de services cloud. Amazon a lancé AWS en 2006 et sa technologie révolutionnaire de cloud computing a été développée depuis le début des années 2000, indique la plainte. "Amazon est un pionnier du cloud computing et Nokia utilise désormais les innovations brevetées d'Amazon en matière de cloud computing sans autorisation", indique la plainte. Amazon demande au tribunal une injonction de blocage

L'ensemble de données ScienceAI Question Answering (QA) joue un rôle essentiel dans la promotion de la recherche sur le traitement du langage naturel (NLP). Des ensembles de données d'assurance qualité de haute qualité peuvent non seulement être utilisés pour affiner les modèles, mais également évaluer efficacement les capacités des grands modèles linguistiques (LLM), en particulier la capacité à comprendre et à raisonner sur les connaissances scientifiques. Bien qu’il existe actuellement de nombreux ensembles de données scientifiques d’assurance qualité couvrant la médecine, la chimie, la biologie et d’autres domaines, ces ensembles de données présentent encore certaines lacunes. Premièrement, le formulaire de données est relativement simple, et la plupart sont des questions à choix multiples. Elles sont faciles à évaluer, mais limitent la plage de sélection des réponses du modèle et ne peuvent pas tester pleinement la capacité du modèle à répondre aux questions scientifiques. En revanche, les questions et réponses ouvertes

Selon les informations de ce site le 1er août, SK Hynix a publié un article de blog aujourd'hui (1er août), annonçant sa participation au Global Semiconductor Memory Summit FMS2024 qui se tiendra à Santa Clara, Californie, États-Unis, du 6 au 8 août, présentant de nombreuses nouvelles technologies de produit. Introduction au Future Memory and Storage Summit (FutureMemoryandStorage), anciennement Flash Memory Summit (FlashMemorySummit) principalement destiné aux fournisseurs de NAND, dans le contexte de l'attention croissante portée à la technologie de l'intelligence artificielle, cette année a été rebaptisée Future Memory and Storage Summit (FutureMemoryandStorage) pour invitez les fournisseurs de DRAM et de stockage et bien d’autres joueurs. Nouveau produit SK hynix lancé l'année dernière

Editeur | KX Dans le domaine de la recherche et du développement de médicaments, il est crucial de prédire avec précision et efficacité l'affinité de liaison des protéines et des ligands pour le criblage et l'optimisation des médicaments. Cependant, les études actuelles ne prennent pas en compte le rôle important des informations sur la surface moléculaire dans les interactions protéine-ligand. Sur cette base, des chercheurs de l'Université de Xiamen ont proposé un nouveau cadre d'extraction de caractéristiques multimodales (MFE), qui combine pour la première fois des informations sur la surface des protéines, la structure et la séquence 3D, et utilise un mécanisme d'attention croisée pour comparer différentes modalités. alignement. Les résultats expérimentaux démontrent que cette méthode atteint des performances de pointe dans la prédiction des affinités de liaison protéine-ligand. De plus, les études d’ablation démontrent l’efficacité et la nécessité des informations sur la surface des protéines et de l’alignement des caractéristiques multimodales dans ce cadre. Les recherches connexes commencent par "S

Selon les informations de ce site Web du 5 juillet, GlobalFoundries a publié un communiqué de presse le 1er juillet de cette année, annonçant l'acquisition de la technologie de nitrure de gallium (GaN) et du portefeuille de propriété intellectuelle de Tagore Technology, dans l'espoir d'élargir sa part de marché dans l'automobile et Internet. des objets et des domaines d'application des centres de données d'intelligence artificielle pour explorer une efficacité plus élevée et de meilleures performances. Alors que des technologies telles que l’intelligence artificielle générative (GenerativeAI) continuent de se développer dans le monde numérique, le nitrure de gallium (GaN) est devenu une solution clé pour une gestion durable et efficace de l’énergie, notamment dans les centres de données. Ce site Web citait l'annonce officielle selon laquelle, lors de cette acquisition, l'équipe d'ingénierie de Tagore Technology rejoindrait GF pour développer davantage la technologie du nitrure de gallium. g

L’Open AI fait enfin son incursion dans la recherche. La société de San Francisco a récemment annoncé un nouvel outil d'IA doté de capacités de recherche. Rapporté pour la première fois par The Information en février de cette année, le nouvel outil s'appelle à juste titre SearchGPT et propose un c
