Maison > web3.0 > ELM – Une solution au problème d'alimentation

ELM – Une solution au problème d'alimentation

WBOY
Libérer: 2024-07-16 02:15:30
original
308 Les gens l'ont consulté

Le réseau électrique américain ne sera tout simplement pas en mesure de gérer l’augmentation de la charge sans investissements importants – Goldman Sachs estime l’investissement requis à plus de 50 milliards de dollars. Cela survient à un moment où le pays s'est déjà engagé à investir massivement dans la modernisation du réseau (22 milliards de dollars depuis 2021) afin de répondre aux demandes croissantes découlant des initiatives nationales visant à abandonner les appareils au gaz naturel, l'expansion du marché des véhicules électriques, les opérations d'extraction de crypto-monnaie, les activités domestiques. fabrication et le besoin croissant de se prémunir contre les perturbations causées par des événements météorologiques extrêmes ou un risque accru de cyberattaques.

ELM – A Solution To The Power Problem

La demande croissante d'électricité pose un défi important, en particulier compte tenu de l'infrastructure vieillissante du réseau électrique américain. Pour répondre aux besoins croissants, des investissements substantiels sont cruciaux. Goldman Sachs a souligné le besoin urgent de plus de 50 milliards de dollars pour moderniser le réseau. Cela arrive à un moment où le pays est déjà engagé dans des efforts importants pour améliorer la capacité du réseau. Depuis 2021, environ 22 milliards de dollars ont été alloués à ces améliorations. Ces initiatives visent à soutenir les demandes croissantes découlant des efforts nationaux visant à abandonner les appareils au gaz naturel, à renforcer le marché des véhicules électriques, à accueillir les opérations d’extraction de crypto-monnaie et à favoriser la fabrication nationale. De plus, il existe un besoin urgent de se prémunir contre les perturbations causées par des événements météorologiques extrêmes ou le risque croissant de cyberattaques.

Les solutions aux gros problèmes peuvent être étonnamment petites

Nous avons déjà rencontré des défis similaires ; en 2023, nous sommes passés des ampoules à incandescence à des alternatives économes en énergie au niveau fédéral afin de réduire la demande d'électricité sur notre infrastructure nationale. Bien qu’aucune ampoule individuelle ne pose de problème majeur, le volume même a eu un impact significatif. De même, des applications d'IA émergent désormais, présentant un large éventail d'utilisations et n'étant potentiellement limitées que par leur efficacité à grande échelle.

L'état actuel de l'IA imite l'introduction de l'électricité, car elle est sur le point de permettre de nouvelles industries majeures et de stimuler les économies. Aujourd’hui, l’IA s’appuie fortement sur les unités de traitement graphique (GPU), qui sont des processeurs spécialisés conçus à l’origine pour accélérer le rendu graphique. La structure parallèle des GPU est également idéale pour la formation traditionnelle des applications sur des modèles d’IA et est largement utilisée dans l’intelligence artificielle des objets (AIoT), ce qui soulève des problèmes d’efficacité à grande échelle. Les entreprises d’IA sur-déploient effectivement les processeurs les plus avancés et les plus énergivores pour répondre à certains de leurs besoins d’applications les plus simples. Même si une approche universelle peut fonctionner dans les premières applications d'IA, elle ne peut tout simplement pas constituer la norme durable pour toutes les implémentations d'IA.

L'incapacité d'adapter la sécurité, l'évolutivité et l'efficacité des solutions d'IA à des applications spécifiques est un peu comme conduire un semi-remorque pour aller chercher vos courses. Même s'il fera certainement l'affaire, il n'est pas optimisé pour la plupart des tâches car il est extrêmement inefficace et coûteux. C’est cette inadéquation entre les besoins des applications qui entraîne un large éventail de conséquences imprévues. La demande croissante d’IA est indéniable, mais lorsque l’IA s’appuie sur des GPU, les applications qui en résultent surchargent notre infrastructure déjà fragile.

Les entreprises d’IA doivent rechercher des moyens alternatifs pour aligner les besoins des applications afin de s’écarter de cette voie qui pourrait menacer notre Infrastructure. Des entreprises comme Brand Engagement Network Inc. ou BEN BNAI en sont conscientes et ont optimisé leurs solutions pour offrir la puissance et les performances de l'IA tout en le faisant d'une manière qui peut être évolutive et supportable.

ELM de BEN - Une solution au problème d'alimentation

Alors, comment BEN fait-il ? Grâce à ses modèles de langage efficaces (ELM) : une combinaison de sectionnement et d'optimisation de modèles de langage pour des tâches spécialisées. Cette technologie en instance de brevet se concentre sur l'efficacité et la spécialisation des applications, ce qui contraste avec les LLM plus traditionnels comme ceux utilisés par ChatGPT d'OpenAI qui tentent de tout généraliser dans un modèle aveugle à des fins génératives.

Bien que cela puisse sembler une petite distinction, la puissance de calcul et de traitement requise dans chaque approche diffère considérablement. Lorsque les LLM traditionnels utilisent des modèles tout compris, cela signifie que leurs solutions ne sont pas définies. Ils chargent leur solution d'IA de répondre à tous les besoins de tous les défis ou applications. Non seulement cela augmente la probabilité d'erreurs générées, mais cela nécessite également un traitement parallèle massif et, lorsqu'il fonctionne dans le but de répondre en temps opportun, nécessite l'utilisation de GPU. L'ELM de BEN, quant à lui, se concentre sur les besoins d'applications définis et permet une solution sécurisée, à faible encombrement et concentrée. Cela signifie que les solutions ciblées avec l'ELM peuvent fonctionner avec les ressources limitées des processeurs, qui sont plus facilement disponibles, coûtent nettement moins cher et utilisent moins de puissance de traitement.

Les dépendances sur les processeurs offrent de nombreuses autres options de déploiement, notamment SaaS, Private Cloud, Des solutions mobiles et sur site pour lesquelles des secteurs tels que la santé et les services financiers ont eu du mal à minimiser le risque potentiel de violations et de fuites de données. En règle générale, les processeurs sont nettement moins chers à déployer et à exploiter, déjà établis sur le marché et, surtout, disponibles en grandes quantités. Ce n'est pas le cas des GPU, qui sont au milieu d'un problème de disponibilité qui a même contraint Elon Musk à faire preuve de créativité dans l'achat de ces unités de traitement pour ses différentes entreprises.

ELM + RAFT : Combinaison puissante mais efficace

L'ELM de BEN complète également les systèmes RAFT (Retrieval Augmented Fine-Tuning) pour garantir que ses applications sont fiables, prévisibles et efficaces. Un défi important posé par l'IA est le risque d'« hallucinations » où l'IA donne des réponses trompeuses ou carrément fausses, car elle est construite sur des sources de données inconnues et conçue pour générer une réponse quoi qu'il arrive. Les hallucinations ressemblent beaucoup à l’énergie thermique gaspillée par les lampes à incandescence. Ils nécessitent toujours la même puissance pour générer la réponse, mais constituent une conséquence involontaire de la technologie LLM traditionnelle. Certaines estimations indiquent que des hallucinations peuvent survenir

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

source:kdj.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal