


Comment l'informatique de pointe aide les entreprises à réduire leurs coûts et à accroître leur efficacité
De plus en plus d'espoirs sont placés dans l'informatique de pointe, ce qui rend le secteur plein d'idées audacieuses, telles que « la périphérie va manger le cloud » et l'automatisation en temps réel deviendra courante dans les soins de santé, la vente au détail et l'industrie manufacturière.
Aujourd'hui, de plus en plus d'experts estiment que l'edge computing jouera un rôle clé dans la transformation numérique de presque toutes les entreprises. Mais les progrès ont été lents. La pensée traditionnelle empêche les entreprises de tirer pleinement parti de la prise de décision et de l’allocation des ressources en temps réel. Pour comprendre comment et pourquoi cela s’est produit, revenons sur la première vague de l’informatique de pointe et sur ce qui s’est passé depuis.
Première vague de Edge Computing : Internet des objets (IoT)
Pour la plupart des secteurs, le concept de Edge est étroitement lié à la première vague de l'Internet des objets (IoT). À l’époque, l’accent était mis sur la collecte de données provenant de petits capteurs fixés sur tout, puis sur la transmission de ces données vers un emplacement central, tel que le cloud ou un centre de données principal.
Ces flux de données doivent ensuite être corrélés à ce que l'on appelle communément la fusion de capteurs. À l’époque, les aspects économiques des capteurs, la durée de vie des batteries et l’ubiquité entraînaient souvent des flux de données trop limités et de faible fidélité. De plus, la modernisation des équipements existants avec des capteurs est souvent coûteuse. Bien que les capteurs eux-mêmes soient peu coûteux, leur installation prend du temps et nécessite un personnel qualifié. Enfin, l'expertise requise pour analyser les données à l'aide de la fusion de capteurs est intégrée dans la base de connaissances des employés de l'ensemble de l'organisation. Cela a conduit à un ralentissement de l’adoption de l’IoT.
De plus, les préoccupations concernant la sécurité ont également affecté l'application à grande échelle de l'Internet des objets. Le calcul est simple : des milliers d’appareils connectés répartis sur plusieurs sites équivalent à une quantité d’exposition massive et souvent inconnue. Les risques potentiels étant supérieurs aux avantages non prouvés, nombreux sont ceux qui estiment qu’il est prudent d’adopter une approche attentiste.
Au-delà de l'IoT 1.0
Il devient de plus en plus clair que la périphérie ne concerne pas l'IoT,
mais la prise de décision en temps réel pour les opérations sur des sites et des zones géographiques distribués. En informatique, et de plus en plus dans les environnements industriels, nous appelons ces sources de données distribuées la périphérie. Nous appelons la prise de décision à partir de tous ces emplacements en dehors du centre de données ou du cloud computing.
De nos jours, la frontière est partout
—là où nous vivons, là où nous travaillons et là où se déroulent les activités humaines. La couverture clairsemée des capteurs a été corrigée avec des capteurs plus récents et plus flexibles. Les nouveaux actifs et technologies s’accompagnent d’une large gamme de capteurs intégrés. Les capteurs sont désormais souvent complétés par une imagerie haute résolution/haute fidélité (équipement à rayons X, lidar). La raison est simple : il n'y a pas suffisamment de bande passante et de temps disponibles entre l'emplacement périphérique et le cloud. Les données en périphérie sont les plus importantes à court terme. Les données peuvent désormais être analysées et consommées en temps réel à la périphérie, plutôt que traitées et analysées ultérieurement dans le cloud. Pour atteindre de nouveaux niveaux d’efficacité et un retour opérationnel supérieur, l’informatique doit être effectuée à la périphérie. Cela ne veut pas dire que le cloud n’est pas pertinent. Le cloud joue toujours un rôle important dans l’edge computing en raison de la possibilité de le déployer et de le gérer sur tous les sites. Par exemple, le cloud permet d'accéder à des applications et des données depuis d'autres emplacements, ainsi qu'à des experts à distance pour gérer les systèmes, les données et les applications dans le monde entier. De plus, le cloud peut être utilisé pour analyser de grands ensembles de données sur plusieurs sites, afficher les tendances au fil du temps et générer des modèles d'analyse prédictive. La technologie de pointe consiste donc à gérer les flux de données massives dans un grand nombre d'emplacements géographiquement dispersés. Il faut adopter cette nouvelle compréhension de la périphérie pour vraiment comprendre ce qui est désormais possible avec l’informatique de pointe. Aujourd'hui : Edge Analytics en temps réel C'est incroyable ce qui peut être fait à la périphérie aujourd'hui par rapport à il y a quelques années seulement. Désormais, les données peuvent être générées à partir d’un grand nombre de capteurs et de caméras, plutôt que de se limiter à quelques-uns. Ces données seront ensuite analysées sur des ordinateurs des milliers de fois plus puissants que ceux d’il y a 20 ans – le tout à un coût raisonnable. Des processeurs et GPU à grand nombre de cœurs, ainsi que des réseaux à haut débit et des caméras haute résolution sont désormais facilement disponibles, faisant de l'analyse de périphérie en temps réel une réalité. Le déploiement d'analyses en temps réel à la périphérie (là où se déroule l'activité commerciale) aide les entreprises à comprendre leurs opérations et à réagir immédiatement. Grâce à ces connaissances, de nombreuses opérations peuvent être davantage automatisées, augmentant ainsi la productivité et réduisant les pertes. Voici quelques cas d'utilisation actuels de l'analyse de périphérie en temps réel :Prévention de la fraude dans les supermarchés
De nombreux supermarchés utilisent désormais une forme de caisse automatique et malheureusement, ils constatent également un nombre croissant d'incidents de fraude. Certains acheteurs peu scrupuleux peuvent remplacer des codes-barres moins chers par des articles plus chers et payer moins cher. Pour détecter ce type de fraude, les magasins utilisent désormais des caméras haute résolution qui comparent les scans et le poids d'un produit à la valeur réelle du produit. Ces caméras sont relativement bon marché mais génèrent d’énormes quantités de données. En déplaçant l'informatique vers la périphérie, les données peuvent être analysées instantanément. Cela signifie que les magasins peuvent détecter la fraude en temps réel, plutôt qu'après que le « client » a quitté le parking.
Surveillance de la production alimentaire
Aujourd'hui, une installation de fabrication peut être équipée de dizaines de caméras et de capteurs à chaque étape du processus de fabrication. L'analyse en temps réel et le raisonnement basé sur l'IA peuvent révéler si une erreur existe en quelques millisecondes, voire microsecondes. Par exemple, la caméra montrera peut-être que trop de sucre a été ajouté ou qu'il y a trop d'ingrédients. Grâce aux caméras et aux analyses en temps réel, les lignes de production peuvent s'ajuster pour améliorer les problèmes et même calculer les arrêts lorsque des réparations sont nécessaires, sans causer de dommages catastrophiques.
AI Powered Edge Computing for Healthcare
Dans le secteur de la santé, les caméras infrarouges et à rayons X ont changé la donne car elles offrent une haute résolution et fournissent rapidement des images aux techniciens et aux médecins. Avec une résolution aussi élevée, l’IA peut désormais filtrer, évaluer et diagnostiquer les anomalies avant qu’un médecin ne les confirme. En déployant l’informatique de pointe basée sur l’IA, les médecins peuvent gagner du temps car ils n’ont pas besoin d’envoyer des données vers le cloud pour obtenir un diagnostic. Par conséquent, lorsque les oncologues déterminent si un patient souffre d’un cancer du poumon, ils peuvent appliquer un filtrage IA en temps réel aux images pulmonaires du patient pour obtenir un diagnostic rapide et précis et réduire considérablement l’anxiété du patient lié à l’attente d’une réponse.
Voitures autonomes alimentées par Analytics
Aujourd'hui, les voitures autonomes sont possibles grâce à des caméras relativement bon marché et disponibles qui offrent une perception visuelle stéréoscopique à 360 degrés. L'analyse permet également une reconnaissance précise des images, de sorte qu'un ordinateur peut reconnaître la différence entre un tumbleweed et le chat d'un voisin, et décider s'il doit freiner ou contourner un obstacle pour rester en sécurité.
L'abordabilité, la disponibilité et la miniaturisation des GPU et CPU hautes performances permettent la reconnaissance de formes en temps réel et la planification vectorielle pour l'intelligence de la conduite des véhicules autonomes. Pour que les voitures autonomes réussissent, elles doivent disposer de suffisamment de données et de puissance de traitement pour prendre des décisions intelligentes et prendre des mesures correctives assez rapidement. Désormais, cela n’est possible qu’avec les technologies de pointe actuelles.
L'architecture distribuée en pratique
Lorsqu'une informatique extrêmement puissante est déployée à la périphérie, les entreprises peuvent mieux optimiser leurs opérations sans se soucier de la latence ni de perdre la connectivité au cloud. Tout est désormais distribué à la périphérie, de sorte que les problèmes sont résolus en temps réel avec une connectivité seulement sporadique.
Nous avons parcouru un long chemin depuis la première vague de technologies de pointe. Grâce aux progrès de la technologie de pointe, les entreprises bénéficient désormais d’une vue plus complète de leurs opérations. Les technologies de pointe d'aujourd'hui aident non seulement les entreprises à augmenter leurs bénéfices, mais elles les aident également à réduire les risques et à améliorer les produits, les services et l'expérience client.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Ce site a rapporté le 27 juin que Jianying est un logiciel de montage vidéo développé par FaceMeng Technology, une filiale de ByteDance. Il s'appuie sur la plateforme Douyin et produit essentiellement du contenu vidéo court pour les utilisateurs de la plateforme. Il est compatible avec iOS, Android et. Windows, MacOS et autres systèmes d'exploitation. Jianying a officiellement annoncé la mise à niveau de son système d'adhésion et a lancé un nouveau SVIP, qui comprend une variété de technologies noires d'IA, telles que la traduction intelligente, la mise en évidence intelligente, l'emballage intelligent, la synthèse humaine numérique, etc. En termes de prix, les frais mensuels pour le clipping SVIP sont de 79 yuans, les frais annuels sont de 599 yuans (attention sur ce site : équivalent à 49,9 yuans par mois), l'abonnement mensuel continu est de 59 yuans par mois et l'abonnement annuel continu est de 59 yuans par mois. est de 499 yuans par an (équivalent à 41,6 yuans par mois) . En outre, le responsable de Cut a également déclaré que afin d'améliorer l'expérience utilisateur, ceux qui se sont abonnés au VIP d'origine

Améliorez la productivité, l’efficacité et la précision des développeurs en intégrant une génération et une mémoire sémantique améliorées par la récupération dans les assistants de codage IA. Traduit de EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, auteur JanakiramMSV. Bien que les assistants de programmation d'IA de base soient naturellement utiles, ils ne parviennent souvent pas à fournir les suggestions de code les plus pertinentes et les plus correctes, car ils s'appuient sur une compréhension générale du langage logiciel et des modèles d'écriture de logiciels les plus courants. Le code généré par ces assistants de codage est adapté à la résolution des problèmes qu’ils sont chargés de résoudre, mais n’est souvent pas conforme aux normes, conventions et styles de codage des équipes individuelles. Cela aboutit souvent à des suggestions qui doivent être modifiées ou affinées pour que le code soit accepté dans l'application.

Les grands modèles linguistiques (LLM) sont formés sur d'énormes bases de données textuelles, où ils acquièrent de grandes quantités de connaissances du monde réel. Ces connaissances sont intégrées à leurs paramètres et peuvent ensuite être utilisées en cas de besoin. La connaissance de ces modèles est « réifiée » en fin de formation. À la fin de la pré-formation, le modèle arrête effectivement d’apprendre. Alignez ou affinez le modèle pour apprendre à exploiter ces connaissances et répondre plus naturellement aux questions des utilisateurs. Mais parfois, la connaissance du modèle ne suffit pas, et bien que le modèle puisse accéder à du contenu externe via RAG, il est considéré comme bénéfique de l'adapter à de nouveaux domaines grâce à un réglage fin. Ce réglage fin est effectué à l'aide de la contribution d'annotateurs humains ou d'autres créations LLM, où le modèle rencontre des connaissances supplémentaires du monde réel et les intègre.

Pour en savoir plus sur l'AIGC, veuillez visiter : 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou est différent de la banque de questions traditionnelle que l'on peut voir partout sur Internet. nécessite de sortir des sentiers battus. Les grands modèles linguistiques (LLM) sont de plus en plus importants dans les domaines de la science des données, de l'intelligence artificielle générative (GenAI) et de l'intelligence artificielle. Ces algorithmes complexes améliorent les compétences humaines et stimulent l’efficacité et l’innovation dans de nombreux secteurs, devenant ainsi la clé permettant aux entreprises de rester compétitives. LLM a un large éventail d'applications. Il peut être utilisé dans des domaines tels que le traitement du langage naturel, la génération de texte, la reconnaissance vocale et les systèmes de recommandation. En apprenant de grandes quantités de données, LLM est capable de générer du texte

L'ensemble de données ScienceAI Question Answering (QA) joue un rôle essentiel dans la promotion de la recherche sur le traitement du langage naturel (NLP). Des ensembles de données d'assurance qualité de haute qualité peuvent non seulement être utilisés pour affiner les modèles, mais également évaluer efficacement les capacités des grands modèles linguistiques (LLM), en particulier la capacité à comprendre et à raisonner sur les connaissances scientifiques. Bien qu’il existe actuellement de nombreux ensembles de données scientifiques d’assurance qualité couvrant la médecine, la chimie, la biologie et d’autres domaines, ces ensembles de données présentent encore certaines lacunes. Premièrement, le formulaire de données est relativement simple, et la plupart sont des questions à choix multiples. Elles sont faciles à évaluer, mais limitent la plage de sélection des réponses du modèle et ne peuvent pas tester pleinement la capacité du modèle à répondre aux questions scientifiques. En revanche, les questions et réponses ouvertes

L'apprentissage automatique est une branche importante de l'intelligence artificielle qui donne aux ordinateurs la possibilité d'apprendre à partir de données et d'améliorer leurs capacités sans être explicitement programmés. L'apprentissage automatique a un large éventail d'applications dans divers domaines, de la reconnaissance d'images et du traitement du langage naturel aux systèmes de recommandation et à la détection des fraudes, et il change notre façon de vivre. Il existe de nombreuses méthodes et théories différentes dans le domaine de l'apprentissage automatique, parmi lesquelles les cinq méthodes les plus influentes sont appelées les « Cinq écoles d'apprentissage automatique ». Les cinq grandes écoles sont l’école symbolique, l’école connexionniste, l’école évolutionniste, l’école bayésienne et l’école analogique. 1. Le symbolisme, également connu sous le nom de symbolisme, met l'accent sur l'utilisation de symboles pour le raisonnement logique et l'expression des connaissances. Cette école de pensée estime que l'apprentissage est un processus de déduction inversée, à travers les connaissances existantes.

Editeur | KX Dans le domaine de la recherche et du développement de médicaments, il est crucial de prédire avec précision et efficacité l'affinité de liaison des protéines et des ligands pour le criblage et l'optimisation des médicaments. Cependant, les études actuelles ne prennent pas en compte le rôle important des informations sur la surface moléculaire dans les interactions protéine-ligand. Sur cette base, des chercheurs de l'Université de Xiamen ont proposé un nouveau cadre d'extraction de caractéristiques multimodales (MFE), qui combine pour la première fois des informations sur la surface des protéines, la structure et la séquence 3D, et utilise un mécanisme d'attention croisée pour comparer différentes modalités. alignement. Les résultats expérimentaux démontrent que cette méthode atteint des performances de pointe dans la prédiction des affinités de liaison protéine-ligand. De plus, les études d’ablation démontrent l’efficacité et la nécessité des informations sur la surface des protéines et de l’alignement des caractéristiques multimodales dans ce cadre. Les recherches connexes commencent par "S

Selon les informations de ce site Web du 5 juillet, GlobalFoundries a publié un communiqué de presse le 1er juillet de cette année, annonçant l'acquisition de la technologie de nitrure de gallium (GaN) et du portefeuille de propriété intellectuelle de Tagore Technology, dans l'espoir d'élargir sa part de marché dans l'automobile et Internet. des objets et des domaines d'application des centres de données d'intelligence artificielle pour explorer une efficacité plus élevée et de meilleures performances. Alors que des technologies telles que l’intelligence artificielle générative (GenerativeAI) continuent de se développer dans le monde numérique, le nitrure de gallium (GaN) est devenu une solution clé pour une gestion durable et efficace de l’énergie, notamment dans les centres de données. Ce site Web citait l'annonce officielle selon laquelle, lors de cette acquisition, l'équipe d'ingénierie de Tagore Technology rejoindrait GF pour développer davantage la technologie du nitrure de gallium. g
