


Wie Edge Computing Unternehmen hilft, Kosten zu senken und die Effizienz zu steigern
Wachsende Hoffnungen auf Edge Computing haben die Branche mit mutigen Ideen erfüllt, wie zum Beispiel „Der Edge wird die Cloud verschlingen“ und Echtzeitautomatisierung wird im Gesundheitswesen, im Einzelhandel und in der Fertigung alltäglich.
Heute gehen immer mehr Experten davon aus, dass Edge Computing bei der Digitalisierung nahezu aller Unternehmen eine Schlüsselrolle spielen wird im Wandel. Aber die Fortschritte waren langsam. Traditionelles Denken hindert Unternehmen daran, die Vorteile der Entscheidungsfindung und Ressourcenzuweisung in Echtzeit voll auszuschöpfen.
Um zu verstehen, wie und warum dies geschah, werfen wir einen Blick zurück auf die erste Welle des Edge Computing und was seitdem passiert ist. Erste Welle des Edge Computing: Internet der Dinge (IoT) Für die meisten Branchen ist das Konzept des Edge eng mit der ersten Welle des Internets der Dinge (IoT) verbunden. . Damals lag der Schwerpunkt vor allem auf der Erfassung von Daten von kleinen Sensoren, die überall angebracht waren, und der anschließenden Übertragung dieser Daten an einen zentralen Ort – etwa die Cloud oder ein Hauptrechenzentrum. Diese Datenströme müssen dann mit der sogenannten Sensorfusion korreliert werden. Zu dieser Zeit führten Sensorökonomie, Batterielebensdauer und Allgegenwärtigkeit oft zu zu begrenzten Datenströmen mit geringer Wiedergabetreue. Darüber hinaus ist die Nachrüstung vorhandener Geräte mit Sensoren oft kostspielig. Während die Sensoren selbst kostengünstig sind, ist die Installation zeitaufwändig und erfordert geschultes Personal. Schließlich ist das für die Analyse von Daten mittels Sensorfusion erforderliche Fachwissen in der Wissensdatenbank der Mitarbeiter im gesamten Unternehmen verankert. Dies hat zu einer Verlangsamung der IoT-Einführung geführt. Darüber hinaus haben Sicherheitsbedenken auch die großflächige Anwendung des Internets der Dinge beeinträchtigt. Die Rechnung ist einfach: Tausende angeschlossene Geräte an mehreren Standorten bedeuten eine enorme und oft unbekannte Belastung. Da die potenziellen Risiken die unbewiesenen Vorteile überwiegen, halten es viele für ratsam, eine abwartende Haltung einzunehmen. Jenseits von IoT 1.0Es wird immer deutlicher, dass es beim Edge nicht um das IoT geht, sondern um verteilte Standorte und geografisch lokalisierte Abläufe für Echtzeitentscheidungen. In der IT und zunehmend auch im industriellen Umfeld bezeichnen wir diese verteilten Datenquellen als Edge. Wir bezeichnen die Entscheidungsfindung von all diesen Standorten aus als außerhalb des Rechenzentrums oder Cloud-Edge-Computing. Heutzutage ist der Rand überall – dort, wo wir leben, wo wir arbeiten und wo menschliche Aktivitäten stattfinden. Die spärliche Sensorabdeckung wurde mit neueren und flexibleren Sensoren behoben. Neue Anlagen und Technologien verfügen über eine breite Palette integrierter Sensoren. Sensoren werden heute häufig durch hochauflösende/hochgenaue Bildgebung (Röntgengeräte, Lidar) ergänzt. Zusätzliche Sensordaten, Bildgebungstechnologie und die Notwendigkeit, alles miteinander zu korrelieren, werden jede Sekunde eine riesige Datenmenge erzeugen. Um aus diesen riesigen Datenströmen Ergebnisse zu erzielen, wird nun Rechenleistung in der Nähe des Ortes eingesetzt, an dem die Daten generiert werden.
Der Grund ist einfach: Es steht nicht genügend Bandbreite und Zeit zwischen dem Edge-Standort und der Cloud zur Verfügung. Daten am Rande sind kurzfristig am wichtigsten. Daten können nun in Echtzeit am Edge analysiert und genutzt werden, anstatt sie später in der Cloud zu verarbeiten und zu analysieren. Um ein neues Maß an Effizienz und überlegenem Betriebsfeedback zu erreichen, muss die Datenverarbeitung am Rande erfolgen.
Das soll nicht heißen, dass die Cloud irrelevant ist. Die Cloud spielt beim Edge Computing nach wie vor eine wichtige Rolle, da sie standortübergreifend bereitgestellt und verwaltet werden kann. Die Cloud bietet beispielsweise Zugriff auf Anwendungen und Daten von anderen Standorten sowie Remote-Experten zur Verwaltung von Systemen, Daten und Anwendungen auf der ganzen Welt. Darüber hinaus kann die Cloud verwendet werden, um große Datensätze über mehrere Standorte hinweg zu analysieren, Trends im Zeitverlauf aufzuzeigen und prädiktive Analysemodelle zu erstellen.
Daher liegt die Edge-Technologie im Umgang mit großen Datenflüssen an einer großen Anzahl geografisch verteilter Standorte. Man muss sich dieses neue Verständnis des Edge zu eigen machen, um wirklich zu verstehen, was mit Edge Computing jetzt möglich ist.
Heute: Echtzeit-Edge-Analyse
Es ist erstaunlich, was heute am Edge getan werden kann, verglichen mit noch vor ein paar Jahren. Jetzt können Daten von einer großen Anzahl von Sensoren und Kameras generiert werden, anstatt sich auf einige wenige zu beschränken. Diese Daten werden dann auf Computern analysiert, die tausendmal leistungsfähiger sind als die von vor 20 Jahren – und das alles zu vertretbaren Kosten.
CPUs und GPUs mit hoher Kernanzahl sowie Netzwerke mit hohem Durchsatz und hochauflösende Kameras sind jetzt verfügbar und machen Echtzeit-Edge-Analysen zur Realität. Der Einsatz von Echtzeitanalysen am Edge (dort, wo Geschäftsaktivitäten stattfinden) hilft Unternehmen, ihre Abläufe zu verstehen und sofort zu reagieren. Mit diesem Wissen können viele Vorgänge weiter automatisiert werden, wodurch die Produktivität gesteigert und Verluste reduziert werden.
Hier sind einige der heutigen Anwendungsfälle für Echtzeit-Edge-Analysen:
Supermarkt-Betrugsprävention
Viele Supermärkte nutzen mittlerweile eine Form des Self-Checkouts und leider kommt es auch immer häufiger zu Betrugsfällen. Einige skrupellose Käufer können teurere Artikel durch billigere Barcodes ersetzen und dafür weniger bezahlen. Um diese Art von Betrug aufzudecken, verwenden Geschäfte heute hochauflösende Kameras, die die Scans und das Gewicht eines Produkts mit dem tatsächlichen Wert des Produkts vergleichen. Diese Kameras sind relativ günstig, erzeugen aber riesige Datenmengen. Durch die Verlagerung der Datenverarbeitung an den Rand können Daten sofort analysiert werden. Dies bedeutet, dass Geschäfte Betrug in Echtzeit erkennen können, und nicht erst, nachdem der „Kunde“ den Parkplatz verlassen hat.
Überwachung der Lebensmittelproduktion
Heutzutage kann eine Produktionsanlage in jedem Schritt des Herstellungsprozesses mit Dutzenden von Kameras und Sensoren ausgestattet werden. Echtzeitanalysen und KI-gestütztes Denken können in Millisekunden oder sogar Mikrosekunden aufdecken, ob ein Fehler vorliegt. Beispielsweise zeigt die Kamera möglicherweise an, dass zu viel Zucker hinzugefügt wurde oder dass zu viele Zutaten vorhanden sind. Mit Kameras und Echtzeitanalysen können Produktionslinien Anpassungen vornehmen, um Probleme zu beheben und sogar Abschaltungen berechnen, wenn Reparaturen erforderlich sind – ohne katastrophale Schäden zu verursachen.
KI-gestütztes Edge Computing für das Gesundheitswesen
Im Gesundheitssektor haben Infrarot- und Röntgenkameras die Spielregeln verändert, da sie eine hohe Auflösung bieten und Bilder schnell an Techniker und Ärzte liefern. Dank dieser hohen Auflösung kann die KI nun Anomalien filtern, bewerten und diagnostizieren, bevor ein Arzt sie bestätigt. Durch den Einsatz von KI-gestütztem Edge Computing können Ärzte Zeit sparen, da sie keine Daten an die Cloud senden müssen, um eine Diagnose zu erhalten. Wenn Onkologen also feststellen, ob ein Patient an Lungenkrebs leidet, können sie eine Echtzeit-KI-Filterung auf die Lungenbilder des Patienten anwenden, um eine schnelle und genaue Diagnose zu erhalten und die Angst des Patienten, auf eine Antwort zu warten, erheblich verringern.
Autonome Autos mit Analytics-Unterstützung
Heutzutage sind selbstfahrende Autos dank relativ günstiger und verfügbarer Kameras möglich, die eine stereoskopische visuelle 360-Grad-Wahrnehmung ermöglichen. Die Analyse ermöglicht außerdem eine präzise Bilderkennung, sodass ein Computer den Unterschied zwischen einem Steppenläufer und der Katze eines Nachbarn erkennen und entscheiden kann, ob er aus Sicherheitsgründen bremsen oder um ein Hindernis herum manövrieren muss.
Die Erschwinglichkeit, Verfügbarkeit und Miniaturisierung von Hochleistungs-GPUs und -CPUs ermöglichen Echtzeit-Mustererkennung und Vektorplanung für autonome Fahrintelligenz. Damit selbstfahrende Autos erfolgreich sind, müssen sie über genügend Daten und Rechenleistung verfügen, um intelligente Entscheidungen zu treffen und schnell genug Korrekturmaßnahmen zu ergreifen. Dies ist nur mit den heutigen Spitzentechnologien möglich.
Verteilte Architektur in der Praxis
Wenn extrem leistungsstarkes Computing am Edge bereitgestellt wird, können Unternehmen ihre Abläufe besser optimieren, ohne sich Gedanken über Latenz oder den Verlust der Konnektivität zur Cloud machen zu müssen. Jetzt ist alles an der Edge verteilt, sodass Probleme in Echtzeit gelöst werden und nur sporadische Konnektivität besteht.
Wir haben seit der ersten Welle der Edge-Technologien einen langen Weg zurückgelegt. Dank der Fortschritte in der Spitzentechnologie erhalten Unternehmen jetzt einen umfassenderen Überblick über ihre Abläufe. Die heutigen Spitzentechnologien helfen Unternehmen nicht nur dabei, ihre Gewinne zu steigern, sondern sie helfen ihnen auch dabei, Risiken zu reduzieren und Produkte, Dienstleistungen und Kundenerlebnisse zu verbessern.
Das obige ist der detaillierte Inhalt vonWie Edge Computing Unternehmen hilft, Kosten zu senken und die Effizienz zu steigern. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Diese Seite berichtete am 27. Juni, dass Jianying eine von FaceMeng Technology, einer Tochtergesellschaft von ByteDance, entwickelte Videobearbeitungssoftware ist, die auf der Douyin-Plattform basiert und grundsätzlich kurze Videoinhalte für Benutzer der Plattform produziert Windows, MacOS und andere Betriebssysteme. Jianying kündigte offiziell die Aktualisierung seines Mitgliedschaftssystems an und führte ein neues SVIP ein, das eine Vielzahl von KI-Schwarztechnologien umfasst, wie z. B. intelligente Übersetzung, intelligente Hervorhebung, intelligente Verpackung, digitale menschliche Synthese usw. Preislich beträgt die monatliche Gebühr für das Clipping von SVIP 79 Yuan, die Jahresgebühr 599 Yuan (Hinweis auf dieser Website: entspricht 49,9 Yuan pro Monat), das fortlaufende Monatsabonnement beträgt 59 Yuan pro Monat und das fortlaufende Jahresabonnement beträgt 499 Yuan pro Jahr (entspricht 41,6 Yuan pro Monat). Darüber hinaus erklärte der Cut-Beamte auch, dass diejenigen, die den ursprünglichen VIP abonniert haben, das Benutzererlebnis verbessern sollen

Verbessern Sie die Produktivität, Effizienz und Genauigkeit der Entwickler, indem Sie eine abrufgestützte Generierung und ein semantisches Gedächtnis in KI-Codierungsassistenten integrieren. Übersetzt aus EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, Autor JanakiramMSV. Obwohl grundlegende KI-Programmierassistenten natürlich hilfreich sind, können sie oft nicht die relevantesten und korrektesten Codevorschläge liefern, da sie auf einem allgemeinen Verständnis der Softwaresprache und den gängigsten Mustern beim Schreiben von Software basieren. Der von diesen Coding-Assistenten generierte Code eignet sich zur Lösung der von ihnen zu lösenden Probleme, entspricht jedoch häufig nicht den Coding-Standards, -Konventionen und -Stilen der einzelnen Teams. Dabei entstehen häufig Vorschläge, die geändert oder verfeinert werden müssen, damit der Code in die Anwendung übernommen wird

Um mehr über AIGC zu erfahren, besuchen Sie bitte: 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou unterscheidet sich von der traditionellen Fragendatenbank, die überall im Internet zu sehen ist erfordert einen Blick über den Tellerrand hinaus. Large Language Models (LLMs) gewinnen in den Bereichen Datenwissenschaft, generative künstliche Intelligenz (GenAI) und künstliche Intelligenz zunehmend an Bedeutung. Diese komplexen Algorithmen verbessern die menschlichen Fähigkeiten, treiben Effizienz und Innovation in vielen Branchen voran und werden zum Schlüssel für Unternehmen, um wettbewerbsfähig zu bleiben. LLM hat ein breites Anwendungsspektrum und kann in Bereichen wie der Verarbeitung natürlicher Sprache, der Textgenerierung, der Spracherkennung und Empfehlungssystemen eingesetzt werden. Durch das Lernen aus großen Datenmengen ist LLM in der Lage, Text zu generieren

Large Language Models (LLMs) werden auf riesigen Textdatenbanken trainiert und erwerben dort große Mengen an realem Wissen. Dieses Wissen wird in ihre Parameter eingebettet und kann dann bei Bedarf genutzt werden. Das Wissen über diese Modelle wird am Ende der Ausbildung „verdinglicht“. Am Ende des Vortrainings hört das Modell tatsächlich auf zu lernen. Richten Sie das Modell aus oder verfeinern Sie es, um zu erfahren, wie Sie dieses Wissen nutzen und natürlicher auf Benutzerfragen reagieren können. Aber manchmal reicht Modellwissen nicht aus, und obwohl das Modell über RAG auf externe Inhalte zugreifen kann, wird es als vorteilhaft angesehen, das Modell durch Feinabstimmung an neue Domänen anzupassen. Diese Feinabstimmung erfolgt mithilfe von Eingaben menschlicher Annotatoren oder anderer LLM-Kreationen, wobei das Modell auf zusätzliches Wissen aus der realen Welt trifft und dieses integriert

Herausgeber | Der Frage-Antwort-Datensatz (QA) von ScienceAI spielt eine entscheidende Rolle bei der Förderung der Forschung zur Verarbeitung natürlicher Sprache (NLP). Hochwertige QS-Datensätze können nicht nur zur Feinabstimmung von Modellen verwendet werden, sondern auch effektiv die Fähigkeiten großer Sprachmodelle (LLMs) bewerten, insbesondere die Fähigkeit, wissenschaftliche Erkenntnisse zu verstehen und zu begründen. Obwohl es derzeit viele wissenschaftliche QS-Datensätze aus den Bereichen Medizin, Chemie, Biologie und anderen Bereichen gibt, weisen diese Datensätze immer noch einige Mängel auf. Erstens ist das Datenformular relativ einfach, die meisten davon sind Multiple-Choice-Fragen. Sie sind leicht auszuwerten, schränken jedoch den Antwortauswahlbereich des Modells ein und können die Fähigkeit des Modells zur Beantwortung wissenschaftlicher Fragen nicht vollständig testen. Im Gegensatz dazu offene Fragen und Antworten

Maschinelles Lernen ist ein wichtiger Zweig der künstlichen Intelligenz, der Computern die Möglichkeit gibt, aus Daten zu lernen und ihre Fähigkeiten zu verbessern, ohne explizit programmiert zu werden. Maschinelles Lernen hat ein breites Anwendungsspektrum in verschiedenen Bereichen, von der Bilderkennung und der Verarbeitung natürlicher Sprache bis hin zu Empfehlungssystemen und Betrugserkennung, und es verändert unsere Lebensweise. Im Bereich des maschinellen Lernens gibt es viele verschiedene Methoden und Theorien, von denen die fünf einflussreichsten Methoden als „Fünf Schulen des maschinellen Lernens“ bezeichnet werden. Die fünf Hauptschulen sind die symbolische Schule, die konnektionistische Schule, die evolutionäre Schule, die Bayes'sche Schule und die Analogieschule. 1. Der Symbolismus, auch Symbolismus genannt, betont die Verwendung von Symbolen zum logischen Denken und zum Ausdruck von Wissen. Diese Denkrichtung glaubt, dass Lernen ein Prozess der umgekehrten Schlussfolgerung durch das Vorhandene ist

Herausgeber |. KX Im Bereich der Arzneimittelforschung und -entwicklung ist die genaue und effektive Vorhersage der Bindungsaffinität von Proteinen und Liganden für das Arzneimittelscreening und die Arzneimitteloptimierung von entscheidender Bedeutung. Aktuelle Studien berücksichtigen jedoch nicht die wichtige Rolle molekularer Oberflächeninformationen bei Protein-Ligand-Wechselwirkungen. Auf dieser Grundlage schlugen Forscher der Universität Xiamen ein neuartiges Framework zur multimodalen Merkmalsextraktion (MFE) vor, das erstmals Informationen über Proteinoberfläche, 3D-Struktur und -Sequenz kombiniert und einen Kreuzaufmerksamkeitsmechanismus verwendet, um verschiedene Modalitäten zu vergleichen Ausrichtung. Experimentelle Ergebnisse zeigen, dass diese Methode bei der Vorhersage von Protein-Ligand-Bindungsaffinitäten Spitzenleistungen erbringt. Darüber hinaus belegen Ablationsstudien die Wirksamkeit und Notwendigkeit der Proteinoberflächeninformation und der multimodalen Merkmalsausrichtung innerhalb dieses Rahmens. Verwandte Forschungen beginnen mit „S

Laut Nachrichten dieser Website vom 5. Juli veröffentlichte GlobalFoundries am 1. Juli dieses Jahres eine Pressemitteilung, in der die Übernahme der Power-Galliumnitrid (GaN)-Technologie und des Portfolios an geistigem Eigentum von Tagore Technology angekündigt wurde, in der Hoffnung, seinen Marktanteil in den Bereichen Automobile und Internet auszubauen Anwendungsbereiche für Rechenzentren mit künstlicher Intelligenz, um höhere Effizienz und bessere Leistung zu erforschen. Da sich Technologien wie generative künstliche Intelligenz (GenerativeAI) in der digitalen Welt weiterentwickeln, ist Galliumnitrid (GaN) zu einer Schlüssellösung für nachhaltiges und effizientes Energiemanagement, insbesondere in Rechenzentren, geworden. Auf dieser Website wurde die offizielle Ankündigung zitiert, dass sich das Ingenieurteam von Tagore Technology im Rahmen dieser Übernahme mit GF zusammenschließen wird, um die Galliumnitrid-Technologie weiterzuentwickeln. G
