


KI hat im Supply Chain Management bereits bedeutende Erfolge erzielt
Die Lieferkette führt eine Reihe von Aktionen durch, vom Produktdesign über Beschaffung, Herstellung, Vertrieb, Lieferung und Kundenservice. Devavrat Bapat, Direktor für KI/ML-Datenprodukte bei Cisco, sagte: „An jedem Punkt gibt es enorme Chancen für KI und ML, denn die heutige KI ist bereits sehr gut darin, was für das Lieferkettenmanagement erforderlich ist.“ . Die erste ist die Prognose, bei der KI eingesetzt wird, um die nachgelagerte Nachfrage oder vorgelagerte Engpässe vorherzusagen. Darüber hinaus können Algorithmen ein oder mehrere Ereignisse erkennen, von denen sie glauben, dass sie Vorboten für Ausfälle sind, und dann die Bediener am Fließband warnen, bevor sich die Produktionsqualität verschlechtert
Die zweite Möglichkeit ist die Inspektion, bei der KI eingesetzt wird, um Probleme in der Fertigung zu finden. Es kann auch verwendet werden, um Materialien und Komponenten zu zertifizieren und sie entlang der gesamten Lieferkette zu verfolgen
Letztendlich wird KI die Lieferkette optimieren, um den Bedürfnissen bestimmter Kunden in jeder gegebenen Situation gerecht zu werden. Obwohl es bereits grundlegende Technologien gibt, besteht die Herausforderung weiterhin darin, ein Maß an Datenaustausch zu fordern, das in aktuellen Lieferketten nur schwer zu erreichen ist. In der Zwischenzeit profitieren viele Unternehmen immer noch von den Vorteilen verbesserter Prognosen und Inspektionen
Prognose
Nehmen Sie das Beispiel von Amcor, einem der weltweit größten Verpackungsunternehmen mit einem Jahresumsatz von 15 Milliarden US-Dollar und mehr als 41.000 Mitarbeitern Fabriken auf der ganzen Welt. Das Unternehmen konzentriert sich hauptsächlich auf Lebensmittel- und Gesundheitsverpackungen, wo es den Großteil des Marktanteils hält
„Wir stellen Verpackungen für ein Drittel der Produkte in Ihrem Kühlschrank her“, sagte Joel Lanchin, der globale Chief Information Officer des Unternehmens Die Herausforderungen in der Fertigung hängen mit der genauen Vorhersage und Anpassung an sich ändernde Nachfrage zusammen. In der Welt der Lebensmittelversorgungskette werden Bestellungen häufig aufgrund von Nachfrageänderungen geändert. Bei heißem Wetter trinken die Menschen beispielsweise mehr Gatorade, was zu einem plötzlichen Anstieg der Nachfrage führen könnte, sodass die Nachfrage nach Flaschen um 10 bis 15 Prozent steigen könnte. Dasselbe gilt auch für andere Arten von Produkten. Möglicherweise gibt es plötzlich mehr Fische im Meer, was den Bedarf an Verpackungen für mehr Fische erhöht. „Selbst wenn wir versuchen, Vorhersagen zu treffen, ist es sehr schwierig, weil wir nicht immer im Voraus wissen, was unsere Kunden wollen“, sagte Lanchin. Das andere Ende der Lieferkette steht vor ähnlichen Herausforderungen. Wenn Amcor Engpässe nicht genau vorhersagen kann, kann es keine Rohstoffvorräte im Voraus anlegen. Noch wichtiger ist, dass das Unternehmen Preisänderungen vorhersagen muss, damit es mehr zu einem niedrigeren Preis kaufen kann, bevor die Preise steigen, oder weniger kaufen kann, wenn ein Rückgang bevorsteht
Vor etwa einem Jahr begann Amcor mit EazyML, einer Plattform, zu experimentieren Dies trägt dazu bei, die Kundennachfrage und angebotsseitige Prognosen zu optimieren. Sie trainierten das Tool anhand von dreijährigen Daten aus dem ERP, um nach Fluktuationsmustern zu suchen. Das System versucht, Kategorien von Änderungen zu finden und welche Ereignisse mit verschiedenen Arten von Änderungen verbunden sind. Es untersucht beispielsweise saisonale Schwankungen und ob zwei oder mehr Arten von Veränderungen gleichzeitig auftreten oder ob sie sich gegenseitig ausschließen
Lanchin sagte: „Die ersten Ergebnisse, die wir erzielt haben, sind sehr ermutigend und übertreffen unsere Erwartungen bei weitem.“ Wenn Sie Veränderungen vorhersagen können, können Sie Ihren Rohstoffbedarf besser vorhersagen und ihn bei Bedarf im Voraus auffüllen.
Für Bapat ist das keine Überraschung, denn er sagt, dass Prognosen durch künstliche Intelligenz erheblich verbessert werden. „In der Vergangenheit verließen sich viele Unternehmen auf Konsensprognosen und gewichteten die Meinungen verschiedener Experten, um zu einer durchschnittlichen Prognose zu gelangen“, sagte er außerdem: „Untersuchungen zeigen, dass statistische Prognosemethoden verwendet werden, um aus historischen Daten zu extrapolieren.“ , übertrifft durchweg die Konsensmethode. Aber der Schlüssel liegt darin, sicherzustellen, dass man die richtigen Daten verwendet Verwenden Sie Fotolithographie. Die Technologie wird auf einen Wafer gedruckt. Diejenigen, die sich am nächsten zur Mitte des Wafers befinden, weisen in der Regel die besten Leistungskurven auf. Diejenigen, die sich näher am Außenring befinden, leiden tendenziell unter einer Leistungseinbuße, obwohl sie immer noch zuverlässig sind. Intel hat einen Qualitätsgrenzwert, ab dem Chips aufbewahrt oder weggeworfen werden sollten. Die Inspektion der Wafer durch Menschen wäre ein zeitaufwändiger und fehlerbehafteter Prozess.
Greg Lavender, Senior Vice President und Chief Technology Officer bei Intel, sagte: „Wir nutzen künstliche Intelligenz, um hochwertige Chips auszuwählen und schneller auf den Markt zu bringen und so eine bessere Qualität zu liefern.“ Eines der Dinge, die wir mit künstlicher Intelligenz machen. Ich habe Hunderte von KI-Softwareentwicklern, die mir Bericht erstatten. Ein Teil ihrer Arbeit wird für Inspektionen und Tests in unseren Fabriken verwendet, aber manchmal wird die von ihnen entwickelte KI auch intern für die Lieferung unserer Produkte verwendet, ohne dass dies den Menschen unbedingt bekannt ist
Ein typisches Beispiel ist, wie Intel seinen OEM-Kunden durch die Bereitstellung von Softwaretools beim Testen von Malware hilft. Eines dieser Tools ist die Intel Threat Detection Technology, die auf Intel-Laptops läuft. Beim Ausführen von Code in Windows untersucht der Intel-Code den Befehlsfluss in der CPU. Mithilfe eines adaptiven Lernsignaturalgorithmus sucht es nach Anomalien im Code, die mit Malware-Signaturen übereinstimmen. Sobald eine Übereinstimmung gefunden wird, fängt das Tool die Malware ab oder blockiert sie und warnt Windows Defender vor Geräteinfektionen
„In allen CPUs unserer Kunden ist eine Technologie zur Bedrohungserkennung integriert“, sagte Lavender Nachdem das Endprodukt zusammengestellt ist, ist die einzige Möglichkeit, sie zu finden, die Verwendung dieses Tools. Wir bieten dieses und andere KI-Tools seit einigen Jahren an, aber jetzt, da viel über große Sprachmodelle gesprochen wird, sprechen immer mehr Menschen darüber.
Laut Ciscos Bapat sind Inspektionen ein wichtiger Bestandteil des Lieferkettenmanagements. Die Inspektion wird einfacher, wenn in der Produktdesignphase die richtigen Schritte unternommen werden. „Wenn Sie in den Produktdesignprozess Instrumente einbetten, die Daten generieren können, um den Fluss zu überwachen, können Sie eine Menge Kosten einsparen“, sagte er. „Wenn Sie die Materialkosten und Arbeitskosten eines Produkts berücksichtigen, werden Sie feststellen.“ dass sie sehr hoch sind. Die Belastung umfasst hauptsächlich Produktqualität sowie Überwachungs- und Verwaltungskosten. KI trägt bereits heute dazu bei, diese Kosten zu minimieren
Optimierung
Prognosen und Inspektionen sind beide wichtig, aber die größte Wirkung wird sich ergeben, wenn Lieferketten auf spezifische Kundenbedürfnisse zugeschnitten werden können. Bapat hat eine wichtige Lektion gelernt, als er einen seiner besten KI-Algorithmen entwickelte. Die Entwicklung und Bereitstellung dauerte neun Monate – und letztendlich dauerte es dennoch überraschend lange, bis es funktionierte. Als er darüber nachdachte, was schief gelaufen war, wurde ihm klar, dass die Technologie, egal wie gut sie war, nicht die gewünschten Ergebnisse bringen würde, wenn er sich nicht zunächst die Zeit genommen hätte, zu verstehen, wer die Endkunden waren und wie sie die Anwendung nutzen wollten . Er wies auch darauf hin, dass die Geschäftsleitung zwar oft die lautesten Stimmen habe, aber nicht die Endkunden seien.
„Seitdem habe ich immer betont, dass ich, egal ob es um den Vertrieb oder das Supply Chain Management geht, immer mit einem guten Verständnis des Grundgeschäfts beginne.“ Daten und KI.“
Bapat glaubt, dass dieses Konzept auf das Lieferkettenmanagement angewendet werden sollte: „Wenn Sie sich wirklich auf den Endverbraucher konzentrieren, kann KI helfen, indem sie Verbraucher und ihre Umgebung segmentiert und gezielt anspricht Berücksichtigen Sie auf dem Weg zurück in die Lieferkette die unterschiedlichen Kosten: Arbeit, Produktion, Steuern, Lagerbestand und optimieren Sie diese gemeinsam.
Sobald die Lieferkette für den Prozess optimiert ist, können Sie mit der Installation und Durchführung von prädiktiver Qualität und Wartung beginnen In diesem Punkt können Sie zur Beschaffungsseite des Beschaffungsmanagements zurückkehren. „Dies unterstützt die Idee, dass Lieferanten Partner und keine Gegner sind“, sagte er. „
Daher stellt die Natur der Lieferkette, die aus mindestens drei unabhängigen Unternehmen besteht, die keine Daten austauschen, eine langjährige Herausforderung dar. Erstens können diese Unternehmen mit einem oder mehreren Partnern in der Branche konkurrieren . Zweitens können sie Teil konkurrierender Lieferketten sein und drittens behalten sie Informationen, um ihre Stärke am Verhandlungstisch zu erhöhen
Die aktuelle Generation von KI kann Lieferketten optimieren und sie sogar auf den richtigen Preis zuschneiden Kunden Um dies zu erreichen, ist jedoch ein Maß an Datenaustausch erforderlich, zu dem nur wenige Unternehmen bereit sind
Bapat sagte: „Was fehlt, ist eine Technologie, die es Unternehmen ermöglicht, einige ihrer Daten völlig vertraulich weiterzugeben, ohne dass sie zu viel preisgeben.“ „Es wird noch fünf bis zehn Jahre dauern, bis wir dieses Ziel erreichen.
Das obige ist der detaillierte Inhalt vonKI hat im Supply Chain Management bereits bedeutende Erfolge erzielt. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Der Befehl centOS stilldown wird heruntergefahren und die Syntax wird von [Optionen] ausgeführt [Informationen]. Zu den Optionen gehören: -h das System sofort stoppen; -P schalten Sie die Leistung nach dem Herunterfahren aus; -r neu starten; -t Wartezeit. Zeiten können als unmittelbar (jetzt), Minuten (Minuten) oder als bestimmte Zeit (HH: MM) angegeben werden. Hinzugefügten Informationen können in Systemmeldungen angezeigt werden.

Vollständige Anleitung zur Überprüfung der HDFS -Konfiguration in CentOS -Systemen In diesem Artikel wird die Konfiguration und den laufenden Status von HDFS auf CentOS -Systemen effektiv überprüft. Die folgenden Schritte helfen Ihnen dabei, das Setup und den Betrieb von HDFs vollständig zu verstehen. Überprüfen Sie die Hadoop -Umgebungsvariable: Stellen Sie zunächst sicher, dass die Hadoop -Umgebungsvariable korrekt eingestellt ist. Führen Sie im Terminal den folgenden Befehl aus, um zu überprüfen, ob Hadoop ordnungsgemäß installiert und konfiguriert ist: Hadoopsion-Check HDFS-Konfigurationsdatei: Die Kernkonfigurationsdatei von HDFS befindet sich im/etc/hadoop/conf/verzeichnis, wobei core-site.xml und hdfs-site.xml von entscheidender Bedeutung sind. verwenden

Backup- und Wiederherstellungsrichtlinie von GitLab im Rahmen von CentOS -System Um die Datensicherheit und Wiederherstellung der Daten zu gewährleisten, bietet GitLab on CentOS eine Vielzahl von Sicherungsmethoden. In diesem Artikel werden mehrere gängige Sicherungsmethoden, Konfigurationsparameter und Wiederherstellungsprozesse im Detail eingeführt, um eine vollständige GitLab -Sicherungs- und Wiederherstellungsstrategie aufzubauen. 1. Manuell Backup Verwenden Sie den GitLab-RakegitLab: Backup: Befehl erstellen, um die manuelle Sicherung auszuführen. Dieser Befehl unterstützt wichtige Informationen wie GitLab Repository, Datenbank, Benutzer, Benutzergruppen, Schlüssel und Berechtigungen. Die Standardsicherungsdatei wird im Verzeichnis/var/opt/gitlab/backups gespeichert. Sie können /etc /gitlab ändern

Die Installation von MySQL auf CentOS umfasst die folgenden Schritte: Hinzufügen der entsprechenden MySQL Yum -Quelle. Führen Sie den Befehl mySQL-server aus, um den MySQL-Server zu installieren. Verwenden Sie den Befehl mySQL_SECURE_INSTALLATION, um Sicherheitseinstellungen vorzunehmen, z. B. das Festlegen des Stammbenutzerkennworts. Passen Sie die MySQL -Konfigurationsdatei nach Bedarf an. Tune MySQL -Parameter und optimieren Sie Datenbanken für die Leistung.

Aktivieren Sie die Pytorch -GPU -Beschleunigung am CentOS -System erfordert die Installation von CUDA-, CUDNN- und GPU -Versionen von Pytorch. Die folgenden Schritte führen Sie durch den Prozess: Cuda und Cudnn Installation Bestimmen Sie die CUDA-Version Kompatibilität: Verwenden Sie den Befehl nvidia-smi, um die von Ihrer NVIDIA-Grafikkarte unterstützte CUDA-Version anzuzeigen. Beispielsweise kann Ihre MX450 -Grafikkarte CUDA11.1 oder höher unterstützen. Download und installieren Sie Cudatoolkit: Besuchen Sie die offizielle Website von Nvidiacudatoolkit und laden Sie die entsprechende Version gemäß der höchsten CUDA -Version herunter und installieren Sie sie, die von Ihrer Grafikkarte unterstützt wird. Installieren Sie die Cudnn -Bibliothek:

Docker verwendet Linux -Kernel -Funktionen, um eine effiziente und isolierte Anwendungsumgebung zu bieten. Sein Arbeitsprinzip lautet wie folgt: 1. Der Spiegel wird als schreibgeschützte Vorlage verwendet, die alles enthält, was Sie für die Ausführung der Anwendung benötigen. 2. Das Union File System (UnionFS) stapelt mehrere Dateisysteme, speichert nur die Unterschiede, speichert Platz und beschleunigt. 3. Der Daemon verwaltet die Spiegel und Container, und der Kunde verwendet sie für die Interaktion. 4. Namespaces und CGroups implementieren Container -Isolation und Ressourcenbeschränkungen; 5. Mehrere Netzwerkmodi unterstützen die Containerverbindung. Nur wenn Sie diese Kernkonzepte verstehen, können Sie Docker besser nutzen.

Bei der Installation und Konfiguration von GitLab in einem CentOS -System ist die Auswahl der Datenbank von entscheidender Bedeutung. GitLab ist mit mehreren Datenbanken kompatibel, aber PostgreSQL und MySQL (oder MariADB) werden am häufigsten verwendet. Dieser Artikel analysiert Datenbankauswahlfaktoren und enthält detaillierte Installations- und Konfigurationsschritte. Datenbankauswahlhandbuch Bei der Auswahl einer Datenbank müssen Sie die folgenden Faktoren berücksichtigen: PostgreSQL: Die Standarddatenbank von GitLab ist leistungsstark, hat eine hohe Skalierbarkeit, unterstützt komplexe Abfragen und Transaktionsverarbeitung und ist für große Anwendungsszenarien geeignet. MySQL/Mariadb: Eine beliebte relationale Datenbank, die in Webanwendungen häufig verwendet wird, mit einer stabilen und zuverlässigen Leistung. MongoDB: NoSQL -Datenbank, spezialisiert auf

Pytorch Distributed Training on CentOS -System erfordert die folgenden Schritte: Pytorch -Installation: Die Prämisse ist, dass Python und PIP im CentOS -System installiert sind. Nehmen Sie abhängig von Ihrer CUDA -Version den entsprechenden Installationsbefehl von der offiziellen Pytorch -Website ab. Für CPU-Schulungen können Sie den folgenden Befehl verwenden: PipinstallTorChTorChVisionTorChaudio Wenn Sie GPU-Unterstützung benötigen, stellen Sie sicher, dass die entsprechende Version von CUDA und CUDNN installiert ist und die entsprechende Pytorch-Version für die Installation verwenden. Konfiguration der verteilten Umgebung: Verteiltes Training erfordert in der Regel mehrere Maschinen oder mehrere Maschinen-Mehrfach-GPUs. Ort
