


Drei große Herausforderungen der generativen KI für den Betrieb und die Wartung der Cloud
Autor |. David Linthicum
Planung |. Heutzutage zweifelt niemand an der Leistungsfähigkeit der KI, aber Unternehmen müssen sich darüber im Klaren sein, dass sie auch zur Bereitstellung zu vieler Anwendungen, Skalierungsproblemen und Kostenüberschreitungen führen kann.
Da ich Erfahrung in der KI-Entwicklung und Integration in Unternehmens- und Cloud-Architekturen habe, kenne ich die Vorteile generativer KI. Allerdings weiß ich auch, dass es zwar viele Vorteile gibt, aber auch Nachteile, die gleichzeitig berücksichtigt werden müssen. Da sich generative KI so schnell entwickelt, ist es wichtig zu entscheiden, wie man sie effektiv verwaltet und etwaige negative Auswirkungen reduziert.
Ich schlage drei Hauptnachteile generativer KI vor, die Cloud-Computing-Experten verstehen und bewältigen müssen.
1. Zu viele Cloud-Anwendungsbereitstellungen
Das ist das größte Problem, das ich sehe. Jetzt können wir mit No-Code- oder Low-Code-Mechanismen mithilfe generierter KI-gesteuerter Entwicklungstools Anwendungen schneller erstellen. Die Anzahl der bereitgestellten Anwendungen (die alle verwaltet werden müssen) kann leicht außer Kontrolle geraten.
Natürlich ist es gut, die Anwendungsbereitstellung zu beschleunigen, um den Geschäftsanforderungen gerecht zu werden. Der Anwendungsstau begrenzte das Geschäftswachstum in den 90er und frühen 2000er Jahren, also ist jede Möglichkeit, ihn zu verbessern, gut für das Geschäft, oder?
Allerdings sehe ich eine geradezu rücksichtslose Herangehensweise an die App-Entwicklung. Die für den Aufbau und die Bereitstellung dieser Systeme erforderliche Arbeit dauert nur Tage und manchmal Stunden. Unternehmen legen nicht viel Wert auf die Gesamtrolle von Anwendungen, und viele Anwendungen werden speziell für taktische Zwecke entwickelt und sind oft überflüssig. CloudOps-Teams versuchen, die drei- bis fünffache Anzahl an Anwendungen und verbundenen Datenbanken zu verwalten, die sie sollten. Das ganze Chaos lässt sich nicht skalieren und die Kosten sind zu hoch.
2. Skalierungsproblem
Generative künstliche Intelligenzsysteme erfordern mehr Rechen- und Speicherressourcen als derzeit bereitgestellt. Eine größere Skalierung erfordert die Nutzung dieser Ressourcen und ist nicht so einfach wie die Bereitstellung weiterer Speicher- und Rechendienste.
Um den Einsatz generativer KI-Systeme rasch auszuweiten, müssen Überlegungen und Planungen zur Beschaffung und Bereitstellung zusätzlicher Ressourcenunterstützung angestellt werden. Dies hängt im Allgemeinen davon ab, dass das Betriebsteam die richtige Menge an Ressourcen korrekt bereitstellt, ohne den Wert des Systems zu beeinträchtigen oder seine Fähigkeiten einzuschränken. Die Kompromisse hier sind nahezu endlos.
3. Geben Sie Geld wie Wasser aus und geben Sie zu viel aus
Wir stellen möglicherweise fest, dass die Kosten für die Erstellung von KI-Systemen dramatisch gestiegen sind, während wir damit beschäftigt sind, Finanzbetriebssysteme zur Überwachung und Verwaltung von Cloud-Kosten aufzubauen. Was sollten Sie tun?
Eigentlich ist dies ein geschäftliches Problem, kein technisches Problem. Unternehmen müssen verstehen, warum Cloud-Ausgaben getätigt werden, wie sie getätigt werden und welche Vorteile sich daraus für die Geschäftsrendite ergeben. Die Kosten können dann in das vordefinierte Budget eingerechnet werden.
Dies ist ein Hotspot für Unternehmen, deren Cloud-Ausgaben begrenzt sind. Oftmals möchten Branchenentwickler generative KI-Systeme aus legitimen Geschäftsgründen nutzen. Allerdings sind sie, wie bereits erwähnt, mit einem hohen Preis verbunden, sodass Unternehmen eine Finanzierung, kommerzielle Motivation oder beides finden müssen.
Obwohl generative künstliche Intelligenz heute die Technologie ist, die von den sogenannten „coolen Kids“ verwendet wird, ist sie in der Regel nicht kosteneffektiv. Generative KI wird manchmal für einfache taktische Aufgaben eingesetzt, die mit traditionelleren Entwicklungsmethoden vergleichbar sind. Der übermäßige Einsatz von KI ist seit ihrer Einführung ein anhaltendes Problem; die Realität ist, dass die Technologie nur auf bestimmte Geschäftsprobleme anwendbar ist. Aber es ist beliebt, gehypt und daher überstrapaziert.
Diese Fragen verdeutlichen den Bedarf an mehr Erfahrung, wenn diese Technologie ausgereift ist. Dies könnte jedoch negative Auswirkungen auf den Cloud-Betrieb haben, wie es auch beim ersten Start der Cloud der Fall war.
Originallink:
https://www.php.cn/link/a26475af783877529bf81eed81743d71Das obige ist der detaillierte Inhalt vonDrei große Herausforderungen der generativen KI für den Betrieb und die Wartung der Cloud. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Der Befehl centOS stilldown wird heruntergefahren und die Syntax wird von [Optionen] ausgeführt [Informationen]. Zu den Optionen gehören: -h das System sofort stoppen; -P schalten Sie die Leistung nach dem Herunterfahren aus; -r neu starten; -t Wartezeit. Zeiten können als unmittelbar (jetzt), Minuten (Minuten) oder als bestimmte Zeit (HH: MM) angegeben werden. Hinzugefügten Informationen können in Systemmeldungen angezeigt werden.

Backup- und Wiederherstellungsrichtlinie von GitLab im Rahmen von CentOS -System Um die Datensicherheit und Wiederherstellung der Daten zu gewährleisten, bietet GitLab on CentOS eine Vielzahl von Sicherungsmethoden. In diesem Artikel werden mehrere gängige Sicherungsmethoden, Konfigurationsparameter und Wiederherstellungsprozesse im Detail eingeführt, um eine vollständige GitLab -Sicherungs- und Wiederherstellungsstrategie aufzubauen. 1. Manuell Backup Verwenden Sie den GitLab-RakegitLab: Backup: Befehl erstellen, um die manuelle Sicherung auszuführen. Dieser Befehl unterstützt wichtige Informationen wie GitLab Repository, Datenbank, Benutzer, Benutzergruppen, Schlüssel und Berechtigungen. Die Standardsicherungsdatei wird im Verzeichnis/var/opt/gitlab/backups gespeichert. Sie können /etc /gitlab ändern

Vollständige Anleitung zur Überprüfung der HDFS -Konfiguration in CentOS -Systemen In diesem Artikel wird die Konfiguration und den laufenden Status von HDFS auf CentOS -Systemen effektiv überprüft. Die folgenden Schritte helfen Ihnen dabei, das Setup und den Betrieb von HDFs vollständig zu verstehen. Überprüfen Sie die Hadoop -Umgebungsvariable: Stellen Sie zunächst sicher, dass die Hadoop -Umgebungsvariable korrekt eingestellt ist. Führen Sie im Terminal den folgenden Befehl aus, um zu überprüfen, ob Hadoop ordnungsgemäß installiert und konfiguriert ist: Hadoopsion-Check HDFS-Konfigurationsdatei: Die Kernkonfigurationsdatei von HDFS befindet sich im/etc/hadoop/conf/verzeichnis, wobei core-site.xml und hdfs-site.xml von entscheidender Bedeutung sind. verwenden

Aktivieren Sie die Pytorch -GPU -Beschleunigung am CentOS -System erfordert die Installation von CUDA-, CUDNN- und GPU -Versionen von Pytorch. Die folgenden Schritte führen Sie durch den Prozess: Cuda und Cudnn Installation Bestimmen Sie die CUDA-Version Kompatibilität: Verwenden Sie den Befehl nvidia-smi, um die von Ihrer NVIDIA-Grafikkarte unterstützte CUDA-Version anzuzeigen. Beispielsweise kann Ihre MX450 -Grafikkarte CUDA11.1 oder höher unterstützen. Download und installieren Sie Cudatoolkit: Besuchen Sie die offizielle Website von Nvidiacudatoolkit und laden Sie die entsprechende Version gemäß der höchsten CUDA -Version herunter und installieren Sie sie, die von Ihrer Grafikkarte unterstützt wird. Installieren Sie die Cudnn -Bibliothek:

Die Installation von MySQL auf CentOS umfasst die folgenden Schritte: Hinzufügen der entsprechenden MySQL Yum -Quelle. Führen Sie den Befehl mySQL-server aus, um den MySQL-Server zu installieren. Verwenden Sie den Befehl mySQL_SECURE_INSTALLATION, um Sicherheitseinstellungen vorzunehmen, z. B. das Festlegen des Stammbenutzerkennworts. Passen Sie die MySQL -Konfigurationsdatei nach Bedarf an. Tune MySQL -Parameter und optimieren Sie Datenbanken für die Leistung.

Docker verwendet Linux -Kernel -Funktionen, um eine effiziente und isolierte Anwendungsumgebung zu bieten. Sein Arbeitsprinzip lautet wie folgt: 1. Der Spiegel wird als schreibgeschützte Vorlage verwendet, die alles enthält, was Sie für die Ausführung der Anwendung benötigen. 2. Das Union File System (UnionFS) stapelt mehrere Dateisysteme, speichert nur die Unterschiede, speichert Platz und beschleunigt. 3. Der Daemon verwaltet die Spiegel und Container, und der Kunde verwendet sie für die Interaktion. 4. Namespaces und CGroups implementieren Container -Isolation und Ressourcenbeschränkungen; 5. Mehrere Netzwerkmodi unterstützen die Containerverbindung. Nur wenn Sie diese Kernkonzepte verstehen, können Sie Docker besser nutzen.

Der Befehl zum Neustart des SSH -Dienstes lautet: SystemCTL Neustart SSHD. Detaillierte Schritte: 1. Zugriff auf das Terminal und eine Verbindung zum Server; 2. Geben Sie den Befehl ein: SystemCTL Neustart SSHD; 1. Überprüfen Sie den Dienststatus: SystemCTL -Status SSHD.

Pytorch Distributed Training on CentOS -System erfordert die folgenden Schritte: Pytorch -Installation: Die Prämisse ist, dass Python und PIP im CentOS -System installiert sind. Nehmen Sie abhängig von Ihrer CUDA -Version den entsprechenden Installationsbefehl von der offiziellen Pytorch -Website ab. Für CPU-Schulungen können Sie den folgenden Befehl verwenden: PipinstallTorChTorChVisionTorChaudio Wenn Sie GPU-Unterstützung benötigen, stellen Sie sicher, dass die entsprechende Version von CUDA und CUDNN installiert ist und die entsprechende Pytorch-Version für die Installation verwenden. Konfiguration der verteilten Umgebung: Verteiltes Training erfordert in der Regel mehrere Maschinen oder mehrere Maschinen-Mehrfach-GPUs. Ort
