Es wurde viel darüber diskutiert, wie KI die Entwicklung von Cloud-Plattformen beschleunigen und eine neue Generation KI-gesteuerter Tools zur Verwaltung von Cloud-Umgebungen ermöglichen wird. Aber KI könnte einen anderen Aspekt der Cloud auf den Kopf stellen: die Vernetzung. Da immer mehr KI-Workloads in die Cloud verlagert werden, wird die Fähigkeit, bessere Cloud-Netzwerklösungen bereitzustellen, zu einer zentralen Priorität. Hier erfahren Sie, warum und wie die Zukunft der Cloud-Vernetzung im Zeitalter der künstlichen Intelligenz aussehen könnte.
Der Grund, warum KI neue Anforderungen an Cloud-Netzwerke stellen wird, ist einfach: Um in großem Maßstab gut zu funktionieren, erfordern KI-Workloads ein beispielloses Leistungsniveau von Cloud-Netzwerken.
In vielen Fällen befinden sich die Daten, auf die KI-Workloads zugreifen müssen, auf Remote-Servern, die sich innerhalb derselben Cloud-Plattform wie der Workload oder in einer anderen Cloud befinden.
Cloud-Netzwerke stellen wichtige Verbindungen zwischen KI-Arbeitslasten und Daten bereit. In vielen Fällen wird die Datenmenge riesig sein, sodass das Training eines einfachen KI-Modells möglicherweise auch eine große Menge an Informationen erfordert, während das Modell mit geringer Latenz auf die Daten zugreifen muss. Daher müssen Netzwerke in der Lage sein, sehr hohe Bandbreiten bei sehr hohem Leistungsniveau zu unterstützen.
KI ist nicht nur in der Lage, eine stabile Netzwerkverbindungsleistung bereitzustellen, sondern ist auch nicht die einzige Cloud-Workload, die eine hervorragende Netzwerkleistung erfordert. Die Fähigkeit, Netzwerke mit geringer Latenz und hoher Bandbreite bereitzustellen, ist seit langem für Anwendungsfälle wie Cloud-Desktops und Video-Streaming wichtig.
Cloud-Dienstanbieter bieten auch langfristig Lösungen an, um diese Anforderungen an die Netzwerkleistung zu erfüllen. Alle großen Clouds bieten „Direct Connect“-Netzwerkdienste an, die die Netzwerkgeschwindigkeit und -zuverlässigkeit erheblich verbessern können, insbesondere beim Verschieben von Daten zwischen Clouds in einer Multi-Cloud-Architektur oder als Teil eines Hybrid-Cloud-Modells zwischen privaten und öffentlichen Rechenzentren Wolken.
Für KI-Workloads mit wirklich besonderen Anforderungen an die Netzwerkleistung reicht eine direkte Verbindung zum Dienst jedoch möglicherweise nicht aus. Workloads erfordern möglicherweise auch eine Optimierung auf Hardwareebene in Form von Lösungen wie Datenverarbeitungseinheiten (DPUs), die dabei helfen, den Netzwerkverkehr äußerst effizient zu verarbeiten. Tatsächlich investieren Anbieter wie Google bereits in diesen Bereich und führen eine Cloud-Plattform ein, die auf generative KI zugeschnitten ist. Es zeigt, dass ein Unternehmen, das vor allem für den Verkauf von Grafikkarten bekannt ist, auch erkennt, dass die Erschließung des vollen Potenzials der künstlichen Intelligenz auch Innovationen bei der Netzwerkhardware erfordert.
Derzeit bleibt abzuwarten, wie Cloud-Anbieter, Hardware-Anbieter und Entwickler künstlicher Intelligenz auf die besonderen Herausforderungen reagieren werden, die künstliche Intelligenz für den Bereich Cloud-Netzwerke mit sich bringt. Insgesamt können wir jedoch folgende Veränderungen feststellen:
Stärkere Nutzung von Direktverbindungen: In der Vergangenheit wurden Cloud-Direktverbindungsdienste tendenziell nur von großen Unternehmen mit komplexen Cloud-Architekturen und hohen Leistungsanforderungen genutzt. Aber bei kleineren Unternehmen, die die Vorteile cloudbasierter KI-Workflows voll ausschöpfen möchten, könnten direkte Verbindungen häufiger vorkommen.
Höhere Egress-Kosten: Da Cloud-Anbieter normalerweise „Egress“-Gebühren erheben, wenn Daten das Netzwerk verlassen, können in der Cloud ausgeführte KI-Workloads die Netzwerkgebühren erhöhen, die Unternehmen für den Egress zahlen. Künftig wird die Fähigkeit, durch KI-Workloads ausgelöste Ausgangsgebühren vorherzusagen und zu verwalten, ein wichtiger Bestandteil der Cloud-Kostenoptimierung sein.
Schwankungen der Netzwerknutzung: Einige KI-Workloads verbrauchen große Mengen an Cloud-Netzwerkressourcen, jedoch nur vorübergehend. Beispielsweise müssen sie möglicherweise während des Trainings große Datenmengen verschieben, die Netzwerknutzung jedoch nach Abschluss des Trainings reduzieren. Dies bedeutet, dass die Fähigkeit, sich an große Schwankungen der Netzwerknutzung anzupassen, zu einem weiteren wichtigen Bestandteil des Cloud-Netzwerkleistungsmanagements werden kann.
Wenn Sie die Cloud voll ausnutzen möchten, um Workloads mit künstlicher Intelligenz zu übertragen, müssen Sie Ihre Cloud-Netzwerkstrategie optimieren. Dazu müssen Sie fortschrittliche Netzwerkdienste und Hardware nutzen und gleichzeitig die Cloud-Kostenoptimierung und Netzwerkleistung anpassen Managementstrategien.
Derzeit entwickeln sich die verfügbaren Lösungen zur Erreichung dieser Ziele noch weiter, aber für jedes Unternehmen, das KI-Workloads in der Cloud bereitstellen möchte, ist dies ein Bereich, den es genau im Auge behalten sollte.
Das obige ist der detaillierte Inhalt vonWie künstliche Intelligenz die Cloud-Vernetzung revolutioniert. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!