Ampere Cloud native Plattform: Die perfekte Kombination aus Leistung, Nachhaltigkeit und Kosteneffizienz
Dieser Artikel ist der vierte Teil der "Accelerating Cloud Computing" -Serie von Ampere Computing, in der die vielen Vorteile der Migration auf Cloud-nativen Plattformen untersucht werden. Der vorherige Artikel hat die Unterschiede zwischen X86-Architektur und Cloud-nativen Plattformen und den für die Cloud-native Migration erforderlichen Investitionen erläutert. Dieser Artikel konzentriert sich auf die Vorteile von Cloud-nativen Plattformen.
Die Vorteile von Cloud -nativen Prozessoren in Cloud Computing:
Cloud native Prozessor erreicht die Spitzenleistung
Im Gegensatz zur X86 -Architektur, die eine große Anzahl von Legacy -Funktionen trägt, sind Ampere Cloud -native Prozessoren so ausgelegt, dass sie effizient gemeinsame Cloud -Anwendungsaufgaben ausführen. Dies verbessert die Leistung kritischer Cloud -Workloads, auf die Unternehmen am meisten angewiesen sind, erheblich.
Abbildung 1: Ampere Cloud native Plattform führt bei kritischen Cloud -Workloads signifikant höher als X86 -Plattformen. Bild aus "Kernverfeinerung von Cloud -nativen Prozessoren".
Cloud Native bringt eine höhere Reaktionsgeschwindigkeit, Konsistenz und Vorhersehbarkeit
mit.
Für Anwendungen, die Netzwerkdienste anbieten, ist die Antwortzeit der Benutzeranforderungen eine wichtige Leistungsmetrik. Die Reaktionsgeschwindigkeit hängt von der Last und der Skalierbarkeit ab.
Während die Spitzenleistung wichtig ist, müssen viele Anwendungen bestimmte Service Level -Vereinbarungen (SLAs) entsprechen, z. B. die Reaktion innerhalb von zwei Sekunden. Daher messen Cloud -Operations -Teams die Reaktionsgeschwindigkeit normalerweise mithilfe der P99 -Latenz (d. H. 99% der Anfragen erhalten in dieser Zeit eine zufriedenstellende Reaktionszeit).
Um die P99 -Latenz zu messen, erhöhen wir die Anzahl der Anforderungen an den Dienst, um festzustellen, wo 99% der Transaktionen innerhalb der erforderlichen SLA noch abgeschlossen sind. Auf diese Weise können wir den maximalen Durchsatz bewerten, während die SLA beibehalten wird und die Auswirkungen auf die Leistung mit zunehmender Anzahl von Benutzern bewertet.
Konsistenz und Vorhersagbarkeit sind zwei Hauptfaktoren, die die Gesamtlatenz und die Reaktionsgeschwindigkeit beeinflussen. Die Reaktionsgeschwindigkeit ist vorhersehbarer, wenn die Aufgabenleistung konsistenter ist. Mit anderen Worten, je kleiner der Unterschied in der Latenz und Leistung, desto vorhersehbarer ist die Reaktionsgeschwindigkeit einer Aufgabe. Die Vorhersehbarkeit hilft auch bei der Vereinfachung der Arbeitsbelastungsausgleich.
Wie im ersten Teil dieser Serie erwähnt, verwendet der X86 Core die Hyperthreading -Technologie, um die Kernnutzung zu verbessern. Da zwei Threads einen Kern haben, ist es schwierig, SLA zu garantieren. Hyperthreading Overhead und inhärente Inkonsistenzen in anderen X86 -Architekturproblemen führen zu größeren Latenzunterschieden zwischen Aufgaben im Vergleich zu Ampere -Cloud -nativen Prozessoren (siehe Abbildung 2). X86-basierte Plattformen können daher eine hohe Spitzenleistung aufrechterhalten, werden jedoch aufgrund von Unterschieden mit hoher Latenz bald die SLA übertreffen. Darüber hinaus, desto strengerer SLA (d. H. Sekunden gegen Millisekunden), desto größer ist der Einfluss dieser Differenz auf die Latenz und die Reaktionsgeschwindigkeit von P99.
Abbildung 2: Hyperthreading und andere X86 -Architekturprobleme führen zu erhöhten Latenzunterschieden, die den Durchsatz und SLA negativ beeinflussen. Bild aus "Kernverfeinerung von Cloud -nativen Prozessoren".
In diesem Fall besteht die einzige Möglichkeit, die Latenz zu verringern, die Antragsrate zu reduzieren. Mit anderen Worten, um SLA zu gewährleisten, müssen mehr X86 -Ressourcen zugewiesen werden, um sicherzustellen, dass jeder Kern unter niedrigeren Lasten läuft, wodurch das Problem großer Unterschiede in Reaktionsgeschwindigkeiten zwischen Threads unter hohen Lasten gelöst wird. X86-basierte Anwendungen unterliegen daher mehr Einschränkungen für die Anzahl der Anforderungen, die sie bei der Verwaltung ihrer SLAs verwalten können.
Vergleichsdiagramm der Leistung und Energieeffizienz von Nginx, Redis, H.264 Mediencodierung und Memcached
Cloud Native bringt eine höhere Kosteneffizienz
Cloud -native Methoden können SLA auf wiederholbare Weise eine konsistente Reaktionsgeschwindigkeit und eine höhere Leistung bieten, was auch eine höhere Kostenleistung bedeutet. Dies senkt direkt die Betriebskosten, da mehr Anfragen mit weniger Kernen verwaltet werden können. Kurz gesagt, native Cloud -Plattformen ermöglichen es Anwendungen, mehr mit weniger Kernen zu tun, ohne die SLA zu beeinflussen. Eine höhere Auslastung führt direkt in niedrigere Betriebskosten-da Sie weniger Cloud-native Kerne benötigen, um dieselbe Last im Vergleich zu X86-basierten Plattformen zu verwalten.
Wie viel können Sie sparen? Die grundlegende Computereinheit des Cloud Computing ist VCPU. Für X86-basierte Plattformen führt jeder X86-Kern jedoch zwei Threads aus. Wenn Sie also das Hyperthreading deaktivieren möchten, müssen Sie X86 VCPU paarweise mieten. Andernfalls wird die Anwendung den X86 -Kern mit einer anderen Anwendung freigegeben.
Auf Cloud -nativen Plattformen wird der gesamte Kern beim Mieten von VCPUs zugewiesen. In Anbetracht 1) ein einzelner Ampere-basierter VCPU auf einem Cloud-Dienstanbieter (CSP) bietet ein vollständiger Ampere-Kern, 2) Ampere liefert mehr Kerne pro Schlitz, entsprechend höhere Leistung pro Watt und 3) Ampere-VCPUs Die Kosten pro Stunde sind normalerweise niedriger Aufgrund höherer Kerndichte und niedrigerer Betriebskosten, was zu einem 4,28-fachen Kosten-/Leistungsvorteil von Ampere Cloud-nativen Plattformen für einige Cloud-native Workloads führt.
höhere Energieeffizienz, bessere Nachhaltigkeit und niedrigere Betriebskosten
Stromverbrauch ist ein globales Problem, und das Stromverbrauchsmanagement wird schnell zu einer der Hauptherausforderungen für Cloud -Dienstleister. Derzeit verbrauchen Rechenzentren 1% bis 3% des weltweiten Stroms, und dieser Anteil wird sich voraussichtlich bis 2032 verdoppeln. Im Jahr 2022 wird erwartet, dass Cloud -Rechenzentren 80% dieses Energiebedarfs ausmachen.
Da sich die Architektur seit mehr als 40 Jahren für verschiedene Anwendungsfälle entwickelt hat, verbrauchen Intel X86-Kerne mehr Leistung als die meisten Cloud-basierten Microservices-basierten Anwendungen. Darüber hinaus machen das Strombudget des Racks und die Wärmeabteilung dieser Kerne CSP unmöglich, das Rack mit einem X86 -Server zu füllen. Angesichts der Leistung und der thermischen Einschränkungen des X86 -Prozessors muss der CSP möglicherweise Platz im Rack lassen und wertvolle Platz verschwenden. Tatsächlich wird bis 2025 erwartet, dass herkömmliche (x86) Cloud -Computing -Ansätze die Strombedarfsdachfrage von Rechenzentren verdoppeln und den Immobilienbedarf um das 1,6 -fache erhöhen.
Abbildung 7: Die Leistung und der Raum, der erforderlich ist, um das erwartete Wachstum von Rechenzentren fortzusetzen. Bild aus "Kernverfeinerung von Cloud -nativen Prozessoren".
Unter Berücksichtigung von Kosten und Leistung muss das Cloud Computing von allgemeinem X86-Computing zu einer Cloud-nativen Plattform wechseln, die energieeffizienter und höher ist. Insbesondere müssen wir eine höhere Kerndichte im Rechenzentrum sowie leistungsstarke Kerne haben, die effizient, energieeffizienter und weniger Betriebskosten sind.
Da die native Ampere -Cloud -Plattform für die Energieeffizienz ausgelegt ist, verbrauchen Anwendungen weniger Leistung, ohne die Leistung oder Reaktionsgeschwindigkeit zu beeinträchtigen. Abbildung 8 zeigt den Stromverbrauch von Workloads in großem Maßstab, die auf X86-basierten Plattformen und Ampere-Cloud-nativen Plattformen ausgeführt werden. Abhängig von der Anwendung ist die Leistung von Ampere pro Watt (gemessen mit der Leistung pro Watt) signifikant höher als die X86 -Plattform.
Abbildung 8: Ampere Cloud native Plattform weist bei kritischen Cloud -Workloads eine signifikant höhere Energieeffizienz als X86 -Plattformen auf. Bild aus "Kernverfeinerung von Cloud -nativen Prozessoren".
Die Architektur mit geringer Leistung von Cloud-nativen Plattformen ermöglicht eine höhere Kerndichte pro Rack. Beispielsweise ermöglichen die hohe Kernzahl von Ampere® Altra® (80 Kerne) und Altra Max (128 Kerne) CSPs, eine unglaubliche Kerndichte zu erreichen. Mit Altra Max kann ein 1U -Chassis mit zwei Slots 256 Kerne in einem einzigen Rack haben (siehe Abbildung 8).
Mit nativen Cloud -Prozessoren müssen Entwickler und Architekten nicht mehr zwischen geringer Leistung und hoher Leistung wählen. Die Altra -Serienprozessorarchitektur bietet eine höhere Rechenleistung - UP bis 2,5x Leistung pro Rack - und die dreifache Anzahl der Racks, die erforderlich sind, um die gleiche Rechenleistung wie herkömmliche X86 -Prozessoren zu erhalten. Die Effizienzarchitektur von Cloud-nativen Prozessoren liefert auch die besten Kosten der Branche pro Watt.
Abbildung 9: Die Ineffizienz der X86 -Plattform führt zu einer Kapazität von Leerlaufregalen, während die hohe Energieeffizienz des Ampere Altra Max den gesamten verfügbaren Raum voll ausnutzt.
Die Vorteile sind beeindruckend. Bis 2025 können Cloud-native Anwendungen, die in ampere basierten Cloud-Rechenzentren ausgeführt werden, den Strombedarf auf geschätzte 80% der aktuellen Nutzung reduzieren. In der Zwischenzeit wird der Immobilienbedarf voraussichtlich um 70% sinken (siehe Abbildung 7 oben). Ampere Cloud Native Platform bietet eine 3 -fach -Leistung pro Watt -Vorteil, die die Kapazität des Rechenzentrums effektiv verdreifacht und gleichzeitig gleich bleibt.
Bitte beachten Sie, dass diese Cloud-native Methode keine fortschrittliche Flüssigkühlungstechnologie erfordert. Während die Flüssigkühlung die Dichte von X86 -Kernen in einem Rack erhöht, bringt sie höhere Kosten ohne neuen Wert. Cloud-native Plattformen verzögern die Nachfrage nach dieser fortgeschrittenen Kühlung auf eine weitere Zukunft, indem CSPs ermöglicht werden können, mit ihren vorhandenen Immobilien- und Stromkapazitäten mehr zu tun.
Die Energieeffizienz von nativen Cloud -Plattformen bedeutet eine nachhaltigere Cloud -Bereitstellung (siehe Abbildung 10 unten). Es ermöglicht Unternehmen auch, ihren CO2 -Fußabdruck zu reduzieren, einem Faktor, der zunehmend von Stakeholdern wie Anlegern und Verbrauchern geschätzt wird. In der Zwischenzeit kann CSPs mehr Computerbefugnis unterstützen, um die wachsende Nachfrage innerhalb ihrer bestehenden Kapazitäts- und Leistungsbeschränkungen zu befriedigen. Um zusätzliche Wettbewerbsvorteile zu erzielen, wird CSPs, die ihren Cloud-nativen Markt erweitern möchten, Stromausgaben für die Rechenressourcenpreise enthalten-die Wettbewerbsvorteile für Cloud-native Plattformen bieten.
Abbildung 10: Warum Cloud-natives Computing für Nachhaltigkeit von entscheidender Bedeutung ist. Bild aus "Kernverfeinerung von Cloud -nativen Prozessoren".
Cloud Native erreicht eine höhere Reaktionsgeschwindigkeit und Skalierbarkeitsleistung
Mit
Cloud Computing können Unternehmen große monolithische Anwendungen beseitigen und zu Anwendungskomponenten (oder Microservices) wechseln, die mehr Kopien von Komponenten für die Nachfrage nach Skalierung erstellen können. Da diese Cloud-nativen Anwendungen in der Natur verteilt und für die Cloud-Bereitstellung ausgelegt sind, können sie auf Cloud-nativen Plattformen nahtlos auf 100.000 Benutzer skalieren.Wenn Sie beispielsweise mehrere MySQL -Container bereitstellen, müssen Sie sicherstellen, dass jeder Container eine stabile Leistung hat. Bei Ampere hat jede Anwendung ihren eigenen Kern. Es besteht keine Notwendigkeit, die Isolation aus einem anderen Thread zu überprüfen, noch den Overhead bei der Verwaltung von Hyperthreading. Stattdessen bietet jede Anwendung eine konsistente, vorhersehbare und wiederholbare Leistung mit nahtloser Skalierbarkeit.
Ein weiterer Vorteil, sich der Cloud -nativen zu wenden, ist die lineare Skalierbarkeit. Kurz gesagt, jeder Cloud-native Kern verbessert die Leistung linear im Vergleich zur X86-Leistung-und die X86-Leistung nimmt mit zunehmender Verwendung ab. Abbildung 11 unten zeigt die H.264 -Codierung.
Abbildung 11: Ampere Cloud Native Computing erweitert sich linear, was nicht den Kapazitäts -Leerlauf verursacht, was sich vom X86 -Computing unterscheidet. Bild aus "Kernverfeinerung von Cloud -nativen Prozessoren".
Zusammenfassung der nativen Cloud -Vorteile
Es ist offensichtlich, dass die aktuelle X86 -Technologie nicht in der Lage sein wird, zunehmend strengere Leistungsbeschränkungen und -vorschriften zu erfüllen. Dank ihrer effizienten Architektur bietet die Ampere Cloud native Plattform eine 2x -Leistung pro Kern als die X86 -Architektur. Darüber hinaus führen niedrigere Latenzunterschiede zu einer höheren Konsistenz, einer höheren Vorhersagbarkeit und besseren Reaktionsgeschwindigkeiten-können Sie SLAs erfüllen, ohne die Rechenressourcen erheblich überkonfigurieren zu müssen. Die vereinfachte Architektur von Cloud-nativen Plattformen bringt auch eine höhere Energieeffizienz mit sich, was zu nachhaltigeren Operationen und niedrigeren Betriebskosten führt.
Der Nachweis der nativen Effizienz und Skalierbarkeit von Clouds spiegelt sich am besten in hohen Lastperioden wider, z. B. in 100.000 Benutzern. Hier bringt die Konsistenz der Ampere Cloud Native Platform enorme Vorteile mit einem Preis/einer Leistung von 4,28-mal höher als X86 in groß angelegten Cloud-nativen Anwendungen und bietet dennoch Kunden-SLAs.
Im fünften Teil dieser Serie werden wir mit der Zusammenarbeit mit Partnern sofort mit der Nutzung von Cloud-nativen Plattformen abdecken und gleichzeitig Investitionen oder Risiken minimieren.
Bitte besuchen Sie das Ampere Computing Developer Center, um mehr verwandte Inhalte und die neuesten Nachrichten zu erhalten. Sie können sich auch für den Ampere Computing Developer Newsletter anmelden oder der Ampere Computing Developer Community beitreten.
Wir haben diesen Artikel in Zusammenarbeit mit Ampere Computing geschrieben. Vielen Dank, dass Sie die Partner unterstützt haben, die SitePoint ermöglicht haben.
Das obige ist der detaillierte Inhalt vonBeschleunigung der Cloud: Was zu erwarten ist, wenn Sie Cloud native machen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!