Jeder, der DALL-E zum Erstellen von Bildern verwendet oder ChatGPT eine Hausarbeit schreiben lässt, verbraucht viele Cloud-Ressourcen. Wer soll das alles bezahlen?
Übersetzer |. Bugatti
Rezensent |. Künstliche Intelligenz (KI) ist eine ressourcenintensive Technologie für jede Plattform (einschließlich der öffentlichen Cloud). Die meisten KI-Technologien erfordern eine große Menge an Inferenzberechnungen, wodurch der Bedarf an Prozessor-, Netzwerk- und Speicherressourcen steigt und letztendlich die Stromrechnungen, Infrastrukturkosten und CO2-Emissionen steigen.
Der Aufstieg generativer KI-Systeme wie ChatGPT hat dieses Thema erneut in den Vordergrund gerückt. Angesichts der Beliebtheit dieser Technologie und der wahrscheinlich weit verbreiteten Nutzung durch Unternehmen, Regierungen und die Öffentlichkeit können wir mit einem besorgniserregenden Bogen in der Wachstumskurve des Stromverbrauchs rechnen.
KI ist seit den 1970er Jahren machbar, hatte jedoch zunächst keine großen kommerziellen Auswirkungen, wenn man bedenkt, dass ausgereifte und vollständige KI-Systeme viele Ressourcen erfordern, um ordnungsgemäß zu funktionieren. Ich erinnere mich an ein KI-basiertes System, das ich in meinen Zwanzigern entworfen habe und für dessen Inbetriebnahme über 40 Millionen US-Dollar an Hardware, Software und Rechenzentrumsfläche erforderlich waren. Übrigens gab es für dieses Projekt, wie für viele andere KI-Projekte auch, nie einen Veröffentlichungstermin, und die kommerzielle Lösung war einfach nicht realisierbar.
Cloud Computing verändert alles. Mit der Public Cloud können Aufgaben, die früher unerreichbar waren, nun mit ausreichender Kosteneffizienz erledigt werden. Tatsächlich geht der Aufstieg des Cloud Computing, wie Sie vielleicht schon vermutet haben, mit dem Aufstieg der KI in den letzten 10 bis 15 Jahren einher, und ich würde sagen, dass die beiden mittlerweile eng miteinander verbunden sind.
Nachhaltigkeit und Kosten von Cloud-Ressourcen
Die erhöhte Nachfrage nach KI bedeutet eine erhöhte Nachfrage nach den von diesen KI-Systemen genutzten Ressourcen, wie z. B. öffentlichen Clouds und den von ihnen bereitgestellten Diensten. Dieser Bedarf wird wahrscheinlich durch mehr Rechenzentren gedeckt werden, in denen stromhungrige Server und Netzwerkgeräte untergebracht sind.
Öffentliche Cloud-Anbieter werden wie alle anderen Anbieter von Versorgungsressourcen die Preise erhöhen, wenn die Nachfrage steigt, genau wie wir saisonale Erhöhungen der Stromrechnungen für Privathaushalte beobachten (wiederum basierend auf der Nachfrage). Deshalb kontrollieren wir normalerweise den Stromverbrauch und erhöhen im Sommer die Temperatur der Klimaanlage.
Höhere Cloud-Computing-Kosten haben jedoch möglicherweise nicht die gleichen Auswirkungen auf Unternehmen. Unternehmen stellen möglicherweise fest, dass diese KI-Systeme nicht entbehrlich, sondern notwendig sind, um bestimmte wichtige Geschäftsprozesse voranzutreiben. In vielen Fällen versuchen sie möglicherweise, intern Geld zu sparen, beispielsweise durch eine Reduzierung der Mitarbeiterzahl, um die Kosten für KI-Systeme auszugleichen. Es ist kein Geheimnis, dass generative KI-Systeme bald viele Informationsarbeiter ersetzen werden.
Was können wir tun?
Zum Beispiel kann das Sampling der Pipeline das Deep Learning beschleunigen, indem die Menge der verarbeiteten Daten reduziert wird. Untersuchungen des Massachusetts Institute of Technology (MIT) und von IBM zeigen, dass mit diesem Ansatz die Ressourcen reduziert werden können, die für die Ausführung neuronaler Netze auf großen Datensätzen erforderlich sind. Allerdings schränkt dies auch die Genauigkeit ein, was für einige geschäftliche Anwendungsfälle akzeptabel ist, jedoch nicht für alle.
Ein weiterer Ansatz, der bereits in anderen Technologiebereichen eingesetzt wird, ist In-Memory-Computing. Diese Architektur kann die KI-Verarbeitung beschleunigen, indem sie verhindert, dass Daten in den Speicher und aus dem Speicher verschoben werden. Stattdessen laufen KI-Berechnungen direkt im Speichermodul ab, was die Sache deutlich beschleunigt.
Andere Ansätze werden entwickelt, beispielsweise die Änderung des physischen Prozessors (Verwendung von Co-Prozessoren zur Durchführung von KI-Berechnungen, um die Geschwindigkeit zu erhöhen) oder die Einführung von Computermodellen der nächsten Generation wie Quantencomputing. Sie können davon ausgehen, dass große öffentliche Cloud-Anbieter in naher Zukunft Technologien ankündigen werden, die viele dieser Probleme lösen.
Was sollten Sie tun?
Es wird empfohlen, dass Sie bei der Durchführung eines KI-basierten Entwicklungsprojekts oder eines neuen KI-Systementwicklungsprojekts die Auswirkungen auf Kosten und Nachhaltigkeit klar verstehen, da beide eng miteinander verbunden sind. Sie müssen eine Kosten-Nutzen-Entscheidung treffen, die wirklich auf die alte Frage zurückgreift, welchen Wert Sie für das Unternehmen bei den Kosten und Risiken, die Sie eingehen müssen, bringen können. Hier gibt es nichts Neues.
Ich glaube, dass dieses Problem weitgehend durch Innovation gelöst werden kann, unabhängig davon, ob es sich bei dieser Innovation um In-Memory-Computing, Quantencomputing oder andere Technologien handelt, die es noch nicht gibt. KI-Technologieanbieter und Cloud-Computing-Anbieter sind bestrebt, KI kostengünstiger, energieeffizienter und umweltfreundlicher zu machen, was eine gute Nachricht ist.
Originaltitel: The cost and sustainable of generative AI, Autor: David S. Linthicum
Das obige ist der detaillierte Inhalt vonDie Kosten und Nachhaltigkeit generativer KI. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!