In Hyperscale-Umgebungen können geheime Funktionen und Mikrooptimierungen echte Vorteile bringen, für den Massenmarkt sind sie jedoch möglicherweise nicht notwendig. Wäre dies von entscheidender Bedeutung, würde der Wechsel in die Cloud durch das Aufkommen maßgeschneiderter Netzwerklösungen begrenzt werden, aber leider ist dies nicht der Fall.
Angetrieben durch bahnbrechende Anwendungsfälle bei der Generierung von Texten, Kunst und Videos hat sich künstliche Intelligenz von einer fernen Fantasie zu einer kurzfristigen Notwendigkeit entwickelt. Es beeinflusst die Art und Weise, wie Menschen über alle Bereiche denken, und die Vernetzung von Rechenzentren ist sicherlich nicht immun. Doch was könnte künstliche Intelligenz im Rechenzentrum bedeuten? Wie werden die Leute anfangen?
Während Forscher möglicherweise einige algorithmische Ansätze zur Netzwerksteuerung erschließen, scheint dies nicht der primäre Anwendungsfall für KI in Rechenzentren zu sein. Die einfache Tatsache ist, dass die Konnektivität von Rechenzentren weitgehend ein gelöstes Problem ist.
In Hyperscale-Umgebungen können geheime Funktionen und Mikrooptimierungen echte Vorteile bringen, für den Massenmarkt sind sie jedoch möglicherweise nicht notwendig. Wäre dies von entscheidender Bedeutung, würde der Übergang in die Cloud durch das Aufkommen maßgeschneiderter Netzwerklösungen begrenzt werden. Leider ist dies nicht der Fall.
Wenn KI einen bleibenden Eindruck hinterlassen soll, muss sie einsatzbereit sein. Networking-Praktiken werden zum Schlachtfeld für die für die Vernetzung erforderlichen Arbeitsabläufe und Aktivitäten. In Kombination mit den 15-jährigen Ambitionen der Branche im Bereich Automatisierung ergibt dies tatsächlich sehr viel Sinn. Kann KI den nötigen Technologieschub liefern, um die Branche endlich vom Träumen von betrieblichen Vorteilen zur aktiven Nutzung automatisierter, halbautonomer Abläufe zu bewegen?
Es scheint möglich, aber die Antwort auf diese Frage hat Nuancen. Auf der Makroebene weisen Rechenzentren zwei unterschiedliche Betriebsverhalten auf: eines ist deterministisch und führt zu bekannten Ergebnissen und das andere ist zufällig oder probabilistisch.
Für deterministische Arbeitsabläufe ist KI mehr als nur ein Overkill; sie ist völlig unnötig. Genauer gesagt erfordert die zum Antrieb des Geräts erforderliche Konfiguration bei bekannten Architekturen keine KI-Engine, um damit umzugehen. Es erfordert die Übersetzung eines Architekturentwurfs in eine gerätespezifische Syntax.
Die Konfiguration kann selbst in den komplexesten Fällen (Multi-Vendor-Architekturen mit unterschiedlichen Größenanforderungen) vollständig vorbestimmt werden. Möglicherweise gibt es eine verschachtelte Logik, um Änderungen am Gerätetyp oder der Herstellerkonfiguration zu verarbeiten, aber eine verschachtelte Logik würde kaum als künstliche Intelligenz gelten.
Aber auch außerhalb der Konfiguration ist für viele betriebliche Aufgaben am zweiten Tag keine KI erforderlich. Nehmen wir zum Beispiel einen der häufigeren Anwendungsfälle, in denen Vermarkter seit Jahren KI einsetzen: die Ressourcengrenzwertbestimmung. Die Logik besteht darin, dass KI feststellen kann, wann kritische Schwellenwerte wie CPU- oder Speicherauslastung überschritten werden, und dann Abhilfemaßnahmen ergreifen kann.
Schwelle ist nicht so kompliziert. Mathematiker und KI-Puristen könnten anmerken, dass lineare Regression nicht wirklich Intelligenz ist. Vielmehr handelt es sich hierbei um eine ziemlich grobe Logik, die auf Trendlinien basiert, und was noch wichtiger ist: Diese Dinge tauchten in verschiedenen Produktionsumgebungen auf, bevor künstliche Intelligenz zu einem Modebegriff wurde.
Bedeutet das also, dass KI keine Rolle spielt? Absolut nicht! Das bedeutet zwar, dass KI nicht zwingend erforderlich oder gar auf alles anwendbar ist, aber es gibt einige Arbeitsabläufe im Netzwerk, die von KI profitieren können und werden. Workflows, die eher probabilistisch als deterministisch sind, wären die besten Kandidaten.
Es gibt möglicherweise keinen besseren Kandidaten für probabilistische Arbeitsabläufe als die Ursachenanalyse und Fehlerbehebung. Wenn ein Problem auftritt, führen Netzwerkbetreiber und Techniker eine Reihe von Aktivitäten durch, um das Problem zu beheben und hoffentlich die Grundursache zu ermitteln.
Bei einfachen Fragen kann der Workflow per Skript erfolgen. Aber bei allen anderen als den grundlegendsten Problemen wendet der Bediener eine gewisse Logik an und wählt den wahrscheinlichsten, aber nicht vorherbestimmten Weg nach vorne. Nehmen Sie einige Verfeinerungen vor, basierend auf dem, was Sie wissen oder gelernt haben, indem Sie entweder weitere Informationen einholen oder Vermutungen anstellen.
Künstliche Intelligenz kann dabei eine Rolle spielen. Wir wissen das, weil wir wissen, wie wertvoll Erfahrung bei der Fehlerbehebung ist. Ein neuer Mitarbeiter wird, egal wie qualifiziert er ist, in der Regel schlechtere Leistungen erbringen als jemand, der schon lange dabei ist. Künstliche Intelligenz kann alle tief verwurzelten Erfahrungen ersetzen oder ergänzen, während jüngste Fortschritte in der Verarbeitung natürlicher Sprache (NLP) dazu beitragen, die Schnittstelle zwischen Mensch und Maschine zu verbessern.
Der beste Wein beginnt mit den besten Trauben. Ebenso beginnt die beste KI mit den besten Daten. Das bedeutet, dass sich gut ausgestattete Umgebungen als die fruchtbarsten Umgebungen für KI-gesteuerte Operationen erweisen werden. Hyperscaler sind auf dem KI-Weg sicherlich weiter als andere, was zum großen Teil ihrer Software-Expertise zu verdanken ist. Es ist jedoch nicht zu übersehen, dass sie bei der Einrichtung von Rechenzentren großen Wert auf die Echtzeiterfassung von Informationen durch Streaming-Telemetrie und groß angelegte Erfassungsrahmen legen.
Unternehmen, die KI in gewissem Umfang nutzen möchten, sollten ihre aktuellen Telemetriefunktionen prüfen. Hilft oder behindert die bestehende Architektur grundsätzlich eine ernsthafte Verfolgung? Anschließend müssen Architekten diese betrieblichen Anforderungen in den zugrunde liegenden Architekturbewertungsprozess integrieren. In Unternehmen handelt es sich bei Betriebsabläufen häufig um zusätzliche Arbeiten, die erledigt werden, nachdem die Ausrüstung die Einkaufsabteilung durchlaufen hat. Dies ist nicht die Norm für ein Rechenzentrum, das eines Tages etwas über einfache Skriptvorgänge hinaus nutzen möchte.
Zurück zur Frage des Determinismus oder der Zufälligkeit: Diese Frage sollte wirklich nicht als Entweder-Oder-Vorschlag formuliert werden. Beide Seiten haben ihre Rollen zu spielen. Beides muss eine Rolle spielen. Jedes Rechenzentrum verfügt über einen deterministischen Satz an Arbeitsabläufen und die Möglichkeit, einige bahnbrechende Dinge in einer probabilistischen Welt zu tun. Beide werden von Daten profitieren. Unabhängig von Zielen und Ausgangspunkten sollte sich daher jeder auf Daten konzentrieren.
Für die meisten Unternehmen liegt der Schlüssel zum Erfolg darin, die Erwartungen zu senken. Die Zukunft wird manchmal durch große Erklärungen definiert, aber oft scheint sie umso unerreichbarer, je größer die Vision ist.
Was wäre, wenn die nächste Welle des Fortschritts eher von langweiligen Innovationen als von übertriebenen Versprechungen angetrieben wird? Was wäre, wenn die Reduzierung von Ärgertickets und menschlichem Versagen ausreichen würde, um die Menschen zum Handeln zu bewegen? Das Streben nach den richtigen Zielen macht es für Menschen einfacher, sich zu entwickeln. Dies gilt insbesondere in einem Umfeld, in dem es an genügend Talenten mangelt, um die ehrgeizigen Ziele aller zu erfüllen. Auch wenn der KI-Trend in den kommenden Jahren einen Tiefpunkt der Ernüchterung erreicht, haben Rechenzentrumsbetreiber immer noch die Möglichkeit, einen bedeutenden Unterschied für ihr Unternehmen zu machen.
Das obige ist der detaillierte Inhalt vonWie künstliche Intelligenz Rechenzentrumsteams neue Alltagsaufgaben beschert. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!