Vor kurzem hat OpenAI den Chatbot ChatGPT veröffentlicht, der aufgrund seiner leistungsstarken Fähigkeiten große Aufmerksamkeit erregt hat und viele Menschen glauben sogar, dass die Welt begonnen hat, sich zu verändern.
Wenn Studenten ChatGPT für das Verfassen von Arbeiten beauftragen könnten, müssten sich College-Studenten sicherlich darum bemühen, herauszufinden, wie sie dieses KI-Tool zum Abschluss ihres Studiums nutzen können. Denn wir haben gesehen, wie ChatGPT Jura-, Wirtschaftsprüfungs- und sogar medizinische Zulassungsprüfungen bestanden hat. Mitarbeiter auf der ganzen Welt begannen damit, E-Mails, Berichte und sogar Computercode zu schreiben.
Allerdings ist ChatGPT derzeit nicht perfekt und seine Datenbank ist nicht auf dem neuesten Stand, aber es ist leistungsfähiger als jedes künstliche Intelligenzsystem, mit dem normale Menschen zuvor in Kontakt gekommen sind, und die Benutzererfahrung ist benutzerfreundlicher als die künstliche Intelligenz von Systemen auf Unternehmensebene.
Es scheint, dass seltsame Dinge passieren, sobald ein großes Sprachmodell wie ChatGPT groß genug ist und über genügend Trainingsdaten, genügend Parameter und genügend Schichten in seinem neuronalen Netzwerk verfügt. Es entwickelt „Funktionen“, die bei kleineren Modellen nicht erkennbar oder möglich sind. Mit anderen Worten: Es fängt an, so zu tun, als ob es gesunden Menschenverstand und ein Verständnis für die Welt hätte – oder zumindest etwas, das diesen Dingen nahe kommt.
Die jüngsten Nachrichten zeigen, dass große Technologieunternehmen schnell reagieren. Microsoft investierte 10 Milliarden US-Dollar in OpenAI und fügte Bing die ChatGPT-Funktion hinzu, wodurch die lange Zeit ruhende Suchmaschine wieder zum Thema wurde.
Google kündigte außerdem eigene Pläne für KI-Chatbots an und investierte in den OpenAI-Konkurrenten Anthropic, der von ehemaligen OpenAI-Mitarbeitern gegründet wurde und über einen eigenen Chatbot Claude verfügt.
Amazon kündigte Pläne zum Aufbau eines eigenen ChatGPT-Konkurrenten an und kündigte eine Partnerschaft mit einem anderen KI-Startup an, Hugging Face. Auch Facebooks Meta wird zügig seinem eigenen KI-Arbeitsplan folgen.
Mittlerweile steht diese neue Technologie zum Glück auch Sicherheitsexperten zur Verfügung. Sie können es für Recherchen verwenden, beim Schreiben von E-Mails und Berichten helfen, beim Schreiben von Code helfen und viele weitere Möglichkeiten nutzen, auf die wir näher eingehen werden.
Aber beunruhigenderweise nutzen die Bösewichte es auch für all diese Dinge sowie für Phishing und Social Engineering. Sie nutzen ChatGPT auch, um Deepfakes in einem Ausmaß und einer Genauigkeit zu erstellen, die noch vor wenigen Monaten unvorstellbar waren. Auch ChatGPT selbst kann eine Sicherheitsbedrohung darstellen.
Lassen Sie uns als Nächstes die Sicherheitsthemen besprechen, die diese KI-Tools in das Rechenzentrum bringen können, beginnend mit der Art und Weise, wie böswillige Akteure ChatGPT nutzen können und in einigen Fällen bereits verwenden. Anschließend untersuchen wir die Vorteile und Gefahren des Einsatzes von Tools für künstliche Intelligenz wie ChatGPT für Cybersicherheitsexperten.
Es besteht kein Zweifel, dass böswillige Akteure ChatGPT bereits nutzen. Wie kann ChatGPT also genutzt werden, um Cyberangriffe voranzutreiben? In einer im Februar veröffentlichten BlackBerry IT Leaders-Umfrage gaben 53 % der Befragten an, dass es Hackern helfen würde, glaubwürdigere Phishing-E-Mails zu erstellen, und 49 % gaben an, dass es Hackern dabei helfen würde, ihre Programmierfähigkeiten zu verbessern.
Ein weiteres Ergebnis der Umfrage: 49 % der IT- und Cybersicherheitsentscheider gaben an, dass ChatGPT zur Verbreitung von Fehlinformationen und Desinformationen verwendet werden würde, und 48 % glaubten, dass es zur Entwicklung völlig neuer Malware verwendet werden könnte. Weitere 46 % der Befragten gaben an, dass ChatGPT dazu beitragen könnte, bestehende Angriffe zu verbessern.
Dion Hinchcliffe, Vizepräsident und Hauptanalyst bei Constellation Research, sagte: „Wir sehen, dass Programmierer und sogar Nicht-Programmierer ChatGPT nutzen, um ausnutzbare Schwachstellen zu generieren.“
Schließlich haben die KI-Modelle alles gelesen, was öffentlich veröffentlicht wurde. Dazu gehören „jeder Forschungsbericht über Schwachstellen“, sagte Hinchcliffe, „und jede Forumsdiskussion jedes Sicherheitsexperten. Es ist wie ein Superhirn, das Systeme auf alle möglichen Arten kompromittieren kann
Es ist eine beängstigende Aussicht.“
Und natürlich können Angreifer damit auch schreiben, fügte er hinzu. „Wir werden von überall her mit Fehlinformationen und Phishing-Inhalten überschwemmt werden.“ hat in den letzten Wochen einige unglaubliche virale Experimente mit KI-Tools erlebt.
Auch Reavis.“ sagte, dass mehrere große Cybersicherheitsanbieter bereits ähnliche Technologien in ihren Engines haben oder bald haben werden, die nach bestimmten Regeln geschult werden.
„Wir haben bereits Tools mit Funktionen für die Benutzeroberfläche in natürlicher Sprache gesehen, aber für ChatGPT gab es noch keine allgemein offene, kundenorientierte Schnittstelle“, fügte er hinzu. „Ich hoffe, bald kommerzielle Lösungen zu sehen, die mit ChatGPT interagieren, aber ich denke, der Sweet Spot liegt derzeit in der Systemintegration mehrerer Netzwerksicherheitstools mit ChatGPT und der DIY-Sicherheitsautomatisierung in der öffentlichen Cloud.
Er sagte: Insgesamt sind ChatGP und Seine Kollegen sind vielversprechend, wenn es darum geht, Cybersicherheitsteams in Rechenzentren dabei zu helfen, effizienter zu arbeiten, begrenzte Ressourcen zu skalieren und neue Bedrohungen und Angriffe zu erkennen.
„Im Laufe der Zeit werden nahezu alle Cybersicherheitsfunktionen durch maschinelles Lernen verbessert“, sagte Reavis. „Darüber hinaus wissen wir, dass böswillige Akteure Tools wie ChatGPT verwenden, und gehen davon aus, dass Sie ein Tool zur Bekämpfung bösartiger KI einsetzen müssen Sprachmodelle zur Generierung synthetischer E-Mails, um eigene KI-Tools zur Phishing-Erkennung zu trainieren.
Das Erstellen synthetischer Daten für Trainingssätze ist einer der Hauptvorteile großer Sprachmodelle wie ChatGPT. „Jetzt können wir dieses große Sprachmodell nutzen, um mehr E-Mails zu generieren“, sagte Lopez.
Er lehnte es jedoch ab, offenzulegen, welches konkrete groß angelegte Sprachmodell Mimecast verwendet. Er sagte, die Informationen seien die „Geheimwaffe“ des Unternehmens.
Allerdings beabsichtigt Mimecast derzeit nicht zu erkennen, ob eingehende E-Mails von ChatGPT generiert wurden. Das liegt daran, dass ChatGPT nicht nur von böswilligen Akteuren genutzt wird. KI ist ein unglaublich nützliches Produktivitätstool, das viele Mitarbeiter nutzen, um ihre eigene, vollkommen legale Kommunikation zu verbessern.
Zum Beispiel ist Lopez selbst Spanier und verwendet jetzt ChatGPT anstelle einer Grammatikprüfung, um sein Schreiben zu verbessern.
Lopez nutzt ChatGPT auch, um beim Schreiben von Code zu helfen – etwas, was wahrscheinlich viele Sicherheitsexperten tun.
„In meinem Job nutze ich ChatGPT jeden Tag, weil es beim Programmieren wirklich nützlich ist“, sagte Lopez. „Manchmal ist es falsch, aber es ist oft genug richtig, um den Geist für andere Methoden zu öffnen. Ich glaube nicht, dass ChatGPT inkompetente Menschen in Superhacker verwandeln wird.“
Der Aufstieg KI-gestützter Sicherheitstools
OpenAI hat mit der Arbeit begonnen Verbesserung der Genauigkeit des Systems. Microsoft gewährt ihm über Bing Chat Zugriff auf die neuesten Informationen im Internet.
„In naher Zukunft werden wir in der Lage sein, Modelle für bestimmte Dinge zu verfeinern“, sagte er. „Jetzt haben Sie nicht nur einen Hammer, sondern eine ganze Reihe von Tools.“
Unternehmen können beispielsweise Modelle optimieren, um relevante Aktivitäten in sozialen Netzwerken zu überwachen und nach potenziellen Bedrohungen zu suchen. Nur die Zeit wird zeigen, ob die Ergebnisse besser sind als die aktuellen Methoden.
Es wird auch einfacher und billiger, ChatGPT zu bestehender Software hinzuzufügen. Am 1. März hat OpenAI eine API für Entwickler veröffentlicht, um auf ChatGPT und das Speech-to-Text-Modell Whisper zuzugreifen.
Generell führen Unternehmen zunehmend KI-gestützte Sicherheitstools ein, um sich schnell entwickelnde Bedrohungen in größerem Umfang als je zuvor zu bekämpfen.
Laut der neuesten Mimecast-Umfrage nutzen 92 % der Unternehmen bereits künstliche Intelligenz und maschinelles Lernen oder planen dies, um ihre Cybersicherheit zu stärken.
Insbesondere 50 % sind davon überzeugt, dass Bedrohungen dadurch genauer erkannt werden können, 49 % glauben, dass die Fähigkeit, Bedrohungen zu blockieren, verbessert werden kann und 48 % glauben, dass Angriffe schneller behoben werden können, wenn sie auftreten.
81 % der Befragten sagten, dass KI-Systeme, die kontextbezogene Echtzeitwarnungen für Benutzer von E-Mail- und Kollaborationstools bereitstellen, ein großer Segen wären.
„12 % gaben sogar an, dass die Vorteile eines solchen Systems die Art und Weise, wie Cybersicherheit praktiziert wird, revolutionieren würden.“ Mangel an Fachkräften im Bereich Cybersicherheit. „Wenn Hinweise korrekt bereitgestellt werden, kann die Verwendung solcher Tools einfachere Aufgaben beschleunigen und begrenzte Ressourcen können auf zeitkritischere Probleme mit hoher Priorität konzentriert werden.“
„Diese großen Sprachmodelle sind ein grundlegender Paradigmenwechsel“, sagte A Yale Fox, IEEE-Mitglied und Gründer und CEO der Applied Science Group. „Die einzige Möglichkeit, böswilligen KI-gesteuerten Angriffen entgegenzuwirken, besteht darin, KI zur Verteidigung einzusetzen. Sicherheitsmanager im Rechenzentrum müssen die vorhandenen Cybersicherheitsressourcen weiterbilden und neues Personal finden, das auf KI spezialisiert ist.
Verwendung von ChatGPT im Rechenzentrum GEFAHR
Wie bereits erwähnt, können KI-Tools wie ChatGPT und Copilot Sicherheitsexperten beim Schreiben von Code helfen und sie so effizienter machen. Einer aktuellen Studie der Cornell University zufolge erstellen Programmierer, die einen KI-Assistenten verwenden, jedoch eher unsicheren Code und halten ihn gleichzeitig für sicherer als diejenigen, die dies nicht tun.
Dies ist nur die Spitze des Eisbergs, wenn es um die potenziellen Nachteile der Verwendung von ChatGPT geht, ohne die Risiken zu berücksichtigen.
Es gibt mehrere bekannte Fälle von ChatGPT oder Bing Chat, die sehr sicher sind, falsche Informationen bereitzustellen, Statistiken und Zitate zu erstellen oder völlig falsche Erklärungen zu bestimmten Konzepten zu liefern.
Menschen, die ihm blind vertrauen, können in eine sehr schlimme Situation geraten.
„Wenn Sie ein von ChatGPT entwickeltes Skript verwenden, um Wartungsarbeiten an 10.000 virtuellen Maschinen durchzuführen, und das Skript Fehler aufweist, werden Sie große Probleme haben“, sagte Reavis von der Cloud Security Alliance.
Ein weiteres potenzielles Risiko für Sicherheitsexperten in Rechenzentren, die ChatGPT verwenden, ist Datenschutzverletzung.
Der Grund, warum OpenAI ChatGPT kostenlos macht, ist, dass es aus Interaktionen mit Benutzern lernt. Wenn Sie beispielsweise ChatGPT bitten, die Sicherheitslage Ihres Rechenzentrums zu analysieren und Schwachstellen zu identifizieren, haben Sie ChatGPT nun alle Ihre Sicherheitslücken mitgeteilt.
Bedenken Sie nun eine Februar-Umfrage des arbeitsorientierten sozialen Netzwerks Fishbowl, die ergab, dass 43 % der Berufstätigen ChatGPT oder ähnliche Tools bei der Arbeit verwenden, gegenüber 27 % vor einem Monat. Wenn sie es täten, würden 70 % es ihrem Chef nicht sagen. Daher ist das potenzielle Sicherheitsrisiko hoch.
Aus diesem Grund haben Berichten zufolge JPMorgan Chase, Amazon, Verizon, Accenture und viele andere Unternehmen ihren Mitarbeitern die Nutzung des Tools untersagt.
Die neue ChatGPT-API von OpenAI, die diesen Monat veröffentlicht wurde, ermöglicht es Unternehmen, ihre Daten privat zu halten und sie nicht für Schulungen zu verwenden. Es gibt jedoch keine Garantie dafür, dass keine versehentlichen Datenlecks auftreten.
Sobald in Zukunft eine Open-Source-Version von ChatGPT verfügbar ist, können Rechenzentren diese lokal hinter ihren Firewalls ausführen und so eine mögliche Gefährdung durch Außenstehende vermeiden.
Abschließend sagte Carm Taglienti, ein angesehener Ingenieur bei Insight, dass der Einsatz von ChatGPT-ähnlicher Technologie zur Sicherung interner Rechenzentren potenziell ethische Risiken berge.
„Diese Modelle sind sehr gut darin zu verstehen, wie wir als Menschen kommunizieren“, sagte er. Daher können Tools im ChatGPT-Stil mit Zugriff auf die Mitarbeiterkommunikation möglicherweise Absichten und Subtexte aufdecken, die auf potenzielle Bedrohungen hinweisen.
„Wir arbeiten hart daran, Netzwerk-Hacks und Hacks in der internen Umgebung zu verhindern. Viele Verstöße passieren, weil Leute mit Sachen aus der Tür gehen“, sagte er.
Er fügte hinzu, dass so etwas wie ChatGPT „für eine Organisation sehr wertvoll sein könnte“. „Aber jetzt betreten wir diesen ethischen Bereich, in dem die Leute ein Profil von mir erstellen und alles überwachen, was ich tue.
Dies ist eine Zukunft im Minority Report-Stil, für die Rechenzentren möglicherweise nicht bereit sind.“
Das obige ist der detaillierte Inhalt vonWelchen Einfluss hat ChatGPT auf die Netzwerksicherheit von Rechenzentren?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!