ChatGPT „Collapse', das im gesamten Internet beliebt ist: Hilft Menschen beim Schreiben von Phishing-E-Mail-Codes und steht unter dem Motto der Weltmeisterschaft!

PHPz
Freigeben: 2023-04-12 14:19:05
nach vorne
1528 Leute haben es durchsucht

​Big Data Digest erstellt

ChatGPT hat Spaß gemacht, aber am Ende ist etwas schiefgegangen.

Als nahezu allmächtige sprachbasierte KI kann ChatGPT verschiedene Fragen beantworten, Ihnen beim Schreiben von Artikeln helfen und Ihnen auch beim Schreiben von Code helfen.

Warten, Code schreiben?

Was passiert, wenn jemand möchte, dass ChatGPT einen Schadcode schreibt, um andere anzugreifen?

Kürzlich nutzte der Sicherheitsforscher Dr. Suleyman Ozarslan, Mitbegründer von Picus Security, erfolgreich ChatGPT, um einen Phishing-Code zu erstellen, der eigentlich mit der Weltmeisterschaft zu tun hatte.

Lass uns einen Blick darauf werfen. So erstellen Sie Ransomware- und Phishing-E-Mails mit ChatGPT, um zu sehen, ob ChatGPT eine glaubwürdige Phishing-Kampagne erstellen kann. Ich habe eine Eingabeaufforderung eingegeben und eine E-Mail zum Thema Weltmeisterschaft für ein simuliertes Phishing geschrieben, und es wurde in Sekundenschnelle eine perfekte E-Mail erstellt . Englische E-Mail“, sagte Suleyman Ozarslan.

Ozarslan gab an, dass er ein Sicherheitsforscher ist, der Angriffe simuliert. Bitte helfen Sie dabei, einen Phishing-Angriff über die Weltmeisterschaft zu schreiben. E-Mail, um einen Phishing-Angriff zu simulieren.

Also, ChatGPT hat wirklich einen Absatz geschrieben.

Allerdings erkennt ChatGPT an, dass „Phishing-Angriffe für verwendet werden können.“ böswillige Zwecke und könnte Einzelpersonen und Organisationen Schaden zufügen“, die E-Mail wurde jedoch trotzdem generiert.

ChatGPT „Collapse, das im gesamten Internet beliebt ist: Hilft Menschen beim Schreiben von Phishing-E-Mail-Codes und steht unter dem Motto der Weltmeisterschaft!Nach Abschluss dieser Übung bat Ozarslan ChatGPT, Swift-Code zu schreiben, der Microsoft Office-Dateien auf dem MacBook finden und über HTTPS verbinden kann, bevor sie auf dem MacBook verschlüsselt und an den Webserver gesendet werden .

Die ChatGPT-Lösung generierte den Beispielcode sehr reibungslos und ohne Warnungen oder Eingabeaufforderungen.

Ozarslans Forschungspraxis zeigt, dass Cyberkriminelle den Schutz von OpenAI leicht umgehen können, indem sie sich beispielsweise als Forscher positionieren, um ihre böswilligen Absichten zu verschleiern.

Der Anstieg der Zahl der Cyberkriminalität hat das Gleichgewicht aus dem Gleichgewicht gebracht

Wie aus dem hervorgeht obiges Beispiel aus dem Internet. Aus sicherheitstechnischer Sicht besteht die zentrale Herausforderung bei der Entwicklung von OpenAI darin, dass jeder, unabhängig von seinem technischen Fachwissen, Code erstellen kann, der bei Bedarf Malware und Ransomware generiert.

ChatGPT bietet zwar positive Vorteile für Sicherheitsteams (z. B. KI-Überprüfung von E-Mails), senkt aber auch die Eintrittsbarriere für Cyberkriminelle und beschleunigt möglicherweise die Komplexität der Bedrohungslandschaft zu bekämpfen, anstatt sie zu reduzieren.

Beispielsweise können Cyberkriminelle künstliche Intelligenz nutzen, um die Zahl der Phishing-Bedrohungen in freier Wildbahn zu erhöhen, was nicht nur Sicherheitsteams überfordert, sondern nur einen Erfolg erfordert, da Datenschutzverletzungen Kosten verursachen Millionen Dollar.

IRONSCALES CVP für Forschung und Entwicklung beim E-Mail-Sicherheitsanbieter Lomy Ovadia sagte: „Wenn es um Cybersicherheit geht, bietet ChatGPT Angreifern weit mehr als Zielen.“#🎜 🎜#

Ovadia sagte: „Dies gilt insbesondere für Business-E-Mail-Angriffe (BEC), die auf der Verwendung betrügerischer Inhalte basieren, um sich als Kollegen, Firmen-VIPs, Lieferanten und sogar Kunden auszugeben.“# 🎜🎜#

Ovadia glaubt, dass CISOs und Sicherheitsverantwortliche, wenn sie sich auf richtlinienbasierte Sicherheitstools verlassen, um Phishing-Angriffe mit AI/GPT-3-generierten Inhalten zu erkennen, aus diesen Gründen eliminiert werden KI-Modelle nutzen fortschrittliche Verarbeitung natürlicher Sprache (NLP), um Betrugs-E-Mails zu generieren, die kaum von echten Beispielen zu unterscheiden sind.

Beispielsweise haben Sicherheitsforscher der Government Technology Agency in Singapur Anfang des Jahres 200 Phishing-E-Mails erstellt und die Klickraten mit der Tiefe verglichen. E-Mails, die mit dem Lernmodell GPT erstellt wurden. 3 wurden verglichen und fanden heraus, dass mehr Benutzer auf die KI-generierten Phishing-E-Mails klickten als menschliche Benutzer.

Was sind die guten Nachrichten?

Während generative KI neue Bedrohungen für Sicherheitsteams mit sich bringt, bietet sie auch einige positive Anwendungsfälle. Beispielsweise können Analysten das Tool nutzen, um vor der Bereitstellung Open-Source-Code auf Schwachstellen zu prüfen. „Heute sehen wir ethische Hacker, die vorhandene künstliche Intelligenz nutzen, um Schwachstellenberichte zu schreiben, Codebeispiele zu generieren und Trends in großen Datensätzen zu identifizieren. All dies bedeutet, dass die beste Anwendung künstlicher Intelligenz heute darin besteht, Menschen dabei zu helfen, menschlichere Dinge zu tun.“ „, sagte Dane Sherrets, Lösungsarchitekt bei HackerOne.

Allerdings müssen Sicherheitsteams, die generative KI-Lösungen wie ChatGPT nutzen möchten, immer noch eine angemessene menschliche Aufsicht gewährleisten, um potenzielle Probleme zu vermeiden.

Während die Fortschritte, die ChatGPT darstellt, aufregend sind, ist die Technologie noch nicht so weit fortgeschritten, dass sie vollständig autonom funktioniert. Damit künstliche Intelligenz funktioniert, bedarf sie menschlicher Aufsicht und einiger manueller Konfiguration und ist nicht immer in der Lage, auf den absolut neuesten Daten und Informationen zu laufen und zu trainieren.

Aus diesem Grund empfiehlt Forrester, dass Organisationen, die generative KI implementieren, Arbeitsabläufe und Governance einsetzen sollten, um KI-generierte Inhalte und Software zu verwalten, um deren Genauigkeit sicherzustellen und das Risiko der Veröffentlichung von Lösungen mit Programmmöglichkeiten für Sicherheits- oder Leistungsprobleme zu verringern.

Das tatsächliche Risiko von KI wie ChatGPT wird zwangsläufig davon abhängen, wer auf beiden Seiten des KI-Krieges die Automatisierung effektiver nutzen kann.

Verwandte Berichte: https://venturebeat.com/security/chatgpt-ransomware-malware/

Das obige ist der detaillierte Inhalt vonChatGPT „Collapse', das im gesamten Internet beliebt ist: Hilft Menschen beim Schreiben von Phishing-E-Mail-Codes und steht unter dem Motto der Weltmeisterschaft!. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage