


Stellt ChatGPT eine Bedrohung für die Cybersicherheit dar? Der Roboter mit künstlicher Intelligenz gibt seine eigene Antwort
Ein neu veröffentlichter Forschungsbericht von BlackBerry zeigt, dass der auf künstlicher Intelligenz basierende ChatGPT-Bot eine Bedrohung für die Netzwerksicherheit darstellen kann. Shishir Singh, Chief Technology Officer für Cybersicherheit bei BlackBerry, sagte: „Es gibt zahlreiche Beweise dafür, dass Akteure mit böswilliger Absicht versuchen, ChatGPT-Bots für Cyberangriffe zu nutzen.“ Er sagte, er erwarte, dass Hacker dies im Jahr 2023 besser ausnutzen werden . Dieses künstliche Intelligenztool wird verwendet, um schändliche Zwecke zu erreichen. Eine Umfrage unter IT-Experten in Nordamerika, Großbritannien und Australien ergab, dass 51 % der Befragten sagten, dass ein ChatGPT-basierter Cyberangriff wahrscheinlich noch vor Jahresende stattfinden würde, und 71 % gaben an, dass einige Länder möglicherweise bereits ChatGPT zur gezielten Bekämpfung nutzen andere Länder führen Cyberangriffe durch.
Die Zahl der ChatGPT-Nutzer erreichte in nur zwei Monaten 100 Millionen
Man kann eine so hohe Akzeptanzrate von ChatGPT leicht als übertriebene, reflexartige Reaktion ansehen Schauen Sie sich nur an, wie schnell die Nutzung einer beeindruckenden App zunimmt. ChatGPT ist Berichten zufolge die am schnellsten wachsende Verbraucheranwendung aller Zeiten. ChatGPT war erst im Dezember 2022 für die Öffentlichkeit zugänglich. In nur zwei Monaten erreichten die registrierten Nutzer mehr als 100 Millionen. TikTok brauchte etwa 9 Monate, um die gleiche Zahl zu erreichen. Es ist leicht zu verstehen, warum Menschen über den Missbrauch von ChatGPT besorgt sind, da der offene KI-Bot nicht nur Kommentare schreiben, sondern auch Code erstellen kann.
Branchenexperten haben festgestellt, dass die von ChatGPT generierten Artikel etwas grob sind. Obwohl es möglich ist, einen beeindruckenden Artikel zu schreiben, kann der Artikel der redaktionellen Vision von jemandem, der das relevante Thema versteht, nicht standhalten . Auch wenn keine böswillige Absicht vorliegt, ist das Potenzial für Fehlinformationen hoch. Anscheinend versteht ChatGPT die Sicherheitsprobleme und die Cybersicherheitsbedrohungen nicht? Im Januar wurde ein Blogbeitrag über Cyber Threat Research veröffentlicht, in dem detailliert beschrieben wird, wie sie ChatGPT zur Erstellung polymorpher Malware verwendet haben. Wie zu erwarten war, konnten die Forscher die von OpenAI eingerichteten Inhaltsrichtlinienfilter umgehen. Wie Sie dem Screenshot unten entnehmen können, lehnt der KI-Bot höflich ab, wenn er aufgefordert wird, bösartigen Code in Python zu erstellen. Allerdings hat ChatGPT das Potenzial, ausführbaren Code durch einen von den Forschern so genannten „Hold-and-Demand“-Prozess bei Eingabeanfragen zu erstellen. Dies war problematisch und wurde noch problematischer, als sie weiterhin polymorphen Malware-Code erstellten: ChatGPT mutierte den Code, um mehrere verschiedene Iterationen zu erstellen, um anfängliche signaturbasierte Erkennungssysteme zu täuschen. Ist dies kein großes Problem? Seien Sie nicht, wie die Forscher es ausdrücken: „Sobald die Malware auf einem Zielcomputer vorhanden ist, besteht sie aus offensichtlich bösartigem Code, der von Sicherheitssoftware leicht erkannt werden kann.“ dass ChatGPT ein Beispiel für maschinelles Lernen ist. Mit der Zeit gilt: Je mehr Eingabedaten es erhält, desto besser wird seine Ausgabe, und die Dinge werden nur noch besser.
Es gibt Hinweise darauf, dass Cyberkriminelle die Nutzung der ChatGPT-Funktionen untersucht haben
Die Sicherheitsagentur Check Point Re4search veröffentlichte im Januar dieses Jahres ebenfalls einen Untersuchungsbericht, der sich hauptsächlich mit dem Netzwerk How befasst Kriminelle begannen, ChatGPT böswillig zu nutzen. Forscher fanden heraus, dass Bedrohungsakteure in kriminellen Foren nicht nur eine „überzeugende Spear-Phishing-E-Mail“ erstellten, sondern auch eine Python-basierte Nachricht teilten, die einen sehr einfachen Malware-Code stahl, sowie ein mit ChatGPT erstelltes bösartiges Java-Skript. Ein anderer Cyberangriffs-Emulator gab zu, dass ChatGPT ihm bei der Fertigstellung eines Python-Verschlüsselungstools geholfen habe, das in einem Ransomware-Setup funktioniert. Die Forscher sagen, dass viele der beteiligten Cyberkriminellen einfach über keine Entwicklungskenntnisse verfügten, was vielleicht der besorgniserregendste Aspekt ist, da sie die bösartigen Skripte nicht selbst erstellen mussten.
Fragen Sie, ob ChatGPT selbst eine Cybersicherheitsbedrohung darstellt
Branchenexperten kontaktierten OpenAI zu diesem Zweck in der Hoffnung, eine Stellungnahme zur ChatGPT-Cybersicherheitsbedrohung zu erhalten, aber zum Zeitpunkt der Drucklegung war dies der Fall Hatte keine Antwort erhalten. Er erhielt jedoch einige Antworten von ChatGPT.
ChatGPT leugnet selbst eine Cybersicherheitsbedrohung
Da ChatGPT dies scheinbar leugnete, wurde ein weiterer Versuch unternommen, eine erneute Antwort auf dieselbe Frage zu generieren. ChatGP antwortete: „Nein, ChatGPT stellt keine Bedrohung für die Cybersicherheit dar. Es handelt sich um ein von OpenAI entwickeltes Sprachmodell, das darauf ausgelegt ist, Text basierend auf den empfangenen Eingaben zu generieren. Es ist jedoch wichtig, sich daran zu erinnern, dass jede Technologie missbraucht werden kann.“ Sie sind für den Schutz ihrer Systeme und Daten verantwortlich. Seien Sie außerdem vorsichtig, wenn Sie vertrauliche Informationen weitergeben, da diese möglicherweise für Dritte zugänglich sind mehrmals, aber ChatGPT antwortete immer mit dem gleichen „Stellt keine Bedrohung für die Netzwerksicherheit dar.“ Anschließend bat er ChatGPT, diese Frage in 500 Wörtern zu beantworten, wodurch tatsächlich mehr Hintergrundinformationen generiert werden können. Zum Beispiel: „Wenn es in die falschen Hände gerät, könnte es für böswillige Zwecke ausgenutzt werden.“ „ChatGPT könnte dazu verwendet werden, sensible Informationen aus dem Internet zu stehlen, wie zum Beispiel persönliche Daten oder Finanzinformationen.
Verwenden Sie schließlich 1.000 Wörter.“ für ChatGPT Nachdem ich einen Artikel über die Cybersicherheitsrisiken von ChatGPT geschrieben habe, drücke ich mich im dritten Absatz etwas offener aus: „Ein weiteres Risiko, das mit Modellen der künstlichen Intelligenz wie ChatGPT verbunden ist, besteht darin, dass sie beispielsweise für böswillige Zwecke verwendet werden können.“ könnte einen gefälschten Chatbot erstellen, der wie ein Kundendienstmitarbeiter aussieht, und damit Menschen dazu verleiten, ihre persönlichen Daten preiszugeben oder nicht autorisierte Einkäufe zu tätigen, wenn es dem Cyberangreifer gelingt, den Chatbot dazu zu bringen, dies zu sehen. ChatGPT gab dies schließlich zu Branchenexperten haben ihre Fragen an ChatGPT zur Entstehung von Schadcode verbessert und einige neue Rückmeldungen erhalten. ChatGPT antwortete: „Die Fähigkeit von Sprachmodellen wie ChatGPT, bösartigen Code zu schreiben, ist für viele Unternehmen und Einzelpersonen ein Problem. Da diese Modelle immer ausgefeilter werden, steigt jedoch die Wahrscheinlichkeit, dass sie für böswillige Zwecke verwendet werden können.“ zu verstehen, dass die Risiken, die mit dem Schreiben von Schadcode mit ChatGPT verbunden sind, nicht in der Technologie selbst liegen, sondern davon abhängen, wie sie verwendet wird.“
ChatGPT erweiterte diesen Inhalt und fügte hinzu: „Zum Beispiel können Cyberangriffe darauf trainiert werden.“ Generieren Sie Code, der Schwachstellen in Softwareanwendungen ausnutzt, um Angriffe wie Datendiebstahl oder Denial-of-Service durchzuführen. Cyber-Angreifer können auch Sprachmodelle verwenden, um der Erkennung durch Sicherheitstools zu entgehen wird schwieriger.“ ChatGPT ist ein beeindruckendes Tool der künstlichen Intelligenz, das das Potenzial hat, auch im Bereich der Cybersicherheitsforschung viel Gutes zu bewirken. Doch wie bei jeder Technologie nutzen böswillige Akteure solche Tools, um schlechte Dinge zu tun, und das ist nun einmal so. Die Zusammenfassung von ChatGPT lautet: „Zusammenfassend ist die Fähigkeit eines Sprachmodells wie ChatGPT, bösartigen Code zu schreiben, ein echtes Problem. Dies ist jedoch kein inhärentes Risiko der Technologie selbst, sondern vielmehr der Art und Weise, wie sie verwendet wird.“
Das obige ist der detaillierte Inhalt vonStellt ChatGPT eine Bedrohung für die Cybersicherheit dar? Der Roboter mit künstlicher Intelligenz gibt seine eigene Antwort. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

DALL-E 3 wurde im September 2023 offiziell als deutlich verbessertes Modell gegenüber seinem Vorgänger eingeführt. Er gilt als einer der bisher besten KI-Bildgeneratoren und ist in der Lage, Bilder mit komplexen Details zu erstellen. Zum Start war es jedoch exklusiv

chatgpt kann in China verwendet werden, kann jedoch nicht registriert werden. Wenn Benutzer sich registrieren möchten, können sie zur Registrierung eine ausländische Mobiltelefonnummer verwenden. Beachten Sie, dass während des Registrierungsprozesses auf die Netzwerkumgebung umgestellt werden muss eine fremde IP.

Installationsschritte: 1. Laden Sie die ChatGTP-Software von der offiziellen ChatGTP-Website oder dem mobilen Store herunter. 2. Wählen Sie nach dem Öffnen in der Einstellungsoberfläche die Sprache aus. 3. Wählen Sie in der Spieloberfläche das Mensch-Maschine-Spiel aus 4. Geben Sie nach dem Start Befehle in das Chatfenster ein, um mit der Software zu interagieren.

In diesem Artikel stellen wir vor, wie man intelligente Chatbots mit ChatGPT und Java entwickelt, und stellen einige spezifische Codebeispiele bereit. ChatGPT ist die neueste Version des von OpenAI entwickelten Generative Pre-Training Transformer, einer auf neuronalen Netzwerken basierenden Technologie für künstliche Intelligenz, die natürliche Sprache verstehen und menschenähnlichen Text generieren kann. Mit ChatGPT können wir ganz einfach adaptive Chats erstellen

So bauen Sie mit ChatGPTPHP einen intelligenten Kundendienstroboter. Einführung: Mit der Entwicklung der Technologie der künstlichen Intelligenz werden Roboter zunehmend im Bereich Kundendienst eingesetzt. Der Einsatz von ChatGPTPHP zum Aufbau eines intelligenten Kundendienstroboters kann Unternehmen dabei helfen, effizientere und personalisiertere Kundendienste anzubieten. In diesem Artikel wird erläutert, wie Sie mit ChatGPTPHP einen intelligenten Kundendienstroboter erstellen, und es werden spezifische Codebeispiele bereitgestellt. 1. Installieren Sie ChatGPTPHP und nutzen Sie ChatGPTPHP, um einen intelligenten Kundendienstroboter aufzubauen.

Mit der Entwicklung des Internets ist die Netzwerksicherheit zu einem dringenden Thema geworden. Für Techniker, die sich mit der Netzwerksicherheit befassen, ist es zweifellos notwendig, eine effiziente, stabile und sichere Programmiersprache zu beherrschen. Unter anderem ist die Go-Sprache für viele Netzwerksicherheitsexperten zur ersten Wahl geworden. Die Go-Sprache, auch Golang genannt, ist eine von Google entwickelte Open-Source-Programmiersprache. Die Sprache zeichnet sich durch herausragende Eigenschaften wie hohe Effizienz, hohe Parallelität, hohe Zuverlässigkeit und hohe Sicherheit aus und wird daher häufig in der Netzwerksicherheit und bei Penetrationstests eingesetzt.

Künstliche Intelligenz (KI) hat jeden Bereich revolutioniert, und die Cybersicherheit bildet da keine Ausnahme. Da unsere Abhängigkeit von Technologie immer weiter zunimmt, nehmen auch die Bedrohungen für unsere digitale Infrastruktur zu. Künstliche Intelligenz (KI) hat den Bereich der Cybersicherheit revolutioniert und fortschrittliche Funktionen für die Erkennung von Bedrohungen, die Reaktion auf Vorfälle und die Risikobewertung bereitgestellt. Allerdings gibt es einige Schwierigkeiten beim Einsatz künstlicher Intelligenz in der Cybersicherheit. Dieser Artikel befasst sich mit dem aktuellen Stand der künstlichen Intelligenz in der Cybersicherheit und erkundet zukünftige Richtungen. Die Rolle künstlicher Intelligenz bei der Cybersicherheit Regierungen, Unternehmen und Einzelpersonen stehen vor immer größeren Herausforderungen im Bereich der Cybersicherheit. Da Cyber-Bedrohungen immer ausgefeilter werden, steigt der Bedarf an fortschrittlichen Sicherheitsmaßnahmen weiter. Künstliche Intelligenz (KI) setzt auf ihre einzigartige Methode zur Erkennung und Vorbeugung

Die ChatGPT-Mac-Anwendung von Open AI ist jetzt für alle verfügbar, während sie in den letzten Monaten nur denjenigen mit einem ChatGPT Plus-Abonnement vorbehalten war. Die App lässt sich wie jede andere native Mac-App installieren, sofern Sie über ein aktuelles Apple S verfügen
