Dihasilkan oleh Big Data Digest
CtGPT memang menyeronokkan, tetapi akhirnya ada masalah.
Sebagai AI bahasa yang hampir serba guna, ChatGPT boleh menjawab pelbagai soalan, membantu anda menulis artikel dan juga boleh membantu anda menulis kod.
Tunggu, tulis kod?
Apakah yang akan berlaku jika seseorang mahu ChatGPT menulis kod hasad untuk menyerang orang lain?
Baru-baru ini, penyelidik keselamatan Dr. Suleyman Ozarslan, pengasas bersama Picus Security, baru-baru ini berjaya menggunakan ChatGPT untuk mencipta kod pancingan data, yang sebenarnya bertemakan Piala Dunia.
Mari kita lihat.
“ Kami mulakan dengan latihan mudah untuk melihat sama ada ChatGPT boleh mencipta pancingan data yang Boleh Dipercayai kempen dan ternyata begitu, saya memasukkan gesaan dan menulis e-mel bertemakan Piala Dunia untuk pancingan data simulasi dan ia mencipta e-mel bahasa Inggeris yang sempurna dalam beberapa saat.” Jelas Suleyman Ozarslan.
Ozarslan memberitahu ChatGPT bahawa dia adalah penyelidik keselamatan yang mensimulasikan serangan. Mereka ingin membangunkan alat untuk mensimulasikan serangan pancingan data. menyerang.
Jadi, ChatGPT sebenarnya menulis satu perenggan.
Walaupun begitu, manakala ChatGPT mengiktiraf bahawa "serangan pancingan data boleh digunakan untuk tujuan jahat dan mungkin berbahaya kepada individu" dan menyebabkan kemudaratan kepada organisasi,” tetapi ia masih menghasilkan e-mel.
Selepas melengkapkan latihan ini, Ozarslan meminta ChatGPT menulis kod Swift yang boleh mencari fail Microsoft Office pada MacBook dan menghantarnya ke pelayan web melalui HTTPS sebelum menyulitkannya pada MacBook .
Secara lancar, penyelesaian ChatGPT menjana kod sampel tanpa sebarang amaran atau gesaan.
Amalan penyelidikan Ozarslan menunjukkan bahawa penjenayah siber boleh memintas perlindungan OpenAI dengan mudah, seperti meletakkan diri mereka sebagai penyelidik untuk mengaburkan niat jahat mereka.
Seperti yang dapat dilihat daripada contoh di atas, dari perspektif keselamatan rangkaian , OpenAI's Cabaran teras yang ditimbulkan oleh penciptaan ialah sesiapa sahaja, tanpa mengira kepakaran teknikal, boleh mencipta kod yang menjana perisian hasad dan perisian tebusan atas permintaan.
Walaupun ChatGPT memberikan manfaat positif kepada pasukan keselamatan (seperti e-mel saringan AI), ia juga merendahkan halangan kemasukan penjenayah siber, yang berpotensi mempercepatkan landskap ancaman dan bukannya mengurangkan ia.
Sebagai contoh, penjenayah siber boleh menggunakan kecerdasan buatan untuk meningkatkan bilangan ancaman pancingan data di alam liar, yang bukan sahaja telah mengatasi pasukan keselamatan, tetapi hanya memerlukan satu kejayaan untuk menyebabkan ratusan kerugian Juta pelanggaran data dolar.
“ChatGPT menawarkan lebih banyak kepada penyerang daripada sasaran dalam hal keselamatan siber,” kata CVP R&D di vendor keselamatan e-mel IRONSCALES Lomy Ovadia
Ovadia berkata: “Ini terutama berlaku untuk serangan e-mel perniagaan (BEC), yang bergantung pada penggunaan kandungan yang mengelirukan untuk menyamar sebagai rakan sekerja, VIP syarikat, pembekal dan juga pelanggan. CISO dan pemimpin keselamatan bergantung pada alatan keselamatan berasaskan dasar untuk mengesan serangan pancingan data dengan kandungan yang dijana AI/GPT-3, ia akan menjadi usang kerana model AI ini menggunakan pemprosesan bahasa semula jadi (NLP) lanjutan untuk menjana e-mel penipuan yang hampir mustahil untuk dibezakan. daripada contoh sebenar. Contohnya, awal tahun ini, penyelidik keselamatan dari Agensi Teknologi Kerajaan Singapura mencipta 200 e-mel pancingan data dan membandingkan kadar klik lalu dengan model pembelajaran mendalam GPT- 3 e-mel yang dibuat telah dibandingkan dan mendapati bahawa lebih ramai pengguna mengklik pada e-mel pancingan data yang dijana AI daripada pengguna manusia. Apakah berita baiknya? Walaupun AI generatif memang membawa ancaman baharu kepada pasukan keselamatan, ia juga menawarkan beberapa kes penggunaan yang positif. Sebagai contoh, penganalisis boleh menggunakan alat untuk menyemak kelemahan dalam kod sumber terbuka sebelum penggunaan. “Hari ini, kami melihat penggodam beretika menggunakan kecerdasan buatan sedia ada untuk membantu menulis laporan kelemahan, menjana sampel kod dan mengenal pasti arah aliran dalam set data yang besar. Semuanya berlaku "Aplikasi terbaik kecerdasan buatan hari ini adalah untuk membantu manusia melakukan lebih banyak perkara manusia," kata Dane Sherrets, arkitek penyelesaian di HackerOne. Walau bagaimanapun, pasukan keselamatan yang ingin memanfaatkan penyelesaian AI generatif seperti ChatGPT masih perlu memastikan pengawasan manusia yang mencukupi untuk mengelakkan isu yang berpotensi. Walaupun kemajuan yang diwakili oleh ChatGPT adalah menarik, teknologi ini belum lagi maju untuk beroperasi secara autonomi sepenuhnya. Untuk kecerdasan buatan beroperasi, ia memerlukan pengawasan manusia, beberapa konfigurasi manual, dan tidak selalu dapat menjalankan dan melatih data dan kecerdasan terkini.Atas sebab inilah Forrester mengesyorkan agar organisasi yang melaksanakan AI generatif harus menggunakan aliran kerja dan tadbir urus untuk mengurus kandungan dan perisian yang dijana AI untuk memastikan ketepatannya dan mengurangkan keluaran dengan kemungkinan penyelesaian isu keselamatan atau prestasi.
Tidak dapat dielakkan, risiko sebenar AI seperti ChatGPT akan bergantung pada siapa yang boleh mengeksploitasi automasi dengan lebih berkesan di kedua-dua pihak dalam perang AI.
Laporan berkaitan: https://venturebeat.com/security/chatgpt-ransomware-malware/
Atas ialah kandungan terperinci ChatGPT 'Runtuh', yang popular di seluruh Internet: membantu manusia menulis kod e-mel pancingan data, dan ia bertemakan Piala Dunia!. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!