ChatGPT ialah prototaip prototaip chatbot yang direka untuk membantu pelbagai kes penggunaan, termasuk pembangunan kod dan penyahpepijatan. Salah satu tarikan utamanya ialah keupayaan untuk pengguna berinteraksi dengan chatbot dalam cara perbualan dan mendapatkan bantuan dengan segala-galanya daripada menulis perisian kepada memahami topik yang rumit, menulis kertas kerja dan e-mel, meningkatkan perkhidmatan pelanggan dan menguji senario perniagaan atau pasaran yang berbeza. Tetapi ia juga boleh digunakan untuk tujuan yang lebih gelap.
Sejak OpenAI mengeluarkan ChatGPT, ramai pakar keselamatan meramalkan bahawa hanya menunggu masa sebelum penjenayah siber mula menggunakan chatbot AI untuk menulis perisian hasad dan melakukan aktiviti berniat jahat yang lain. Seperti semua teknologi baharu, diberi masa dan insentif yang mencukupi, seseorang akan mencari jalan untuk memanfaatkannya. Hanya beberapa minggu kemudian, nampaknya masa telah tiba. Penjenayah siber telah mula menggunakan chatbot kecerdasan buatan OpenAI ChatGPT untuk membina alat penggodaman dengan cepat. Penipu juga sedang menguji keupayaan ChatGPT untuk membina chatbot lain yang direka untuk memikat sasaran dengan menyamar sebagai wanita muda,
Malah, penyelidik di Check Point Research (CPR) melaporkan bahawa terdapat sekurang-kurangnya tiga penggodam topi hitam di bawah tanah Forum itu menunjukkan cara mereka menggunakan kecerdasan buatan ChatGPT untuk melakukan serangan berniat jahat.
Dalam satu contoh yang didokumenkan, firma keselamatan Israel Check Point menemui siaran di forum penggodaman bawah tanah yang popular oleh seorang penggodam yang mengatakan dia sedang bereksperimen dengan menggunakan bot sembang kecerdasan buatan yang popular untuk "Mencipta semula perisian hasad".
ChatGPT membenarkan pengguna bertanya soalan atau cadangan mudah, seperti menulis untuk menjejak e-mel daripada penyedia pengehosan
Penggodam akan menjana perisian hasad Android daripada ChatGPT Dimampatkan dan disebarkan melalui rangkaian. Malware itu dilaporkan mampu mencuri fail yang diminati. Penggodam lain menunjukkan alat lain yang mampu memasang pintu belakang pada komputer dan berpotensi menjangkitinya dengan lebih banyak perisian hasad.
Dalam penilaiannya terhadap situasi, Check Point menyatakan bahawa beberapa penggodam menggunakan ChatGPT untuk mencipta skrip pertama mereka. Dalam forum yang disebutkan di atas, pengguna lain berkongsi sekeping kod Python yang ditulis menggunakan ChatGPT yang boleh menyulitkan fail pada komputer mangsa. Walaupun kod itu boleh digunakan untuk sebab yang tidak berbahaya, Check Point menyatakan bahawa "ChatGPT menjana kod yang boleh diubah suai dengan mudah untuk menyulitkan fail sepenuhnya pada komputer mangsa tanpa sebarang interaksi pengguna." Di samping itu, seorang penggodam menyiarkan di forum bawah tanah bahawa dia menggunakan ChatGPT untuk mencipta sekeping kod yang menggunakan API pihak ketiga untuk mendapatkan harga mata wang kripto terkini, yang digunakan dalam sistem pembayaran pasaran darknet.
Firma keselamatan menekankan bahawa walaupun alat penggodaman yang dikodkan ChatGPT kelihatan "sangat asas," "hanya menunggu masa sebelum pelaku ancaman yang lebih canggih meningkatkan cara mereka menggunakan alat berasaskan AI." Rik Ferguson, naib presiden perisikan keselamatan di firma keselamatan siber A.S. Forescout, berkata ChatGPT nampaknya masih belum mampu menulis sesuatu yang secanggih perisian tebusan utama yang dilihat dalam insiden penggodaman besar dalam beberapa tahun kebelakangan ini, seperti Conti, yang digunakan untuk melanggar sistem Perkhidmatan Kesihatan Kebangsaan Ireland terkenal. Bagaimanapun, alatan OpenAI akan mengurangkan halangan kepada kemasukan pendatang baharu ke pasaran haram dengan membina perisian hasad yang lebih asas tetapi sama berkesan, katanya.
Alex Holden, pengasas syarikat risikan siber Hold Security, juga berkata dia telah melihat penipu dating juga mula menggunakan ChatGPT kerana penjenayah siber cuba mencipta Peranan yang meyakinkan. "Mereka merancang untuk membuat chatbots untuk menyamar sebagai kebanyakan gadis yang cuba mengautomasikan ceramah kecil untuk digunakan dalam penipuan dalam talian
Pembangun ChatGPT telah melaksanakan beberapa penapisan permintaan berniat jahat yang menghalang AI daripada membina permintaan yang jelas untuk." perisian pengintip. Walau bagaimanapun, kotak sembang AI mendapat lebih banyak penelitian selepas penganalisis keselamatan mendapati bahawa menggunakan ChatGPT adalah mungkin untuk menulis e-mel pancingan data yang betul dari segi tatabahasa tanpa kesilapan menaip.
Daripada menulis perisian hasad kepada mencipta pasaran darknet
Dalam satu keadaan, pengarang perisian hasad berada dalam forum yang digunakan oleh penjenayah siber lain Mendedahkan cara dia bereksperimen dengan ChatGPT untuk melihat sama ada dia boleh menghasilkan semula perisian hasad dan teknik yang diketahui.
Contoh kejayaan penyerang ialah orang ini yang berkongsi kod untuk pencuri maklumat berasaskan Python yang dibangunkannya menggunakan ChatGPT yang boleh mencari, menyalin dan mengeluarkan 12 jenis fail biasa, seperti daripada sistem yang dijangkiti Dokumen pejabat, PDF dan imej. Pengarang perisian hasad yang sama juga menunjukkan cara dia menggunakan ChatGPT untuk menulis kod Java untuk memuat turun PuTTY SSH dan klien telnet dan menjalankannya secara rahsia pada sistem melalui PowerShell.
Seorang lagi pelakon ancaman telah mengeluarkan skrip Python yang dia hasilkan menggunakan chatbot untuk menyulitkan dan menyahsulit data menggunakan algoritma penyulitan Blowfish dan Twofish. Penyelidik keselamatan mendapati bahawa walaupun kod itu boleh digunakan untuk tujuan jinak sepenuhnya, pelaku ancaman boleh mengubahnya dengan mudah untuk dijalankan pada sistem tanpa sebarang interaksi pengguna - mengubahnya menjadi perisian tebusan dalam proses. Tidak seperti pengarang pencuri maklumat, beberapa penyerang kelihatan mempunyai kemahiran teknikal yang sangat terhad, sebenarnya mendakwa bahawa skrip Python yang dia hasilkan menggunakan ChatGPT adalah skrip pertama yang pernah dia cipta.
Dalam contoh ketiga, penyelidik keselamatan mendapati bahawa beberapa penjenayah siber sedang membincangkan cara dia menggunakan ChatGPT untuk mencipta pasaran darknet automatik sepenuhnya untuk berdagang data akaun bank dan kad pembayaran yang dicuri, alatan Perisian berniat jahat, dadah, peluru dan pelbagai lagi. barang haram.
Hasad boleh dijana dengan ambang sifar
Sejak OpenAI mengeluarkan alatan AI, tingkah laku ancaman itu Membimbangkan tentang penyerang yang menyalahgunakan ChatGPT telah tersebar luas, dan ramai penyelidik keselamatan percaya chatbots telah merendahkan halangan untuk menulis perisian hasad dengan ketara.
Sergey Shykevich, Pengurus Kumpulan Perisikan Ancaman di Check Point, mengulangi bahawa dengan ChatGPT, pelakon yang berniat jahat tidak memerlukan pengalaman pengekodan untuk menulis perisian hasad: “Anda harus tahu apakah fungsi perisian hasad atau mana-mana program yang akan melakukannya untuk anda Kod ditulis untuk melaksanakan fungsi yang diperlukan Jadi kebimbangan jangka pendek pastinya ChatGPT membenarkan penjenayah siber berkemahiran rendah untuk membangunkan perisian hasad," kata Shykevich. "Untuk jangka panjang, saya fikir penjenayah siber yang lebih canggih juga akan menggunakan ChatGPT untuk menjadikan kempen mereka lebih cekap atau menangani jurang berbeza yang mungkin mereka ada."
"Dari perspektif penyerang, keupayaan sistem AI untuk menjana kod membolehkan aktor berniat jahat untuk dengan mudah merapatkan sebarang jurang kemahiran yang mungkin mereka hadapi dengan bertindak sebagai penterjemah antara bahasa, pengurus Horizon3AI Customer Success, Brad Hong. Alat ini menyediakan cara untuk mencipta templat kod atas permintaan yang berkaitan dengan matlamat penyerang dan mengurangkan keperluan mereka untuk mencari tapak pembangun seperti Stack Overflow dan Git.
Malah sebelum pelakon ancaman ditemui menyalahgunakan ChatGPT, Check Point, seperti beberapa vendor keselamatan lain, menunjukkan cara musuh memanfaatkan chatbot dalam kempen berniat jahat. Dalam catatan blog, vendor keselamatan menerangkan bagaimana penyelidiknya dapat mencipta e-mel pancingan data yang terdengar sah dengan sempurna hanya dengan meminta ChatGPT menulis e-mel yang nampaknya datang daripada perkhidmatan pengehosan web rekaan. Para penyelidik juga menunjukkan cara mereka membenarkan ChatGPT menulis kod VBS yang mereka boleh tampal ke dalam buku kerja Excel untuk memuat turun fail boleh laku daripada URL jauh.
Tujuan ujian ini adalah untuk menunjukkan cara penyerang boleh menyalahgunakan model AI seperti ChatGPT untuk mencipta rantaian jangkitan yang lengkap, daripada e-mel pancingan lembing awal hingga menjalankan cangkerang terbalik pada sistem yang terjejas.
Seperti sedia ada, ChatGPT tidak boleh menggantikan pelakon ancaman mahir—sekurang-kurangnya belum. Tetapi penyelidik keselamatan mengatakan terdapat banyak bukti bahawa ChatGPT membantu penggodam berkemahiran rendah mencipta perisian hasad, yang akan terus menimbulkan kebimbangan orang ramai tentang penjenayah siber menyalahgunakan teknologi.
Memintas sekatan ChatGPT
Pada mulanya, sesetengah penyelidik keselamatan menganggap sekatan dalam antara muka pengguna ChatGPT adalah lemah dan mendapati tingkah laku mengancam boleh memintas halangan dengan mudah . Sejak itu, Shykevich berkata OpenAI telah berusaha untuk menambah baik batasan chatbot.
"Kami melihat sekatan pada antara muka pengguna ChatGPT semakin tinggi setiap minggu Akibatnya, kini lebih sukar untuk menggunakan ChatGPT untuk aktiviti berniat jahat atau kesat," katanya.
Tetapi penjenayah siber masih boleh menyalahgunakan program dengan menggunakan dan mengelakkan perkataan atau frasa tertentu yang membolehkan pengguna memintas sekatan. Matt Lewis, pengarah penyelidikan komersial di NCC Group, memanggil berinteraksi dengan model dalam talian sebagai "bentuk seni" yang melibatkan pengkomputeran.
"Jika anda mengelak daripada menggunakan perkataan perisian hasad dan hanya memintanya untuk menunjukkan contoh kod yang menyulitkan fail, berdasarkan cara perisian hasad direka, itulah yang akan dilakukannya," kata Lewis. "Ia mempunyai cara suka diberitahu, dan terdapat beberapa cara menarik untuk menjadikannya melakukan apa yang anda mahukannya lakukan dalam pelbagai cara."
Dalam pembentangan mengenai topik berkaitan, Lewis Menunjukkan cara ChatGPT akan "menulis skrip penyulitan" yang, walaupun tidak mencapai perisian tebusan penuh, masih boleh berbahaya. "Ia akan menjadi masalah yang sukar untuk diselesaikan," kata Lewis mengenai memintasnya, sambil menambah bahawa bahasa kawal selia untuk konteks dan niat akan menjadi sangat sukar untuk OpenAI.
Untuk merumitkan lagi perkara, penyelidik Check Point memerhatikan pelaku ancaman menggunakan bot Telegram dengan API model GPT-3, yang dipanggil text-davinci-003, bukannya ChatGPT, untuk mengatasi had chatbot .
ChatGPT hanyalah antara muka pengguna untuk model OpenAI. Pembangun boleh menggunakan model ini untuk menyepadukan model belakang dengan aplikasi mereka sendiri. Pengguna menggunakan model ini melalui API yang dilindungi tanpa had.
"Daripada apa yang kami lihat, halangan dan had yang telah ditetapkan OpenAI pada antara muka ChatGPT tidak terpakai kepada mereka yang menggunakan model ini melalui API," kata Shykevich.
Pelakon ancaman juga boleh mengelak sekatan dengan menggesa chatbots dengan tepat. CyberArk telah menguji ChatGPT sejak dilancarkan dan menemui titik buta dalam batasannya. Melalui kegigihan dan permintaan yang berulang, ia akan menyampaikan produk pengekodan yang diingini. Penyelidik CyberArk juga melaporkan bahawa dengan terus bertanya kepada ChatGPT dan memberikan sekeping kod baharu setiap kali, pengguna boleh mencipta perisian hasad polimorfik yang berkemampuan tinggi untuk mengelak pengesanan.
Virus polimorfik boleh menjadi sangat berbahaya. Sudah ada alat dan rangka kerja dalam talian yang boleh menjana virus sedemikian. Keupayaan ChatGPT untuk mencipta kod adalah paling berfaedah kepada pengkod dan skrip yang tidak mahir.
Mengenai penyerang, ini bukan keupayaan baharu... dan juga bukan cara yang berkesan untuk menjana varian perisian hasad dan alat yang lebih baik sudah wujud. ChatGPT mungkin alat baharu, kerana ia membenarkan penyerang yang kurang mahir menjana kod yang berpotensi berbahaya.
Menjadikan lebih sukar bagi penjenayah siber
Pembangun OpenAI dan alatan lain yang serupa telah memasang penapis dan kawalan dan terus memperbaikinya dalam usaha untuk mengehadkan penyalahgunaan teknologinya. Buat masa ini sekurang-kurangnya, alat AI kekal bermasalah dan terdedah kepada perkara yang disifatkan oleh ramai penyelidik sebagai ralat langsung, yang boleh menghalang beberapa usaha jahat. Walaupun begitu, ramai yang meramalkan bahawa potensi penyalahgunaan teknologi ini akan kekal tinggi dalam jangka masa panjang.
Untuk menyukarkan penjenayah menyalahgunakan teknologi ini, pembangun perlu melatih dan menambah baik enjin AI mereka untuk mengenal pasti permintaan yang boleh digunakan dengan cara yang berniat jahat, kata Shykevich. Pilihan lain, katanya, ialah melaksanakan keperluan pengesahan dan kebenaran untuk menggunakan enjin OpenAI. Beliau menyatakan bahawa walaupun sesuatu yang serupa dengan apa yang digunakan oleh institusi kewangan dalam talian dan sistem pembayaran pada masa ini sudah memadai.
Bagi mencegah penggunaan jenayah ChatGPT, Shykevich juga berkata bahawa akhirnya, "malangnya, penguatkuasaan perlu dilakukan melalui peraturan OpenAI telah melaksanakan kawalan yang menghalang ChatGPT daripada membina perisian pengintip dengan amaran pelanggaran dasar permintaan yang jelas, walaupun penggodam." dan wartawan telah menemui cara untuk memintas perlindungan ini. Shykevich juga berkata syarikat seperti OpenAI mungkin terpaksa dipaksa secara sah untuk melatih AI mereka untuk mengesan penyalahgunaan sedemikian.
Artikel ini diterjemahkan daripada: https://www.techtarget.com/searchsecurity/news/365531559/How-hackers-can-abuse-ChatGPT-to-create -perisian hasad
Atas ialah kandungan terperinci ChatGPT ialah pedang bermata dua dalam bidang keselamatan rangkaian. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!