BlackBerry가 새로 발표한 연구 보고서에 따르면 인공 지능으로 구동되는 ChatGPT 봇은 네트워크 보안에 위협이 될 수 있습니다. 블랙베리 사이버보안 최고기술책임자 시시르 싱은 "악의적인 의도를 가진 공격자들이 사이버 공격을 위해 ChatGPT 봇을 사용하려 한다는 증거가 많다"며 "2023년에는 해커들이 이를 더 잘 활용할 것으로 예상한다"고 말했다. . 이 인공지능 도구는 사악한 목적을 달성하는 데 사용됩니다. 북미, 영국 및 호주의 IT 전문가를 대상으로 한 설문 조사에 따르면 응답자의 51%는 ChatGPT 기반 사이버 공격이 연말 이전에 발생할 가능성이 있다고 답했으며, 71%는 일부 국가에서 이미 ChatGPT를 사용하여 공격을 표적으로 삼고 있을 수 있다고 답했습니다. 다른 국가에서는 사이버 공격을 수행합니다.
ChatGPT의 높은 채택률을 인상적인 애플리케이션에 대한 과장되고 무자비한 반응으로 무시하기 쉽습니다. 사용량의 급속한 증가만 보면 됩니다. ChatGPT는 역대 가장 빠르게 성장하는 소비자 앱으로 알려져 있습니다. ChatGPT는 2022년 12월까지 대중에게 공개되지 않았습니다. 단 두 달 만에 등록된 사용자가 1억 명을 넘었습니다. TikTok이 같은 숫자에 도달하는 데 약 9개월이 걸렸습니다. 개방형 AI 봇은 댓글을 작성할 수 있을 뿐만 아니라 코드도 작성할 수 있기 때문에 사람들이 ChatGPT 남용에 대해 우려하는 이유를 쉽게 이해할 수 있습니다.
업계 전문가들은 ChatGPT에서 생성된 기사가 다소 거칠다는 사실을 발견했습니다. 인상적인 기사를 작성할 수는 있지만 해당 기사는 관련 주제를 이해하는 사람의 편집 비전 테스트를 견딜 수 없습니다. 악의적인 의도가 없더라도 잘못된 정보를 전달할 가능성은 높습니다. ChatGPT는 보안 문제와 사이버 보안 위협이 무엇인지 이해하지 못하는 것 같습니다.
사이버 보안 서비스 제공업체인 CyberArk의 연구원은 올해 1월 사이버 위협 연구에 대한 블로그를 게시하여 ChatGPT를 사용하여 악성 코드를 생성한 방법을 자세히 설명했습니다. 다형성 악성코드. 예상한 대로 연구원들은 OpenAI가 설정한 콘텐츠 정책 필터를 우회할 수 있었습니다. 아래 스크린샷에서 볼 수 있듯이 AI 봇이 Python으로 악성 코드를 생성하라는 요청을 받으면 정중히 거절합니다.
그러나 연구원들이 요청이 들어오는 동안 "보류 및 요구" 프로세스라고 부르는 것을 통해 ChatGPT는 실행 가능한 코드를 생성할 가능성이 있습니다. . 이는 문제가 되었으며 다형성 악성 코드 코드를 계속 생성하면서 더욱 문제가 되었습니다. ChatGPT는 코드를 변형하여 초기 서명 기반 탐지 시스템을 속이기 위해 여러 가지 반복을 생성했습니다. 연구원들이 "일단 악성 코드가 대상 컴퓨터에 존재하면 이는 보안 소프트웨어에 의해 쉽게 탐지되는 명백한 악성 코드로 구성됩니다"라고 말하면서 이것이 큰 문제가 되지 않습니까? ChatGPT는 머신러닝의 한 예입니다. 시간이 지남에 따라 더 많은 입력 데이터를 수신할수록 출력이 더 좋아지고 상황은 더욱 좋아질 것입니다.
보안 기관인 Check Point Re4search도 올해 1월에 사이버 범죄자들이 ChatGPT를 악의적으로 사용하기 시작했는지 조사하는 데 초점을 맞춘 조사 보고서를 발표했습니다. 연구원들은 범죄 포럼의 위협 행위자들이 "확실한 스피어 피싱 이메일"을 생성한 것 외에도 매우 기본적인 악성코드 코드를 훔친 Python 기반 메시지와 ChatGPT를 사용하여 생성된 악성 Java 스크립트를 공유한 사실을 발견했습니다. 또 다른 사이버 공격 에뮬레이터는 ChatGPT가 랜섬웨어 설정에서 작동하는 Python 암호화 도구를 완성하는 데 도움이 되었다고 인정했습니다. 연구원들은 관련된 사이버 범죄자들 중 상당수가 개발 기술이 전혀 없었다고 말합니다. 이는 악성 스크립트를 직접 만들 필요가 없었기 때문에 아마도 가장 우려스러운 측면일 것입니다.
업계 전문가들은 ChatGPT 사이버 보안 위협에 대한 성명을 얻기 위해 OpenAI에 연락했지만 보도 당시 답변을 받지 못했습니다. 그러나 그는 ChatGPT로부터 몇 가지 응답을 받았습니다.
업계 전문가들은 ChatGPT가 사이버 보안 위험을 초래하는지 묻습니다. ChatGPT는 다음과 같이 답변했습니다. “아니요, ChatGPT와 같은 OpenAI의 GPT 기반 모델은 사이버 보안 위협을 제기하지 않습니다. 인터넷에서 대량의 텍스트 데이터를 사용하여 훈련되었으며 악의적인 의도나 기능이 없습니다. 기술과 마찬가지로 GPT 기반 모델을 사용하고 배포할 때 데이터 보안 및 개인 정보 보호에 대한 모범 사례를 따르는 것이 중요합니다.”
ChatGPT가 이를 거부하는 것처럼 보였기 때문에 동일한 질문에 대한 응답을 다시 생성하도록 하는 또 다른 시도가 있었습니다. ChatGP는 다음과 같이 응답했습니다. “아니요, ChatGPT는 사이버 보안 위협을 제기하지 않습니다. 이는 OpenAI에서 개발한 언어 모델이며 수신된 입력을 기반으로 텍스트를 생성하도록 설계되었습니다. 그러나 모든 기술은 오용될 수 있다는 점을 기억하는 것이 중요합니다. 또한 민감한 정보는 제3자가 액세스할 수 있으므로 공유할 때 주의를 기울이십시오."
마지막으로 1,000 단어를 사용하세요. for ChatGPT ChatGPT의 사이버 보안 위험에 대한 기사를 쓴 후 세 번째 단락에서 더 솔직하게 표현했습니다. “ChatGPT와 같은 인공 지능 모델과 관련된 또 다른 위험은 예를 들어 사이버 공격자가 악의적인 목적으로 사용될 수 있다는 것입니다. 사이버 공격자가 챗봇이 신뢰할 수 있는 조직에서 온 것처럼 보이도록 할 수 있는 경우 고객 서비스 담당자처럼 보이는 가짜 챗봇을 만들어 사람들을 속여 개인 정보를 제공하거나 승인되지 않은 구매를 하게 할 수 있습니다. 특히 위험할 수 있는 은행이나 정부 기관입니다."
ChatGPT는 마침내 악의적인 목적으로 사용될 수 있음을 인정했습니다.ChatGPT는 이 콘텐츠를 확장하여 다음과 같이 덧붙였습니다. "예를 들어, 사이버 공격은 다음과 같이 훈련될 수 있습니다. 데이터 도난이나 서비스 거부와 같은 공격을 수행하는 데 사용될 수 있는 소프트웨어 애플리케이션의 취약점을 악용하는 코드를 생성합니다. 사이버 공격자는 또한 언어 모델을 사용하여 보안 도구의 탐지를 회피하도록 설계된 코드를 생성할 수 있습니다. ”
ChatGPT는 사용 목적만큼만 유용합니다
위 내용은 ChatGPT가 사이버 보안에 위협을 가합니까? 인공지능 로봇이 스스로 답한다의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!