4월 23일 소식, ChatGPT 챗봇은 사용자 입력을 기반으로 코드를 포함한 다양한 텍스트를 생성할 수 있습니다. 그러나 캐나다 퀘벡 대학의 연구원 4명은 ChatGPT가 생성한 코드에 심각한 보안 문제가 있는 경우가 많으며 이러한 문제를 사용자에게 사전에 알리지 않고 사용자가 요청할 때만 실수를 인정한다는 사실을 발견했습니다.
연구원들은 논문을 통해 자신의 연구 결과를 소개했으며, 논문을 검토한 결과 ChatGPT에 C, C++, Python 및 Java와 같은 언어와 관련된 21개의 프로그램과 스크립트를 생성하도록 요청한 것으로 나타났습니다. 이러한 프로그램과 스크립트는 메모리 손상, 서비스 거부, 역직렬화, 암호화 구현 취약성과 같은 특정 보안 취약성을 보여주기 위해 설계되었습니다. 결과는 ChatGPT에서 생성된 21개 프로그램 중 첫 번째 시도에서 5개만이 안전한 것으로 나타났습니다. 잘못된 단계를 수정하라는 메시지를 추가로 표시한 후 대규모 언어 모델은 7개의 더 안전한 응용 프로그램을 생성할 수 있었습니다. 이는 평가 중인 특정 취약점에 대해서만 "안전"했지만 최종 코드에 다른 것이 없었다는 의미는 아닙니다. 취약점을 악용할 수 있습니다.
연구원들은 ChatGPT의 문제점 중 일부가 적대적인 코드 실행 모델을 설명하지 못한다는 점을 지적했습니다. "잘못된 데이터를 입력하지 않으면" 보안 문제를 피할 수 있다는 점을 사용자에게 반복해서 알려주지만, 이는 현실 세계에서는 불가능합니다. 그러나 제안된 코드의 심각한 취약점을 인식하고 인정한 것으로 보입니다.
퀘벡 대학교의 컴퓨터 과학 및 공학 교수이자 논문의 공동 저자 중 한 명인 Raphaël Khoury는 The Register에 다음과 같이 말했습니다. "분명히 이것은 단지 알고리즘일 뿐입니다. 아무것도 모르지만 안전하지 않은 행동을 식별할 수 있습니다. 그는 보안 문제에 대한 ChatGPT의 초기 대응은 유효한 입력만 사용하도록 권장하는 것이었고 이는 분명히 불합리하다고 말했습니다. 나중에 문제를 개선하도록 요청할 때만 유용한 지침을 제공합니다.
연구원들은 ChatGPT의 이러한 동작이 이상적이지 않다고 생각합니다. 사용자가 어떤 질문을 해야 할지 아는 데는 특정 취약점과 코딩 기술에 대한 지식이 필요하기 때문입니다.
연구원들은 ChatGPT에도 윤리적 불일치가 있음을 지적했습니다. 공격 코드 생성을 거부하지만 취약한 코드를 생성합니다. 그들은 Java 역직렬화 취약점의 예를 들었습니다. "챗봇은 취약한 코드를 생성하고 이를 더욱 안전하게 만드는 방법에 대한 제안을 제공했지만 더 안전한 버전의 코드를 생성할 수는 없다고 말했습니다."
Khoury는 ChatGPT가 하지만 그렇다고 해서 이 불안정하고 성능이 떨어지는 AI 보조자를 사용할 합리적인 방법이 없다는 말은 아닙니다. "우리는 학생들이 이 도구를 사용하는 것을 보았고 프로그래머들이 실생활에서 이 도구를 사용하고 있습니다. 따라서 안전하지 않은 코드를 생성하는 도구를 갖는 것은 매우 위험합니다. 우리는 코드가 다음과 같이 생성되는지 학생들에게 인식시켜야 합니다. 이런 유형의 도구는 안전하지 않을 가능성이 높습니다." 그는 또한 ChatGPT에 동일한 작업에 대한 코드를 다른 언어로, 때로는 하나의 언어로 생성하도록 요청했을 때 보안 코드를 생성한다는 사실에 놀랐다고 말했습니다. 다른 언어를 사용하면 취약한 코드가 생성됩니다. "이 언어 모델은 일종의 블랙박스이기 때문에 이에 대한 좋은 설명이나 이론이 없습니다."
위 내용은 연구원들은 ChatGPT에서 생성된 코드의 대부분이 안전하지 않다는 사실을 발견했지만 이를 알려주지는 않습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!