2023년 초 가장 인기 있는 온라인 플랫폼은 의심할 여지 없이 인공 지능 분야에서 새로운 인기를 누리는 지능형 채팅 로봇 모델인 ChatGPT입니다. ChatGPT는 수많은 네티즌들이 "인간과 같은" 방식으로 소통하고 상호 작용하도록 유도했습니다. 그는 인간의 제안 질문을 완전히 이해할 수 있을 뿐만 아니라 더 이상 "인위적으로 지연"되지 않는 답변을 제공할 것이며 실제로 프로그래밍, 그림, 대본 작성, 시적 작성 및 기타 카피라이팅과 같은 많은 생산성 실습에 참여할 것입니다.
한동안 사람들은 다음과 같이 논의하기 시작했습니다. ChatGPT로 대표되는 인공지능이 가까운 미래에 인간의 수많은 직업을 대체할 것인가? 사실 이 문제를 논하기에 앞서, 우리가 더욱 경계해야 할 점은 온라인 세계에서 탄생하여 보안상의 위험은 물론 법적 위험까지 안고 있다는 점입니다. 서클에 떠도는 농담처럼: ChatGPT에서 잘 플레이하면 조만간 감옥에서 식사를 해야 할까요?
ChatGPT(Chat Generative Pre-Trained Transformer, 전체 이름: Chat Generative Pre-Trained Transformer)는 전 세계 OpenAI에서 출시되었습니다. 인공지능 선두기업 2022년 11월 30일 인공지능 챗봇 모델이 탄생했습니다. 인간의 피드백을 사용하여 모델 기술을 강화함으로써 인간의 선호도를 보상 신호로 사용하여 모델을 미세 조정함으로써 인간의 언어를 지속적으로 학습하고 인간처럼 진정으로 채팅하고 소통할 수 있습니다. 실제로 실제 사람처럼 보이기 때문에 ChatGPT는 출시 이후 빠르게 전 세계적으로 인기를 끌었습니다. 2023년 1월 말 기준으로 ChatGPT의 월간 활성 사용자 수는 1억 명을 넘어 세계에서 가장 빠른 사용자 증가율을 보이는 가장 인기 있는 애플리케이션 중 하나가 되었습니다.
ChatGPT가 다재다능한 기능을 더 많이 활용하는 것처럼 사람들은 점점 더 불안해지고 있습니다. 직업이 위험에 처해 있나요? 과거 기계가 인력을 해방시키고 많은 양의 육체 노동을 대체한 것처럼, 역사적 발전은 인공지능을 촉진하여 동일한 작업 내용을 완료하는 데 더 적은 인력을 사용하여 인간 작업에 더 많이 참여할 가능성이 높습니다. 그러나 현재의 기술 수준으로는 이 지점에 도달하기 위한 예측 가능한 시간표가 없습니다. ChatGPT로 대표되는 인공 지능은 인간과의 대화를 계속해서 모방하고 배울 수 있지만 아직 초기 탐색 단계에 있습니다. 여전히 많은 양의 텍스트와 학습 모델을 기반으로 한 지속적인 디버깅을 기반으로 하고 있습니다. 답변은 모두 인터넷에서 나오므로 인간 언어의 진정한 의미를 진정으로 주관적으로 이해하는 것은 불가능하며 이에 대한 현실적인 답변을 제공하기 어렵습니다. 구체적인 실제 시나리오 답변.
ChatGPT는 많은 양의 말뭉치로 훈련되지 않은 전문 분야의 질문에 직면할 때, 주어진 답변이 실제 질문에 대답하지 못하는 경우가 많습니다. 마찬가지로 인간이 잘하는 확장 능력이 없습니다. 예를 들어, 아래 그림에서 기상학과 관련된 질문에 답변할 때 기상학 분야는 상대적으로 틈새적이고 복잡하기 때문에 이 분야에 대한 충분한 교육이 이루어지지 않은 상태에서 ChatGPT는 "마케팅 계정" 답변과 같이 실질적인 내용이 없는 질문을 했습니다. 따라서 ChatGPT가 일상적인 작업을 처리할 수 있더라도 창의성이 많이 필요하지 않은 반복적인 작업일 뿐입니다.
그래도 ChatGPT는 네트워크 보안 분야에서 여전히 긍정적인 역할을 할 수 있으며, 네트워크 보안 인력에게 강력한 조력자가 될 것으로 기대됩니다.
ChatGPT는 보안 담당자가 코드에 대한 보안 감지를 수행하는 데 도움이 될 수 있습니다. 예비 테스트 후 취약한 코드 조각을 복사하여 ChatGPT가 이를 분석하도록 하면 도구에서 보안 문제를 신속하게 식별하고 해결 방법에 대한 구체적인 제안을 제공할 수 있습니다. 몇 가지 단점이 있지만 코드 조각에서 취약점을 신속하게 확인하려는 개발자에게 유용한 도구입니다. 점점 더 많은 회사가 소프트웨어 개발 워크플로우에 보안을 구축하려고 노력함에 따라 ChatGPT의 정확하고 빠른 감지 기능은 코드 보안을 효과적으로 향상시킬 수 있습니다.
ChatGPT는 침투 테스트 보고서를 위한 복구 가이드 작성과 같은 스크립트, 정책 조정 및 보안 보고의 자동화를 더욱 향상시킬 것으로 예상됩니다. ChatGPT는 또한 개요를 더 빠르게 작성할 수 있으므로 보고서에 자동화된 요소를 추가하고 직원에게 사이버 보안 교육 세션을 제공할 수도 있습니다. 위협 인텔리전스 측면에서 ChatGPT는 인텔리전스 효율성과 실시간 신뢰 결정을 크게 향상시키고, 현재 액세스 및 ID 모델보다 더 높은 신뢰도를 배포하며, 시스템 및 정보 액세스에 대한 실시간 결론을 내릴 것으로 예상됩니다.
모든 새로운 기술에는 종종 단점과 위험이 있습니다. ChatGPT는 인간이 보안 제품을 더욱 지능적으로 만들고 보안 위협에 대응하도록 돕지만 정보 수집 및 재사용 원칙을 기반으로 합니다. 보안 경계를 넘어 다양한 보안 위험을 발생시키나요? 또한 ChatGPT의 서비스 약관은 랜섬웨어, 키로거, 바이러스 또는 "해커의 손에 어느 정도 해를 입히도록 설계된 기타 소프트웨어"를 포함한 맬웨어 생성을 명확하게 금지하고 있지만 ChatGPT는 여전히 "악마의 발톱"이 될까요? 네트워크 공격이 더 광범위하고 복잡합니까?
ChatGPT는 모델을 훈련하기 위해 인터넷에서 광범위하게 정보를 수집하고 사람들과의 대화에서 정보를 얻어야 하기 때문에 다음과 같은 능력도 있음을 나타냅니다. 실리콘 밸리 언론 보도에 따르면 Amazon 변호사들은 ChatGPT에서 생성된 콘텐츠에서 회사 내부 비밀과 매우 유사한 텍스트를 발견했다고 말했습니다. 이는 일부 Amazon 직원이 회사 내부 데이터 정보를 입력했기 때문일 수 있습니다. 변호사는 ChatGPT를 사용하여 코드와 텍스트를 생성한다고 말했습니다. 변호사는 이 데이터가 ChatGPT에서 반복을 위해 사용되는 교육 데이터가 될 것을 걱정하고 있으며 Microsoft 내부 엔지니어도 직원들에게 일상 업무 중에 OpenAI 터미널로 민감한 데이터를 보내지 말라고 경고했습니다.
여기에는 또 다른 질문이 포함됩니다. 유럽 데이터 보호 위원회(EDPB)의 회원인 Alexander Hanff는 ChatGPT가 상용 제품인지 의문을 제기했습니다. 인터넷상에서 접근할 수 있는 정보는 많지만, 제3자의 데이터 크롤링을 금지하는 조항이 있는 웹사이트는 관련 규정을 위반하여 대량의 데이터를 수집할 수 있으며, 또한 개인정보의 공정한 이용으로 간주되지 않습니다. GDPR의 보호를 받는 정보도 고려해야 합니다. 이 정보를 크롤링하는 것은 규정을 준수하지 않으며 엄청난 양의 원시 데이터를 사용하므로 GDPR의 "최소 데이터" 원칙을 위반할 수 있습니다. 마찬가지로 ChatGPT가 인간 언어를 기반으로 훈련되면 OpenAI 공식 웹사이트에 게시된 개인 정보 보호 정책에 따르면 OpenAI는 GDPR과 같은 데이터 보호 규정에 따라 "데이터 사용" 조항에 대해 유사한 EU 규정을 언급하지 않습니다. GDPR 제17조에 따라 개인은 개인 데이터 삭제를 요청할 권리, "잊혀질 권리"가 있습니다. 그러나 ChatGPT와 같은 대규모 언어 모델이 스스로 학습하는 데 사용된 데이터를 "잊을" 수 있습니까? 업계에서는 개인이 요청하면 OpenAI가 모델에서 데이터를 완전히 삭제할 수 있는지 여부에 대해 우려하고 있습니다. 또한, 그러한 모델을 훈련시키는 데 비용이 많이 들고, 개인이 ChatGPT가 불법적인 사업에 관여할 때마다 전체 모델을 다시 훈련시킬 가능성은 거의 없습니다. 활동마찬가지로 일부 판매자는 전자상거래 플랫폼에서 ChatGPT 계정 판매 및 에이전트 등록 서비스도 제공하는 것으로 나타났습니다. 일부 판매자는 해외 사이트에서 ChatGPT 계정을 구매한다고 합니다. 비밀번호 수정이 가능한 기성 계정의 대량 구매 비용은 약 8위안인 반면, 외부 판매 가격은 대리인 등록의 경우 30위안에 이를 수 있습니다. 1.2위안 정도로 저렴합니다.
이러한 채널을 통해 개인 정보가 유출될 위험은 말할 것도 없고, 개인적으로 국제 채널을 설정하고 국경 간 비즈니스 서비스를 공개적으로 제공하는 것도 사이버 보안법 관련 조항을 위반합니다. 현재 ChatGPT라는 단어가 포함된 이러한 공개 계정이나 소규모 프로그램의 대부분은 WeChat 관계자에 의해 금지되었으며 관련 플랫폼에서도 이러한 계정의 구매 및 판매를 차단하고 있습니다.
앞서 언급했듯이 ChatGPT는 보안 담당자가 취약한 코드를 감지하는 데 도움을 줄 수 있으며 해커도 유사한 작업을 수행할 수 있습니다. 디지털 보안 조사 매체인 Cybernews의 연구원들은 해커가 ChatGPT를 사용하여 웹 사이트의 보안 허점을 찾을 수 있다는 사실을 발견했습니다. 이를 통해 연구원들은 일반 웹 사이트에서 침투 테스트를 수행하고 ChatGPT에서 제공하는 제안과 코드를 결합하여 45분 내에 변경했습니다. 예제는 해킹을 완료합니다.
또한 ChatGPT는 프로그래밍에 사용될 수 있으므로 악성 코드 작성에도 사용될 수 있습니다. 예를 들어 ChatGPT를 통해 VBA 코드를 작성하면 이 코드에 악성 URL을 삽입하기만 하면 되고, 사용자가 엑셀 파일 등의 파일을 열면 자동으로 악성코드 페이로드 다운로드가 시작된다. 따라서 ChatGPT를 사용하면 기술적 능력이 부족한 해커가 단 몇 분 만에 첨부 파일이 포함된 무기화된 이메일을 만들어 대상에 대한 사이버 공격을 수행할 수 있습니다.
지난해 12월 해커들은 ChatGPT를 사용해 작성한 Python 스틸러 코드를 지하 포럼에 공유했습니다. 스틸러는 일반적인 파일 형식(예: MS Office 문서, PDF 및 이미지 파일)을 검색하여 Temp 폴더에 복사할 수 있습니다. 하드 코딩된 FTP 서버에 업로드합니다.
해커들은 포럼에서 ChatGPT를 사용하여 정보 도용 프로그램을 만드는 방법을 시연했습니다.
ChatGPT는 인간의 언어를 배울 수 있기 때문에 피싱 이메일과 같은 사회 공학적 행위를 작성할 때 문법 및 표현 습관 측면에서 더 혼란스러울 수 있습니다. 연구원들은 ChatGPT를 사용하면 해커가 다양한 사회 환경을 현실적으로 시뮬레이션할 수 있어 표적 공격이 더욱 효과적으로 이루어질 수 있다는 사실을 발견했습니다. 모국어가 아닌 국가의 해커라도 철자가 틀린 고도로 시뮬레이션된 피싱 이메일 없이 대상 국가의 문법과 논리에 맞는 코드를 작성할 수 있습니다. 또는 형식 오류.
ChatGPT를 사용하여 생성된 피싱 이메일
ChatGPT 네트워크 보안의 위에서 언급한 장점과 위험에 대한 사전 조사를 마친 후 두 가지가 거의 완전히 반대되는 측면을 형성한다는 것이 분명해졌습니다. 즉, 해커가 취약점을 발견하고 공격 표면이 있으면 보안 담당자가 격차를 감지 및 메우고 공격 격차를 줄이는 데도 도움이 될 수 있습니다. 그러나 현 단계에서도 ChatGPT의 보안 지원 기능은 여전히 전문적인 검토와 승인이 필요하며, 진행 과정에서 지연이 발생할 수 있습니다. 금전적인 동기가 있는 범죄 해커들은 일반적으로 인공지능을 직접 사용하여 공격을 시작하며 위협은 추정하기 어렵습니다.
ChatGPT로 대표되는 인공지능이 최근 몇 년간 뛰어난 기술의 발현이라는 것은 의심의 여지가 없습니다. 그러나 이 신기술의 이중성으로 인해 네트워크 보안과 IT 전문가들은 의심할 여지 없이 ChatGPT에 대해 엇갈린 감정을 갖고 있습니다. 최근 BlackBerry 연구에 따르면 기업의 80%가 2025년까지 AI 기반 사이버 보안에 투자할 계획이라고 답했지만, 75%는 여전히 AI가 보안에 심각한 위협이 된다고 믿고 있습니다.
이는 인공지능 산업의 발전을 구체적으로 규제하기 위한 새로운 규정이 시급히 필요하다는 뜻인가요? 우리나라의 일부 전문가와 학자들은 ChatGPT가 현재 달성한 선풍적인 효과와 여러 자본의 게임 진입 시도가 인공지능 산업이 현재 ChatGPT가 처리할 수 있는 작업이 획기적인 발전을 이뤘다는 것을 의미하지 않는다고 지적했습니다. 따라서 규제 기관이 이 단계에서 ChatGPT 기술 감독을 사이버 공간 거버넌스의 핵심 업무로 즉시 간주할 필요가 없습니다. 그렇지 않으면 우리나라의 입법 모델은 "신기술 출현"이라는 논리적 순환에 빠지게 됩니다. 그리고 새로운 규정을 제정하라." 현재 우리나라는 사이버보안법, 네트워크정보콘텐츠의 생태적 거버넌스에 관한 규정, 인터넷정보서비스에 대한 알고리즘 권고관리규정 등의 법률과 규정을 공포하여 불법행위에 대한 세부적인 법적 규정을 규정하고 있다. 인공지능 기술과 알고리즘 기술은 ChatGPT가 단기적으로 발생할 수 있는 네트워크 보안 위험을 처리하기에 충분합니다. 이 단계에서 우리나라의 규제 당국은 기존 법률 시스템을 최대한 활용하여 ChatGPT 관련 산업에 대한 감독을 강화할 수 있으며, 향후 경험이 성숙되면 인공 지능 기술 응용 분야에서 처리할 법률 제정을 고려할 수 있습니다. 다양한 잠재적 보안 위험이 있습니다.
해외에서는 EU가 2024년에 인공지능법을 발의할 계획으로, 회원국이 "필요한 절차를 준수"하는지 확인하는 책임을 맡은 감독 기관을 최소한 하나 이상 임명하거나 설립해야 한다고 제안합니다. 해당 법안은 자율주행차부터 챗봇, 자동화 공장까지 모든 분야에 널리 활용될 것으로 예상된다.
사실 ChatGPT의 보안과 인간의 일자리가 인공지능으로 대체될지에 대한 논의는 궁극적으로 인공지능이 인간을 통제해야 하는지, 아니면 인간이 인공지능을 통제해야 하는지라는 한 가지 명제로 귀결될 수 있습니다. 인공지능이 건전하게 발전하여 인간이 업무 효율성을 높이고 사회 발전을 가속화하도록 돕는다면 우리 네트워크도 안전할 것입니다. 공격과 위협이 난무하는 네트워크 환경에서 그때쯤 되면 네트워크 보안은 더 이상 '적색과 청색 사이의 작은 싸움'이 아니라 인류 사회 질서 전체를 전복시키는 일이 될 것입니다.
위 내용은 ChatGPT를 잘하면 조만간 감옥에서 식사를 해야겠죠?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!