사이버 보안은 AI 및 ML의 발전으로 이점을 얻습니다. 오늘날의 보안 팀은 잠재적으로 의심스러운 활동에 대한 데이터로 넘쳐나며 건초 더미에서 바늘을 찾는 경우가 많습니다. 인공 지능은 보안 팀이 네트워크 트래픽, 맬웨어 지표 및 사용자 행동 추세의 패턴 인식을 통해 이 데이터에서 실제 위협을 찾는 데 도움이 됩니다.
해커는 기업을 상대하기 위해 인공 지능과 기계 학습을 사용하는 경우가 많습니다. 예를 들어, 클라우드 환경에 쉽게 액세스할 수 있으므로 간단하게 AI 사용을 시작하고 강력하고 유능한 학습 모델을 구축할 수 있습니다.
해커들이 AI와 머신러닝을 활용하여 기업을 표적으로 삼는 방법과 AI 중심의 사이버 공격을 예방하는 방법을 살펴보겠습니다.
해커는 ML을 다양한 방법으로 사용할 수 있습니다. 첫 번째는 자체 기계 학습 환경을 구축하고 자체 악성 코드 및 공격 사례를 모델링하여 보안 팀이 찾고 있는 이벤트 유형과 동작을 결정하는 것입니다.
예를 들어, 정교한 악성 코드는 로컬 시스템 라이브러리 및 구성 요소를 수정하고, 메모리에서 프로세스를 실행하고, 해커가 제어하는 인프라가 소유한 하나 이상의 도메인과 통신할 수 있습니다. 이러한 모든 활동은 결합되어 TTP(전술, 기술 및 절차)라는 프로필을 만듭니다. 기계 학습 모델은 TTP를 관찰하고 이를 사용하여 탐지 기능을 구축할 수 있습니다.
보안팀이 TTP를 감지하는 방법을 관찰하고 예측함으로써 해커는 지표와 동작을 미묘하고 자주 수정하여 AI 기반 도구를 사용하여 공격을 감지하는 보안팀보다 앞서 나갈 수 있습니다.
해커들도 기계 학습과 인공 지능을 사용하여 부정확한 데이터로 AI 모델을 파괴하여 환경을 파괴합니다. 기계 학습 및 인공 지능 모델은 올바르게 레이블이 지정된 데이터 샘플을 사용하여 정확하고 반복 가능한 탐지 프로필을 구축합니다. 해커는 악성 코드와 유사해 보이는 양성 파일을 도입하거나 오탐으로 판명되는 행동 패턴을 만들어 AI 모델을 속여 공격이 악의적이지 않다고 믿게 만들거나 AI가 표시하도록 훈련받은 악성 파일을 도입할 수 있습니다. AI 모델을 중독시키는 것.
해커는 사이버 보안 공급업체와 운영 팀에서 사용하는 기존 및 개발 중인 AI 모델을 매핑하려고 적극적으로 노력합니다. AI 모델이 수행하는 작업과 수행하는 작업을 이해함으로써 해커는 수명 주기 동안 기계 학습 작업 및 모델을 적극적으로 방해할 수 있습니다. 이를 통해 해커는 해커에게 유리한 방향으로 시스템을 속임으로써 모델에 영향을 미칠 수 있습니다. 또한 해커는 알려진 모델을 완전히 피하기 위해 데이터를 미묘하게 수정하여 식별된 패턴을 기반으로 한 탐지를 회피할 수 있습니다.
AI 중심 공격을 방어하는 것은 매우 어렵습니다. 보안팀은 학습 모델 및 패턴 개발에 사용된 데이터와 관련된 레이블이 정확한지 확인해야 합니다. 데이터에 정확한 레이블 식별자가 있는지 확인하면 모델을 훈련하는 데 사용되는 데이터 세트가 작아질 수 있으며 이는 AI의 효율성에 도움이 되지 않습니다.
AI 보안 탐지 모델을 구축하는 경우 모델링 시 적대적인 기술과 전략을 도입하면 패턴 인식과 실제에서 볼 수 있는 전략을 결합하는 데 도움이 될 수 있습니다. Johns Hopkins University의 연구원들은 트로이 목마 및 기타 악성 코드 패턴의 인공 지능 모델을 생성하는 데 도움이 되는 트로이 목마 소프트웨어 프레임워크를 개발했습니다. MIT(매사추세츠 공과대학) 연구원들은 은행 사기와 같은 문제를 탐지하기 위해 보다 탄력적인 인공 지능 모델을 구축하는 데 도움이 될 수 있는 자연어 패턴 도구인 TextFooler를 출시했습니다.
인공 지능의 중요성이 커짐에 따라 해커들은 자체 연구를 통해 보안 팀의 노력을 뛰어넘으려고 노력할 것입니다. 보안팀이 해커를 방어하려면 공격 전략에 대한 최신 정보를 유지하는 것이 중요합니다.
위 내용은 해커가 AI와 ML을 사용하여 비즈니스를 표적으로 삼는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!