머신러닝을 사용해 공격을 시작하는 9가지 방법
머신러닝과 인공지능(AI)은 일부 위협 탐지 및 대응 도구의 핵심 기술이 되고 있습니다. 즉석에서 학습하고 사이버 위협 역학에 자동으로 적응하는 능력은 보안 팀의 역량을 강화합니다.
그러나 일부 악의적인 해커는 기계 학습과 AI를 사용하여 네트워크 공격을 확장하고 보안 제어를 우회하며 전례 없는 속도로 새로운 취약점을 찾아 파괴적인 결과를 초래할 수도 있습니다. 해커들이 이 두 가지 기술을 악용하는 일반적인 방법은 다음과 같습니다.
1. Spam
Omida 분석가인 Fernando Montenegro는 전염병 예방 담당자가 수십 년 동안 기계 학습 기술을 사용해 스팸을 탐지해 왔다고 말했습니다. "스팸 방지는 기계 학습의 가장 성공적인 초기 사용 사례입니다."
사용된 스팸 필터가 이메일이 통과되지 않거나 특정 점수를 부여받지 못한 이유를 제공하는 경우 공격자는 자신의 행동을 조정할 수 있습니다. 그들은 공격을 더욱 성공적으로 만들기 위해 합법적인 도구를 사용합니다. "충분한 제출을 통해 모델이 무엇인지 복구한 다음 해당 모델을 우회하도록 공격을 맞춤화할 수 있습니다.
취약한 것은 스팸 필터만이 아닙니다. 점수나 기타 결과를 제공하는 보안 공급업체는 남용될 수 있습니다. "모든 사람이 이 문제를 겪는 것은 아니지만, 주의하지 않으면 누군가가 이 결과를 악용하게 될 것입니다."
2. 더욱 정교한 피싱 이메일
공격자는 단순히 보안 도구를 위해 머신러닝을 사용하는 것이 아닙니다. 귀하의 이메일이 스팸 필터를 통과하는지 테스트해 보세요. 또한 이러한 이메일을 작성하기 위해 기계 학습을 사용합니다. Ernst & Young Technology Consulting의 파트너인 Adam Malone은 "그들은 범죄 포럼에서 이러한 서비스를 광고합니다. 그들은 이러한 기술을 사용하여 더욱 정교한 피싱 이메일을 생성하고 거짓 페르소나를 만들어 사기를 더욱 심화시킵니다"라고 말했습니다. 머신러닝을 사용한다고 광고하는데, 이는 단순한 마케팅 수사가 아니라 실제입니다. Malone은 "해보시면 효과가 정말 좋다는 것을 알게 될 것입니다."라고 말했습니다.
공격자는 기계 학습을 사용하여 피싱 이메일을 창의적으로 맞춤 설정하여 이러한 이메일이 스팸으로 표시되는 것을 방지할 수 있습니다. 사용자에게는 클릭할 기회가 있습니다. 이메일 텍스트 이상의 것을 사용자 정의합니다. 공격자는 AI를 사용하여 매우 실제처럼 보이는 사진, 소셜 미디어 프로필 및 기타 자료를 생성하여 커뮤니케이션을 최대한 사실적으로 보이게 만듭니다.
3. 더욱 효율적인 비밀번호 추측
사이버 범죄자들도 머신러닝을 사용하여 비밀번호를 추측합니다. "우리는 그들이 비밀번호 추측 엔진을 더 자주 사용하고 성공률이 더 높다는 증거를 가지고 있습니다." 사이버 범죄자들은 훔친 해시를 해독하기 위해 더 나은 사전을 만들고 있습니다.
또한 기계 학습을 사용하여 보안 제어를 식별하므로 더 적은 시도로 비밀번호를 추측할 수 있어 시스템 해킹에 성공할 확률이 높아집니다.
4. Deepfakes
인공지능의 가장 놀라운 오용은 딥페이크 도구입니다. 즉, 가짜이거나 진짜처럼 보일 수 있는 비디오 또는 오디오를 생성하는 도구입니다. "다른 사람의 목소리나 외모를 흉내낼 수 있다는 것은 사람을 속이는데 매우 효과적입니다." 몬테네그로는 "누군가가 내 목소리를 속이면 당신도 속게 될 것"이라고 말했다. 지난 몇 년 동안 가짜 오디오로 인해 회사에 수백, 수천, 심지어 수백만 달러의 비용이 발생할 수 있음이 나타났습니다. 텍사스 대학의 컴퓨터 과학 교수인 Murat Kantarcioglu는 "사람들은 상사로부터 전화를 받을 것이며 이는 가짜가 될 것입니다."라고 말했습니다.
더 일반적으로 사기꾼은 AI를 사용하여 진짜처럼 보이는 사진을 생성합니다. 프로필과 피싱 이메일을 사용하여 이메일을 더욱 신뢰할 수 있게 만듭니다. 이것은 큰 사업입니다. FBI 보고서에 따르면 비즈니스 이메일 사기로 인해 2016년 이후 430억 달러 이상의 손실이 발생했습니다. 지난 가을 언론에서는 한 은행 직원이 자신이 알고 있는 회사 이사로부터 전화를 받았다는 이유만으로 홍콩 은행에서 사기를 당해 범죄 조직에 3,500만 달러를 송금했다고 보도했습니다. 그는 감독의 목소리를 알아듣고 의심 없이 이적을 승인했다.
5. 기성 보안 도구 무력화
현재 일반적으로 사용되는 많은 보안 도구에는 일종의 인공 지능 또는 기계 학습이 내장되어 있습니다. 예를 들어 바이러스 백신 소프트웨어는 의심스러운 동작을 찾을 때 기본 서명 이상의 기능을 사용합니다. "온라인에서 사용 가능한 모든 것, 특히 오픈 소스는 악의적인 행위자에 의해 악용될 수 있습니다."
공격자는 이러한 도구를 사용하여 공격을 방어하는 것이 아니라 탐지될 때까지 이를 우회할 수 있을 때까지 자체 악성 코드를 조정할 수 있습니다. "AI 모델에는 사각지대가 많습니다." Kantarcioglu는 "전송된 패킷 수, 공격 리소스 등 공격의 특성을 변경하여 조정할 수 있습니다."
공격자가 활용하는 것은 AI 기반 보안 도구뿐만이 아닙니다. AI는 다양한 기술 중 하나일 뿐입니다. 예를 들어, 사용자는 문법 오류를 찾아 피싱 이메일을 식별하는 방법을 배울 수 있는 경우가 많습니다. 그리고 Grammarly와 같은 AI 기반 문법 검사기는 공격자가 글쓰기를 개선하는 데 도움을 줄 수 있습니다.
6. 정찰
정찰에 기계 학습을 사용하면 공격자가 대상의 트래픽 패턴, 방어 및 잠재적인 취약점을 볼 수 있습니다. 정찰은 쉬운 작업이 아니며 일반 사이버 범죄자의 손이 닿지 않는 작업입니다. "AI를 정찰에 사용하려면 일정한 기술이 있어야 합니다. 따라서 이러한 기술은 고급 해커만이 사용할 것이라고 생각합니다."
다만 어느 정도 상용화되면 이 기술은 언더그라운드 블랙을 통과할 것입니다. 마켓은 서비스로 제공되기 때문에 많은 사람들이 이용할 수 있습니다. Mellen은 “해커 국가가 머신러닝을 사용하는 툴킷을 개발하여 범죄 커뮤니티에 공개하는 경우에도 이런 일이 발생할 수 있습니다. 그러나 사이버 범죄자는 여전히 머신러닝 애플리케이션의 역할과 효과를 이해해야 합니다. ”
7. 자율 에이전트
기업이 공격을 받고 인터넷에서 영향을 받는 시스템의 연결을 끊으면 맬웨어가 해당 명령에 다시 연결하지 못할 수 있습니다. 서버는 추가 지침을 받습니다. "공격자는 직접 제어하지 않더라도 오랫동안 지속될 수 있는 지능형 모델을 개발하고 싶을 수도 있습니다."라고 Kantarcioglu는 "그러나 일반적인 사이버 범죄의 경우 이것이 특별히 중요하지 않다고 생각합니다." 8. AI 중독
공격자는 기계 학습 모델에 새로운 정보를 제공하여 속일 수 있습니다. Global Risk Institute의 선임 연구원인 Alexey Rubtsov는 다음과 같이 말했습니다. "적들은 훈련 데이터 세트를 조작할 수 있습니다. 예를 들어 그들은 기계가 잘못된 방식으로 학습하도록 의도적으로 모델을 편향시킵니다.
예를 들어, 해커는 조작할 수 있습니다." 탈취된 사용자 계정은 매일 오전 2시에 시스템에 로그인해 무해한 작업을 수행하는데, 시스템은 오전 2시에 작업해도 의심스러운 것이 없다고 믿게 하여 사용자가 통과해야 하는 보안 수준을 낮춘다.
Microsoft Tay 챗봇도 비슷한 이유로 2016년에 인종차별적이라고 배웠습니다. 동일한 접근 방식을 사용하여 특정 유형의 맬웨어가 안전하다고 생각하거나 특정 크롤러 동작이 완전히 정상이라고 생각하도록 시스템을 교육할 수 있습니다.
9. AI 퍼지 테스트
합법적인 소프트웨어 개발자와 침투 테스터는 퍼지 테스트 소프트웨어를 사용하여 무작위 샘플 입력을 생성하여 애플리케이션을 충돌시키거나 취약점을 찾아냅니다. 이러한 유형의 소프트웨어의 향상된 버전은 기계 학습을 사용하여 문제를 일으킬 가능성이 가장 높은 텍스트 문자열의 우선 순위를 지정하는 등 보다 목표화되고 체계적인 방식으로 입력을 생성합니다. 이러한 유형의 퍼즈 테스트 도구는 기업에서 사용할 때 더 나은 테스트 결과를 얻을 수 있지만 공격자의 손에 들어가면 더욱 치명적입니다.
이러한 기술은 보안 패치, 피싱 방지 교육, 마이크로 세분화와 같은 사이버 보안 조치가 여전히 중요한 이유 중 하나입니다. Forrester의 Mellen은 "이것이 심층 방어가 중요한 이유 중 하나입니다. 공격자가 사용할 수 있는 장애물뿐만 아니라 여러 가지 장애물을 설치해야 합니다.
전문 지식이 부족하여 악의적인 해커를 방지할 수 있습니다."라고 말했습니다. 머신러닝과 AI 활용에서
머신러닝에 투자하려면 많은 전문 지식이 필요하며, 머신러닝 관련 전문 지식은 현재 부족한 기술입니다. 그리고 패치되지 않은 취약점이 많기 때문에 공격자가 기업 방어를 뚫을 수 있는 쉬운 방법이 많이 있습니다.
"손끝에는 공격 대상이 많을 뿐만 아니라 기계 학습과 인공 지능을 사용하여 공격을 시작하지 않고도 돈을 벌 수 있는 다른 방법이 있습니다."라고 Mellen은 말했습니다. "내 경험상 대부분의 경우 공격자는 , 기업 방어가 향상되고 사이버 범죄자와 해커 국가가 공격 개발에 계속 투자함에 따라 균형이 곧 바뀌기 시작할 수 있습니다.
위 내용은 머신러닝을 사용해 공격을 시작하는 9가지 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











기계 학습 및 데이터 과학 분야에서 모델 해석 가능성은 항상 연구자와 실무자의 초점이었습니다. 딥러닝, 앙상블 방법 등 복잡한 모델이 널리 적용되면서 모델의 의사결정 과정을 이해하는 것이 특히 중요해졌습니다. explainable AI|XAI는 모델의 투명성을 높여 머신러닝 모델에 대한 신뢰와 확신을 구축하는 데 도움이 됩니다. 모델 투명성을 향상시키는 것은 여러 복잡한 모델의 광범위한 사용은 물론 모델을 설명하는 데 사용되는 의사 결정 프로세스와 같은 방법을 통해 달성할 수 있습니다. 이러한 방법에는 기능 중요도 분석, 모델 예측 간격 추정, 로컬 해석 가능성 알고리즘 등이 포함됩니다. 특성 중요도 분석은 모델이 입력 특성에 미치는 영향 정도를 평가하여 모델의 의사결정 과정을 설명할 수 있습니다. 모델 예측 구간 추정

일반인의 관점에서 보면 기계 학습 모델은 입력 데이터를 예측된 출력에 매핑하는 수학적 함수입니다. 보다 구체적으로, 기계 학습 모델은 예측 출력과 실제 레이블 사이의 오류를 최소화하기 위해 훈련 데이터로부터 학습하여 모델 매개변수를 조정하는 수학적 함수입니다. 기계 학습에는 로지스틱 회귀 모델, 의사결정 트리 모델, 지원 벡터 머신 모델 등 다양한 모델이 있습니다. 각 모델에는 적용 가능한 데이터 유형과 문제 유형이 있습니다. 동시에, 서로 다른 모델 간에는 많은 공통점이 있거나 모델 발전을 위한 숨겨진 경로가 있습니다. 연결주의 퍼셉트론을 예로 들면, 퍼셉트론의 은닉층 수를 늘려 심층 신경망으로 변환할 수 있습니다. 퍼셉트론에 커널 함수를 추가하면 SVM으로 변환할 수 있다. 이 하나

이 글에서는 학습 곡선을 통해 머신러닝 모델에서 과적합과 과소적합을 효과적으로 식별하는 방법을 소개합니다. 과소적합 및 과적합 1. 과적합 모델이 데이터에 대해 과도하게 훈련되어 데이터에서 노이즈를 학습하는 경우 모델이 과적합이라고 합니다. 과적합된 모델은 모든 예를 너무 완벽하게 학습하므로 보이지 않거나 새로운 예를 잘못 분류합니다. 과대적합 모델의 경우 완벽/거의 완벽에 가까운 훈련 세트 점수와 형편없는 검증 세트/테스트 점수를 얻게 됩니다. 약간 수정됨: "과적합의 원인: 복잡한 모델을 사용하여 간단한 문제를 해결하고 데이터에서 노이즈를 추출합니다. 훈련 세트로 사용되는 작은 데이터 세트는 모든 데이터를 올바르게 표현하지 못할 수 있기 때문입니다."

1950년대에는 인공지능(AI)이 탄생했다. 그때 연구자들은 기계가 사고와 같은 인간과 유사한 작업을 수행할 수 있다는 것을 발견했습니다. 이후 1960년대에 미국 국방부는 인공 지능에 자금을 지원하고 추가 개발을 위해 실험실을 설립했습니다. 연구자들은 우주 탐사, 극한 환경에서의 생존 등 다양한 분야에서 인공지능의 응용 분야를 찾고 있습니다. 우주탐험은 지구를 넘어 우주 전체를 포괄하는 우주에 대한 연구이다. 우주는 지구와 조건이 다르기 때문에 극한 환경으로 분류됩니다. 우주에서 생존하려면 많은 요소를 고려해야 하며 예방 조치를 취해야 합니다. 과학자와 연구자들은 우주를 탐험하고 모든 것의 현재 상태를 이해하는 것이 우주가 어떻게 작동하는지 이해하고 잠재적인 환경 위기에 대비하는 데 도움이 될 수 있다고 믿습니다.

C++의 기계 학습 알고리즘이 직면하는 일반적인 과제에는 메모리 관리, 멀티스레딩, 성능 최적화 및 유지 관리 가능성이 포함됩니다. 솔루션에는 스마트 포인터, 최신 스레딩 라이브러리, SIMD 지침 및 타사 라이브러리 사용은 물론 코딩 스타일 지침 준수 및 자동화 도구 사용이 포함됩니다. 실제 사례에서는 Eigen 라이브러리를 사용하여 선형 회귀 알고리즘을 구현하고 메모리를 효과적으로 관리하며 고성능 행렬 연산을 사용하는 방법을 보여줍니다.

이 웹사이트는 2월 12일 캐나다 정부가 해킹 도구인 플리퍼제로(FlipperZero) 및 이와 유사한 장치에 도둑이 자동차를 훔치는 데 사용할 수 있는 도구로 분류되어 판매를 금지할 계획이라고 보도했습니다. FlipperZero는 RFID, 라디오, NFC, 적외선 및 Bluetooth를 포함한 여러 프로토콜을 통해 다양한 하드웨어 및 디지털 장치를 테스트하고 디버깅하는 데 도움이 되는 휴대용 프로그래밍 가능 테스트 도구이며 많은 괴짜와 해커의 호감을 얻었습니다. 제품 출시 이후 사용자들은 리플레이 공격을 사용하여 자동차 잠금 해제, 차고 문 열기, 초인종 활성화 및 다양한 디지털 키 복제 등을 포함하여 소셜 미디어에서 FlipperZero의 기능을 시연했습니다. ▲FlipperZero는 McLaren 키체인을 복사하고 자동차의 잠금을 해제합니다. 캐나다 산업부 장관 Franço

번역기 | 검토자: Li Rui | Chonglou 인공 지능(AI) 및 기계 학습(ML) 모델은 오늘날 점점 더 복잡해지고 있으며 이러한 모델에서 생성되는 출력은 이해관계자에게 설명할 수 없는 블랙박스입니다. XAI(Explainable AI)는 이해관계자가 이러한 모델의 작동 방식을 이해할 수 있도록 하고, 이러한 모델이 실제로 의사 결정을 내리는 방식을 이해하도록 하며, AI 시스템의 투명성, 이 문제를 해결하기 위한 신뢰 및 책임을 보장함으로써 이 문제를 해결하는 것을 목표로 합니다. 이 기사에서는 기본 원리를 설명하기 위해 다양한 설명 가능한 인공 지능(XAI) 기술을 살펴봅니다. 설명 가능한 AI가 중요한 몇 가지 이유 신뢰와 투명성: AI 시스템이 널리 수용되고 신뢰되려면 사용자가 의사 결정 방법을 이해해야 합니다.

MetaFAIR는 대규모 기계 학습을 수행할 때 생성되는 데이터 편향을 최적화하기 위한 새로운 연구 프레임워크를 제공하기 위해 Harvard와 협력했습니다. 대규모 언어 모델을 훈련하는 데는 수개월이 걸리고 수백 또는 수천 개의 GPU를 사용하는 것으로 알려져 있습니다. LLaMA270B 모델을 예로 들면, 훈련에는 총 1,720,320 GPU 시간이 필요합니다. 대규모 모델을 교육하면 이러한 워크로드의 규모와 복잡성으로 인해 고유한 체계적 문제가 발생합니다. 최근 많은 기관에서 SOTA 생성 AI 모델을 훈련할 때 훈련 프로세스의 불안정성을 보고했습니다. 이는 일반적으로 손실 급증의 형태로 나타납니다. 예를 들어 Google의 PaLM 모델은 훈련 과정에서 최대 20번의 손실 급증을 경험했습니다. 수치 편향은 이러한 훈련 부정확성의 근본 원인입니다.
