> 기술 주변기기 > 일체 포함 > 연구에 따르면 강화 학습 모델은 멤버십 추론 공격에 취약합니다.

연구에 따르면 강화 학습 모델은 멤버십 추론 공격에 취약합니다.

PHPz
풀어 주다: 2023-04-09 20:01:01
앞으로
1283명이 탐색했습니다.

번역가 | Li Rui

리뷰어 | Sun Shujuan​

머신러닝이 사람들이 매일 사용하는 많은 애플리케이션의 일부가 되면서 사람들은 머신러닝의 보안과 취약점을 식별하고 해결하는 방법에 점점 더 많은 관심을 기울이고 있습니다. 모델. 개인 정보 보호에 대한 위협.

연구에 따르면 강화 학습 모델은 멤버십 추론 공격에 취약합니다.

그러나 다양한 기계 학습 패러다임이 직면하는 보안 위협은 다양하며 기계 학습 보안의 일부 영역은 아직 연구가 부족합니다. 특히 강화학습 알고리즘의 보안은 최근 몇 년간 큰 관심을 받지 못했습니다.

캐나다 McGill 대학교, MILA(Machine Learning Laboratory) 및 워털루 대학교의 연구원들은 심층 강화 학습 알고리즘의 개인 정보 보호 위협에 초점을 맞춘 새로운 연구를 수행했습니다. 연구원들은 멤버십 추론 공격에 대한 강화 학습 모델의 취약성을 테스트하기 위한 프레임워크를 제안합니다.

연구 결과에 따르면 공격자는 심층 강화 학습(RL) 시스템을 효과적으로 공격할 수 있으며 모델 훈련에 사용되는 민감한 정보를 얻을 수 있습니다. 강화 학습 기술이 이제 산업 및 소비자 응용 분야로 진출하고 있기 때문에 그들의 연구 결과는 중요합니다.

멤버십 추론 공격

연구에 따르면 강화 학습 모델은 멤버십 추론 공격에 취약합니다.

멤버십 추론 공격은 대상 기계 학습 모델의 동작을 관찰하고 이를 훈련하는 데 사용되는 예제를 예측합니다.

모든 기계 학습 모델은 일련의 예제를 통해 학습됩니다. 경우에 따라 훈련 예시에는 건강, 금융 데이터 또는 기타 개인 식별 정보와 같은 민감한 정보가 포함됩니다.

멤버 추론 공격은 기계 학습 모델이 훈련 세트 데이터를 유출하도록 시도하는 일련의 기술입니다. 적대적인 예(기계 학습에 대한 더 잘 알려진 공격 유형)는 기계 학습 모델의 동작을 변경하는 데 중점을 두고 보안 위협으로 간주되는 반면, 멤버십 추론 공격은 모델에서 정보를 추출하는 데 중점을 두고 개인 정보 보호 위협에 더 가깝습니다.

멤버십 추론 공격은 모델이 레이블이 지정된 예제에 대해 훈련되는 지도 기계 학습 알고리즘에서 잘 연구되었습니다.

지도 학습과 달리 심층 강화 학습 시스템은 레이블이 있는 예제를 사용하지 않습니다. 강화 학습(RL) 에이전트는 환경과의 상호 작용을 통해 보상이나 페널티를 받습니다. 이러한 상호작용과 강화 신호를 통해 점차적으로 행동을 학습하고 발전시킵니다.

논문의 저자는 서면 논평에서 "강화 학습의 보상이 반드시 레이블을 나타내는 것은 아닙니다. 따라서 다른 학습 패러다임에서 멤버십 추론 공격 설계에 자주 사용되는 예측 레이블 역할을 할 수 없습니다."라고 말했습니다. 연구 연구원들은 논문에서 "현재 심층 강화 학습 에이전트를 훈련하는 데 직접 사용되는 데이터 구성원의 잠재적 유출에 대한 연구는 없습니다"라고 썼습니다. 그리고 이러한 연구가 부족한 이유 중 하나는 강화 학습입니다. 현실 세계에서는 효율성이 떨어집니다.

연구 논문의 저자들은 “Alpha Go, Alpha Fold, GT Sophy 등 심층 강화 학습 분야에서 상당한 진전이 있었음에도 불구하고 심층 강화 학습 모델은 아직 산업 규모에서 널리 채택되지 않고 있습니다. 반면, 데이터 프라이버시는 매우 널리 사용되는 연구 분야입니다. 실제 산업 응용 분야에서 심층 강화 학습 모델이 부족하여 이 기본적이고 중요한 연구 분야에 대한 연구가 크게 지연되어 강화 학습 시스템에 대한 공격에 대한 연구가 부족합니다. ”

실제 시나리오에서 산업 규모로 강화 학습 알고리즘을 적용해야 할 필요성이 증가함에 따라, 적대적 및 알고리즘 관점에서 강화 학습 알고리즘의 개인 정보 보호 측면을 다루는 프레임워크에 대한 초점과 엄격한 요구 사항이 점점 더 분명해지고 있습니다. 그리고 관련성이 있습니다.

심층 강화 학습에서 회원 추론의 어려움

연구 논문의 저자는 다음과 같이 말했습니다. “1세대 개인 정보 보호 심층 강화 학습 알고리즘을 개발하려는 우리의 노력을 통해 우리는 개인 정보 보호로부터 다음과 같은 사실을 깨닫게 되었습니다. 관점에서 보면 전통적인 기계 학습 알고리즘과 강화 학습 알고리즘 사이에는 근본적인 구조적 차이가 있습니다.

연구원들은 더 중요한 것은 심층 강화 학습과 다른 학습 패러다임 사이의 근본적인 차이점이 잠재적인 개인 정보 보호 결과를 고려할 때 심층 강화 학습 모델을 실제 응용 프로그램에 배포하는 데 심각한 어려움을 안겨준다는 사실을 발견했습니다.

이러한 이해를 바탕으로 우리에게 가장 큰 질문은: 심층 강화 학습 알고리즘이 멤버십 추론 공격과 같은 개인 정보 보호 공격에 얼마나 취약한가? 기존 멤버십 추론 공격 공격 모델은 다른 학습 패러다임을 위해 특별히 설계되었으며, 전 세계적으로 배포될 때 개인 정보 보호에 대한 심각한 영향을 고려할 때 이러한 공격에 대한 심층 강화 학습 알고리즘의 취약성은 거의 알려져 있지 않습니다. ”

훈련 중에 강화 학습 모델은 각 단계가 일련의 행동과 상태로 구성된 여러 단계를 거칩니다. 따라서 강화학습을 위한 성공적인 멤버십 추론 공격 알고리즘은 모델을 훈련하는 데 사용되는 데이터 포인트와 궤적을 학습해야 합니다. 이는 강화 학습 시스템을 위한 멤버십 추론 알고리즘을 설계하는 것을 더 어렵게 만드는 한편, 그러한 공격에 대한 강화 학습 모델의 견고성을 평가하기도 어렵게 만듭니다.

저자들은 “멤버십 추론 공격(MIA)은 훈련과 예측에 사용되는 데이터 포인트의 순차적이고 시간 의존적 특성 때문에 다른 유형의 기계 학습에 비해 강화 학습이 어렵습니다. -데이터 포인트 간의 많은 관계는 다른 학습 패러다임과 근본적으로 다릅니다.”

강화 학습과 다른 기계 학습 패러다임의 근본적인 차이점으로 인해 심층 강화 학습을 위한 구성원 추론 공격을 설계하고 평가하기가 어렵습니다. 방법.

강화 학습 시스템에 대한 멤버십 추론 공격 설계

연구에서 연구원들은 데이터 수집과 모델 훈련 프로세스가 분리된 비정책 강화 학습 알고리즘에 중점을 두었습니다. 강화 학습은 "재생 버퍼"를 사용하여 입력 궤적의 상관 관계를 해제하고 강화 학습 에이전트가 동일한 데이터 세트에서 다양한 궤적을 탐색할 수 있도록 합니다.

비정책 강화 학습은 훈련 데이터가 이미 존재하고 강화 학습 모델을 훈련하는 기계 학습 팀에 제공되는 많은 실제 응용 프로그램에 특히 중요합니다. 비정책 강화 학습은 멤버십 추론 공격 모델을 만드는 데에도 중요합니다.

연구에 따르면 강화 학습 모델은 멤버십 추론 공격에 취약합니다.

비정책 강화학습은 "재생 버퍼"를 사용하여 모델 훈련 중에 이전에 수집된 데이터를 재사용합니다.

저자는 “진정한 비정책 강화학습에서는 탐색 단계와 활용 단계가 분리되어 있습니다. 따라서 목표 전략은 훈련 궤적에 영향을 미치지 않습니다. 이 설정은 공격자가 목표 모델의 내부 구조나 사용된 방법을 모르기 때문에 블랙박스 환경에서 구성원 추론 공격 프레임워크를 설계할 때 특히 적합합니다. 훈련 궤적을 수집합니다.”

블랙박스 멤버십 추론 공격에서 공격자는 훈련된 강화 학습 모델의 동작만 관찰할 수 있습니다. 이 특별한 경우, 공격자는 대상 모델이 일련의 개인 데이터에서 생성된 궤적에 대해 훈련되었다고 가정합니다. 이것이 비정책 강화 학습의 작동 방식입니다.

연구에 따르면 강화 학습 모델은 멤버십 추론 공격에 취약합니다.

본 연구에서 연구진은 제어 작업에서 탁월한 성능을 보이는 고급 비정책 강화학습 알고리즘인 'Batch Constrained Deep Q Learning(BCQ)'을 선택했습니다. 그러나 그들은 멤버십 추론 공격 기법이 다른 비정책 강화학습 모델로 확장될 수 있음을 보여줍니다.

공격자가 멤버십 추론 공격을 수행할 수 있는 한 가지 방법은 "섀도우 모델"을 개발하는 것입니다. 이는 대상 모델의 훈련 데이터와 동일한 분포의 데이터 및 다른 곳의 혼합 데이터에 대해 훈련된 분류기 기계 학습 모델입니다. 훈련 후 섀도우 모델은 대상 기계 학습 모델의 훈련 세트에 속하는 데이터 포인트와 모델이 이전에 보지 못한 새로운 데이터를 구별할 수 있습니다. 강화 학습 에이전트를 위한 그림자 모델을 생성하는 것은 대상 모델 훈련의 순차적 특성으로 인해 까다롭습니다. 연구진은 여러 단계를 통해 이를 달성했습니다.

먼저 강화 학습 모델 트레이너에게 새로운 비공개 데이터 궤적 세트를 제공하고 대상 모델에서 생성된 궤적을 관찰합니다. 그런 다음 공격 트레이너는 훈련 및 출력 궤적을 사용하여 기계 학습 분류기를 훈련하여 대상 강화 학습 모델 훈련에 사용되는 입력 궤적을 감지합니다. 마지막으로 분류기에는 훈련 멤버 또는 새로운 데이터 예제로 분류할 수 있는 새로운 궤적이 제공됩니다.

연구에 따르면 강화 학습 모델은 멤버십 추론 공격에 취약합니다.

강화 학습 모델에 대한 멤버십 추론 공격을 위한 그림자 모델 훈련

강화 학습 시스템에 대한 멤버십 추론 공격 테스트

연구원들은 다양한 궤적 길이, 단일 대 단일 대를 포함한 다양한 모드에서 멤버십 추론 공격을 테스트했습니다. 다중 궤적, 상관된 궤적과 상관되지 않은 궤적.

연구원들은 논문에서 다음과 같이 밝혔습니다. “결과는 우리가 제안한 공격 프레임워크가 강화 학습 모델 훈련 데이터 포인트를 추론하는 데 매우 효과적이라는 것을 보여줍니다... 얻은 결과는 심층 강화 학습을 사용할 때 높은 확률이 있음을 보여줍니다. Privacy Risk ”

결과에 따르면 다중 궤적을 사용한 공격은 단일 궤적을 사용한 공격보다 효과적이며, 궤적이 길어지고 상호 연관될수록 공격의 정확도가 높아지는 것으로 나타났습니다.

저자는 “자연스러운 설정은 물론 개별 모델이며, 여기서 공격자는 대상 강화 학습 정책을 훈련하는 데 사용되는 훈련 세트에서 특정 개인의 존재를 식별하는 데 관심이 있습니다(강화에서 전체 궤적을 설정). 그러나 집단 모드에서 MIA(멤버십 추론 공격)의 더 나은 성능은 훈련 정책의 특징에 의해 포착된 시간적 상관 관계 외에도 공격자가 훈련 궤적 간의 상호 상관 관계도 활용할 수 있음을 보여줍니다.

연구는 또한 공격자가 훈련 궤적과 궤적 내의 시간 상관 관계 사이의 상호 상관 관계를 활용하기 위해 더 복잡한 학습 아키텍처와 더 정교한 하이퍼 매개 변수 조정이 필요하다는 것을 의미한다고 연구원들은 말했습니다.

연구원들은 이렇게 말했습니다. “이러한 다양한 공격 모드를 이해하면 공격이 발생할 수 있는 다양한 각도와 개인 정보 보호에 미치는 영향을 더 잘 이해할 수 있으므로 데이터 보안 및 개인 정보 보호에 미치는 영향을 더 깊이 이해할 수 있습니다.

강화 학습 시스템에 대한 실제 멤버십 추론 공격

연구에 따르면 강화 학습 모델은 멤버십 추론 공격에 취약합니다.

연구원들은 Open AIGym 및 MuJoCo 물리학을 기반으로 세 가지 작업에 대해 훈련된 강화 학습 모델에 대한 공격을 테스트했습니다. 엔진.

연구원들은 “현재 우리의 실험은 Hopper, Half-Cheetah 및 Ant의 세 가지 고차원 모션 작업을 다루고 있습니다. 이 작업은 모두 로봇 시뮬레이션 작업이며 주로 실제 로봇 학습 작업으로 실험의 확장을 촉진합니다. ”

애플리케이션 구성원이 공격을 추론할 수 있는 또 다른 흥미로운 방향은 Amazon Alexa, Apple Siri 및 Google Assistant와 같은 대화 시스템이라고 이 논문의 연구원은 말했습니다. 이러한 애플리케이션에서는 챗봇과 최종 사용자 간의 완전한 상호 작용 추적을 통해 데이터 포인트가 제공됩니다. 이 설정에서 챗봇은 훈련된 강화 학습 정책이며 사용자와 로봇의 상호 작용이 입력 궤적을 형성합니다.

저자는 “이 경우 집단 패턴은 자연 환경이다. 즉, 공격자는 사용자가 있는 것으로 추론할 수 있다”고 말합니다.

팀은 이러한 유형의 다른 실용적인 응용 프로그램을 탐색하고 있습니다. 공격은 강화 학습 시스템에 영향을 미칠 수 있습니다. 또한 이러한 공격이 다른 맥락에서 강화 학습에 어떻게 적용될 수 있는지 연구할 수도 있습니다.

저자들은 "이 연구 영역의 흥미로운 확장은 대상 정책의 내부 구조도 공격자에게 알려진 화이트박스 환경에서 심층 강화 학습 모델에 대한 구성원 추론 공격을 연구하는 것입니다."라고 말합니다.

연구원들은 그들의 연구가 실제 강화 학습 애플리케이션의 보안 및 개인 정보 보호 문제를 밝히고 기계 학습 커뮤니티의 인식을 높여 이 분야에 대한 더 많은 연구가 수행될 수 있기를 바랍니다.

원제: 강화 학습 모델은 멤버십 추론 공격에 취약합니다​, 저자: Ben Dickson

위 내용은 연구에 따르면 강화 학습 모델은 멤버십 추론 공격에 취약합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:51cto.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
최신 이슈
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿