당신은 단순한 데이터 포인트 이상입니다. 출구 메커니즘은 개인 정보를 회복하는 데 도움이됩니다.
최신 인공 지능 개발의 물결 많은 사람들이 우리 중 많은 사람들이 삶의 주요 측면을 다시 생각하도록 강요합니다. 예를 들어, 디지털 아티스트는 이제 이미지 생성 웹 사이트로부터 작품을 보호하는 데 집중해야하며, 교사는 일부 학생들이 chatgpt에 에세이 작성을 아웃소싱 할 수있는 상황을 처리해야합니다.
그러나 인공 지능의 출현은 또한 모든 사람이 알아야 할 중요한 프라이버시 위험을 제시합니다.
노동 투명성
Brookings Institution (워싱턴 D.C.에 본사를 둔 비영리 기관은 광범위한 국가 및 글로벌 문제를 해결하기위한 연구를 수행 함)은 AI의 정책 책임자이자 신흥 기술 이니셔티브 인 Jessica Brandt는 다음과 같이 말했습니다. 우리의 개인 정보, 사용 방법 및 목적을 위해 사용 중입니다.”
광범위하게 말하면, 인공 지능 시스템이 더 정확 해지는 과정 인 기계 학습에는 많은 데이터가 필요합니다. 시스템의 데이터가 많을수록 정확도가 높아집니다. Chatgpt 및 Google Bard와 같은 생성 인공 지능 플랫폼 및 이미지 생성기 Dall-E는 크롤링이라는 기술을 통해 교육 데이터의 일부를 얻습니다. 인터넷을 스캔하여 유용한 공개 정보를 수집합니다.
그러나 민감한 회사 파일, 이미지 또는 로그인 목록과 같이 공개해서는 안되는 개인 데이터는 인적 오류 또는 태만으로 인해 때로는 인터넷의 액세스 가능한 부분을 입력 할 수 있으며 누구나 도움을 받아 찾을 수 있습니다. Google 검색 사업자 중 이 정보가 크롤링되어 AI의 교육 데이터 세트에 추가되면 삭제할 수있는 사람은 거의 없습니다.
Indian Technology Company Wipro의 글로벌 프라이버시 책임자 인 Ivana Bartoletti는 "사람들은 자유롭게 공유 할 수 있어야합니다." 결국 생성 AI 도구를 훈련시키는 데 사용됩니다. 또는 이미지는 "인터넷의 개인 데이터를 크롤링하는 것은 IT 데이터 제어에 대한 사람들의 능력을 파괴 할 수 있습니다 데이터 크롤링은 인공 지능 시스템 교육 데이터의 잠재적 인 문제점 중 하나 일뿐입니다. 국제 개인 정보 보호 전문가 협회의 선임 프라이버시 엔지니어링 연구원 인 Katharina Koerner는 또 다른 출처는 개인 데이터의 2 차 사용이라고 말했다. 이것은 당신이 특정 목적으로 일부 정보를 자발적으로 포기할 때 발생하지만, 당신이 동의하지 않는 다른 목적으로 끝납니다. 기업은 이메일 주소, 배송 세부 정보 및 그들이 좋아하는 제품 유형을 포함하여 수년간 고객 정보를 축적 해 왔지만 과거에는 해당 데이터로 많은 일을 할 수 없었습니다. 오늘날 정교한 알고리즘과 인공 지능 플랫폼은 사람들의 행동 패턴에 대해 더 많이 배울 수 있도록이 정보를 쉽게 처리 할 수있는 방법을 제공합니다. 이는 실제로 관심이있는 광고 및 정보 만 제공함으로써 귀하에게 도움이 될 수 있지만, 제품 공급을 제한하고 우편 번호를 기준으로 가격을 인상 할 수도 있습니다. 일부 회사는 이미 고객이 제공 한 많은 데이터를 가지고 있다는 점을 감안할 때 비즈니스가 그렇게하고 싶어하는 것은 매우 유혹적이라고 Korner는 말했다.
"AI는 향후 의사 결정을 지원할 수있는 가용 데이터에서 귀중한 패턴을 쉽게 추출 할 수있게 되므로이 목적을 위해 데이터가 수집되지 않을 때 비즈니스가 개인 데이터를 얻는 것이 매우 쉽습니다. 기계 학습의 경우"
개발자가 대규모 교육 데이터 세트에서 개인 정보를 선택적으로 삭제하는 데 도움이되지 않습니다. 물론 특정 정보 (예 : 생년월일 또는 사회 보장 번호 등)를 쉽게 삭제할 수 있습니다 (일반적인 AI 플랫폼에 개인 정보를 제공하지 않음). 그러나 예를 들어, 유럽 일반 데이터 보호 규정을 준수하는 완전한 삭제 요청을 구현하는 것은 또 다른 문제이며 아마도 가장 복잡한 과제 일 것이라고 Bartoletti는 말했다.
[관련 : 학교 장비가 가족의 데이터를 공유하는 것을 막는 방법]
선택적 컨텐츠 삭제는 복잡한 마이크로 서비스 구조로 인해 기존 IT 시스템에서도 어렵습니다 (각 부품은 별도의 단위로 작동합니다). 그러나 Korner는 인공 지능의 맥락에서 지금은 더욱 어렵고 불가능하다고 말했다.
"Ctrl F"를 클릭하고 누군가의 이름으로 모든 데이터를 삭제하는 문제가 아니기 때문입니다. 데이터를 삭제하려면 전체 모델을 처음부터 다시 인쇄하는 비싼 프로그램이 필요합니다.
출구 메커니즘이 점점 어려워 질 것입니다
잘 알려지지 않은 AI 시스템은 사용자가 사람들의 행동을 이해하는 데 도움이되는 패턴 인식을 포함하여 놀라운 분석을 제공 할 수 있습니다. 그러나 그것은 기술의 장점 때문이 아니라 사람들이 예측 가능한 방식으로 행동하는 경향이 있기 때문입니다. 인간 본성의 이러한 특정 측면을 통해 AI 시스템은 귀하에 대한 많은 특정 정보를 알지 못하고 제대로 작동 할 수 있습니다. 당신과 같은 사람을 아는 것이 충분할 때, 당신을 아는 요점은 무엇입니까? 워싱턴 D.C.의 인공 지능 감사 및 위험에 중점을 둔 법률 회사 인 BNH.AI의 파트너 인 Brenda Leong은 다음과 같이 말했습니다 : "우리는 단지 3 개만 가야 할 가장 적은 정보에 도달했습니다. 얻기 쉬운 사람에 대한 데이터는 즉시 예측 시스템에 흡수 될 것입니다.“요즘에는이 시스템에서 멀어지기가 점점 어려워지고 있습니다.
이것은 몇 년 동안 프라이버시를 보호하기 위해 노력해 온 사람들조차도 그들에게 결정과 권장 사항을 만들기 때문에 우리에게 자유를 줄이게됩니다. 이것은 모든 노력이 헛된 것이라고 느낄 수 있습니다.
Liang은 다음과 같이 말했습니다 : "이것이 저에게 유익한 방법이더라도 소득 수준과 일치하는 대출을 제공하거나 정말로 관심이있는 기회를 제공하는 것과 같은 방식으로 어떤 방식 으로든 통제 할 수 없다는 것입니다. 상황에서 나를 위해. "
빅 데이터를 사용하여 뉘앙스없이 전체 인구를 분류하는 것 (특이점과 예외). 악마는 세부 사항에 있지만 특별한 상황에 일반화 된 결론을 적용하면 상황이 실제로 나빠질 수 있습니다.
데이터의 무기화
또 다른 주요 과제는 알고리즘 의사 결정에 공정성을 심어주는 방법, 특히 AI 모델의 결론이 잘못, 구식 또는 불완전한 데이터를 기반으로 할 수있는 경우입니다. 인공 지능 시스템은 인간 창조자의 편견을 영속시킬 수 있으며 때로는 전체 공동체에 끔찍한 결과를 초래할 수 있습니다.
더 많은 회사가 알고리즘에 의존하여 위치를 채우거나 운전자 위험 프로파일을 결정하는 데 도움이되므로 당사의 데이터는 우리 자신의 관심사에 비해 사용될 가능성이 높습니다. 이 시스템의 자동화 된 결정, 제안 또는 예측에 의해 언젠가는 이용할 수 없거나 전혀없는 것으로 예측할 수 있습니다.
[관련 : 자율 무기는 전쟁 중에 심각한 실수를 저지를 수 있습니다]
이것은 또한 이러한 예측이나 레이블이 참 지능 알고리즘의 눈에 사실과 거짓을 구별 할 수없는 사실이 될 때 문제입니다. 현대 인공 지능의 경우 개인 데이터, 공개 데이터, 사실 데이터 또는 완전히 가상의 데이터 등 모든 것이 데이터입니다.
더 많은 통합은 보안이 적다는 것을 의미합니다
인터넷 존재가 가장 약한 암호만큼 강력한 것처럼 대형 AI 도구를 다른 플랫폼과 통합하면 개인 데이터에 액세스하려고 할 때 시도 할 수있는 더 많은 포인트를 공격자에게 제공합니다. 당신이 그들 중 일부가 안전 측면에서 표준을 충족하지 않는다는 것을 알게되면 놀라지 마십시오.
이것은 귀하의 지식없이 귀하의 데이터를 수집하는 모든 회사 및 정부 기관을 고려하지 않습니다. 집 근처의 감시 카메라에 대해 생각하고 콘서트 공연장 주변의 얼굴 인식 소프트웨어, 지역 공원을 돌아 다니는 Gopros를 착용 한 아이들, 심지어 Tiktok에서 인기를 얻으려고하는 사람들도 추적하십시오.
사람과 플랫폼이 더 많은 데이터를 처리할수록 오류의 가능성이 커집니다. 더 큰 오류 공간은 귀하의 정보가 인터넷으로 유출 될 가능성이 높으며 AI 모델의 교육 데이터 세트에 쉽게 기어 갈 수 있음을 의미합니다. 위에서 언급했듯이 이것은 취소하기가 매우 어렵습니다.
당신은 무엇을 할 수 있습니까
나쁜 소식은 현재까지 할 수있는 일이 없다는 것입니다. 귀하의 정보가 포함 된 AI 교육 데이터 세트에서 파생 된 잠재적 보안 위협을 해결할 수 없거나 예측 시스템을 해결할 수 없습니다. 이상적인 직업을 얻지 못하게하십시오. 현재, 우리의 최선의 접근 방식은 감독을 요구하는 것입니다.
EU는 인공 지능법의 첫 번째 초안을 통과 시켰으며, 이는 기업과 정부가 허용 가능한 위험 수준에 따라 기술을 어떻게 사용하는지 규제 할 것입니다. 한편, Joe Biden 미국 대통령은 행정 명령을 통해 윤리 및 공정 AI 기술 개발에 자금을 지원했지만 의회는 AI 플랫폼 측면에서 미국 시민의 프라이버시를 보호하기위한 법을 통과하지 못했습니다. 상원은이 기술에 대해 배우기 위해 청문회를 개최하고 있지만 연방 법안을 만드는 데 가깝지는 않습니다.
정부 작업 과정에서 인공 지능 플랫폼을 포함한 개인 정보 보호 규정을 옹호하고 사용자가 데이터의 잘못 처리되지 않도록 보호해야합니다. AI 개발에 대해 주변 사람들과 의미있는 대화를 나누십시오. 연방 개인 정보 보호 규정에 대한 대리인의 입장을 이해하고 귀하의 관심사에 대해 가장 관심을 갖는 사람들에게 투표하십시오.
더 많은 Popsci 이야기를 읽으십시오.
위 내용은 옵트 아웃 : AI 시대의 4 개인 정보 문제의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!