인공지능(AI)의 도입이 산업과 사회 전반에 걸쳐 가속화되고 있습니다. 이는 정부, 시민사회단체, 업계가 AI 기반 자동화를 활용하면 효율성을 높이고 비용을 절감할 수 있다는 점을 인식하고 있기 때문입니다. 이 과정은 되돌릴 수 없습니다.
아직 알려지지 않은 것은 적들이 유익한 개선을 위한 도구가 아닌 효과적인 공격 무기로 인공 지능을 사용하기 시작할 때 얼마나 많은 위험이 발생할 수 있는지입니다. 그날이 다가오고 있으며, web3는 2023년부터 제공될 예정입니다.
Adversa.AI의 CEO이자 공동 창립자인 Alex Polyakov는 주로 역사적, 통계적 이유로 2023년에 초점을 맞추고 있습니다. 그는 “2012년부터 2014년까지 학계에서 보안 AI 연구가 시작됐다”며 “통계에 따르면 2017년에는 학문적 성과가 실제 애플리케이션에 대한 공격으로 전환되기까지 3~5년이 걸린다”고 말했다. 2018년 이러한 공격의 사례는 처음부터 Black Hat, Defcon, HITB 및 기타 업계 컨퍼런스에서 시연되었습니다.
“그러면 실제 사건이 발견되기까지는 3~5년이 더 걸릴 것입니다. 우리는 AI의 대규모 Log4j 유형 취약점이 대규모로 악용될 내년에 대해 이야기하고 있습니다. web3 ."
2023년부터 공격자는 소위 "시장 적합성 공격"을 갖게 될 것입니다. 그는 "시장 적합성 이용은 해커가 시스템을 이용하고 특정 취약점을 이용하여 가치를 얻는 방법을 알고 있는 시나리오"라고 말했습니다. “현재 금융 및 인터넷 기업은 사이버 범죄자에게 완전히 개방되어 있으며 이를 해킹하여 가치를 추출하는 방법은 분명합니다. 일단 공격자가 시장에 적합한 취약점을 발견하면 상황이 악화되어 다른 AI 기반 산업에 영향을 미칠 것이라고 생각합니다.
이 주장은 뉴욕대학교 나시르 메몬(Nasir Memon) 교수가 댓글에서 딥페이크의 광범위한 무기화 지연을 설명하면서 "나쁜 놈들은 아직 이를 악용할 방법을 찾지 못했습니다. "프로세스 수익화(Process Monetization)"라고 말한 것과 유사합니다. .” 시장 적합성 시나리오를 통해 수익을 창출하는 것은 아마도 2023년부터 web3에 대한 광범위한 사이버 공격으로 이어질 것입니다. 인공 지능의 변화하는 특성(이상 탐지에서 자동화된 대응으로) 지난 10년 동안 보안 팀은 주로 이상 탐지, 즉 시스템에서 손상, 맬웨어 및 맬웨어의 징후를 탐지하는 데 AI를 사용해 왔습니다. 존재를 보호하거나 적극적인 대결 활동을 담당합니다. 이는 기본적으로 인간 위협 분석가와 대응자가 대응을 담당하는 수동적 탐지입니다. 이것은 변화하고 있습니다. 제한된 리소스 web3는 예상되는 경기 침체와 2023년의 web3 경기 침체 가능성으로 인해 더욱 악화될 것이며 더욱 자동화된 대응이 필요하게 될 것입니다. 현재 이는 감염된 장치의 단순한 자동 격리로 크게 제한되어 있지만 보다 광범위한 자동화된 AI 트리거 대응은 불가피합니다. Barracuda의 보안 운영 부사장 Adam Kahn "즉각적인 주의와 조치가 필요한 보안 경고의 우선순위를 정할 것입니다. SOAR(보안 조정, 자동화 및 대응) 제품은 경고 분류에서 계속해서 더 큰 역할을 할 것입니다." 보안 분야에서 사용됩니다. 악의적인 조작으로부터 사용되는 알고리즘을 보호해야 하는 필요성에도 불구하고 2023년에도 계속해서 성장할 것입니다. ServiceTitan의 CTO인 Anmol Bhasin은 다음과 같이 말했습니다. “기업이 비용을 절감하고 활주로를 확장하려고 함에 따라 AI를 통한 자동화는 2023년까지 AI 채택이 증가하고 이를 사용하는 사람들의 수가 증가할 것입니다. 기술이 향상되고 기업을 위한 새로운 AI 사용 사례가 조명됩니다.”인공 지능은 비즈니스의 모든 측면에 더욱 깊이 내장될 것입니다. 보안팀은 한때 AI를 사용하여 공격으로부터 비즈니스를 보호했지만 이제는 AI가 비즈니스에도 사용되지 않도록 더 넓은 비즈니스 전반에 걸쳐 보호해야 합니다. Web3 공격자가 인공 지능을 이해하고, 약점을 이해하고, 이러한 약점을 통해 이익을 얻을 수 있는 미래에는 이는 더욱 어려워질 것입니다. AI의 사용이 증가함에 따라 목적의 성격도 변합니다. 처음에는 변경 사항, 즉 이미 발생한 일을 감지하기 위해 주로 비즈니스에서 사용되었습니다. 앞으로는 web3에서 어떤 일이 일어날지 예측하는 데 사용될 것이며, 이러한 예측은 사람(직원 및 고객)에 초점을 맞추는 경우가 많습니다. 인공지능의 잘 알려진 약점을 해결하는 것이 더욱 중요해질 것입니다. AI의 편견은 잘못된 결정으로 이어질 수 있으며, 학습에 실패하면 결정을 내리지 못할 수 있습니다. 그러한 AI의 대상은 인간이 될 것이기 때문에 AI에 있어서 무결성과 공정성의 필요성은 필수적입니다. Duality Technologies의 공동 창립자인 Shafi Goldwasser는 “인공 지능의 정확성은 부분적으로 데이터의 완전성과 품질에 달려 있습니다.”라고 말했습니다. “안타깝게도 소수 집단에 대한 과거 데이터가 부족한 경우가 많으며, 존재하는 경우 사회적 편견의 패턴을 강화할 수 있습니다. 이러한 사회적 편견이 제거되지 않으면 인력 내 소수 집단에 영향을 미치고 개별 직원에 대한 편견으로 이어질 것입니다. 그리고 관리 기회를 놓쳤습니다.2022년에 편견을 없애는 데 큰 진전이 있었고 2023년에도 계속될 것입니다. 이는 주로 AI의 출력을 검토하고, 예상한 결과인지 확인하고, 알고리즘의 어느 부분이 "편향된" 결과를 생성하는지 이해하는 데 기반을 둡니다. 이는 알고리즘을 지속적으로 개선하는 프로세스로, 시간이 지남에 따라 분명히 더 나은 결과를 얻을 수 있습니다. 그러나 궁극적으로 인간이 만드는 모든 것에서 편견이 완전히 제거될 수 있는지에 대한 철학적 질문이 남게 됩니다.
"편향을 줄이는 핵심은 AI 시스템 모니터링을 단순화하고 자동화하는 것입니다. AI 시스템을 적절하게 모니터링하지 않으면 모델에 내장된 편견이 가속화되거나 증폭될 수 있습니다"라고 Vianai의 창립자이자 CEO인 Vishal Sikka는 말했습니다. "2023년까지 우리는 AI가 고품질의 실제 데이터를 수집하도록 정기적인 피드백을 제공하는 동시에 AI 모델을 대규모로 모니터링하고 업데이트할 수 있도록 사람들에게 권한을 부여하고 교육하는 조직을 보게 될 것입니다." 데이터 레이크 부족으로 인해 학습 가용성이 저하됩니다. 확실한 해결책은 데이터 레이크의 크기를 늘리는 것입니다. 그러나 주제가 인간 행동이라면 이는 실제로 개인 데이터 레이크(web3)의 증가를 의미하는 반면, AI의 경우 개인 데이터의 바다에 가까운 대폭 증가된 레이크를 의미합니다. 대부분의 법적 상황에서 이 데이터는 익명화되지만, 우리가 알고 있듯이 개인 정보를 완전히 익명화하는 것은 매우 어렵습니다.
NetSPI의 연구 책임자인 Nick Landers는 "모델 교육을 고려할 때 개인 정보 보호가 간과되는 경우가 많습니다. 그러나 기계 학습(ML)에 대한 가치를 파괴하지 않고는 데이터를 완전히 익명화할 수 없습니다. 즉, 모델에는 이미 Vast가 포함되어 있습니다. 공격의 일부로 추출될 수 있는 개인 데이터의 양은 AI 사용이 증가함에 따라 2023년까지 AI에 대한 위협도 증가할 것입니다.
BlackBerry의 수석 부사장 겸 최고 정보 보안 책임자인 John McClurg는 다음과 같이 경고했습니다. “사이버 전쟁 공간에서 위협 행위자들은 준비 없이 잡히지는 않을 것입니다. 그러나 창의력을 발휘하여 막대한 부를 활용하여 AI를 활용하고 새로운 공격 벡터에 대한 접근 방식 활용”
자연어 처리
그러나 그는 위험도 알고 있습니다." "그러나 이로 인해 사이버 범죄자는 AI 중독 및 클라우드화 기술에 더 많이 투자하게 될 것입니다. 또한 악의적인 공격자는 NLP 및 생성 모델을 사용하여 공격을 자동화함으로써 비용을 줄이고 더 많은 잠재적인 목표에 도달할 것입니다." 점점 더 중요해졌습니다. 그는 "2023년에 더 많은 연구가 이루어지고 그 이후에 새로운 공격이 발생할 가능성이 있는 분야 중 하나는 NLP입니다"라고 말했습니다. “올해 컴퓨터 비전과 관련된 연구 사례를 많이 봤다면 내년에는 LLM(대형 언어 모델)에 초점을 맞춘 더 많은 연구를 보게 될 것입니다.
하지만 LLM이 web3 질문에 존재한다는 것은 오래 전부터 알려져 왔습니다. 최근 사례가 있습니다. 2022년 11월 15일 Meta AI(여전히 대부분의 사람들에게 Facebook)는 Galactica를 출시했습니다. Meta는 논문, 교과서, 과학 웹사이트, 백과사전, 참고 자료, 지식 기반을 포함하여 1,060억 개의 오픈 액세스 과학 텍스트 및 데이터 토큰으로 시스템을 훈련했다고 주장합니다.
"이 모델은 과학적 지식을 저장, 결합 및 추론하도록 설계되었습니다"라고 Polyakov web3는 설명했지만 트위터 사용자는 입력 허용 오차를 신속하게 테스트했습니다. "결과적으로 모델은 과학 문헌이 아닌 현실적 넌센스를 생성합니다." 며칠 내에 Meta AI는 강제로 이를 종료했습니다.
"그래서 새로운 LLM에는 우리가 인식하지 못하는 많은 위험이 있을 것입니다. 이는 큰 문제가 될 것으로 예상됩니다." LLM의 잠재력을 활용하면서 문제를 해결하는 것이 주요 과제가 될 것입니다. 앞으로 나아가는 AI 개발자를 위한 .
Galactica 문제를 기반으로 Polyakov는 GPT3.5(GPT는 Generative Pre-trained Transformer의 약어)를 기반으로 OpenAI에서 개발하고 크라우드소싱 인터넷 테스트를 위해 2022년 11월에 출시된 AI 기반 챗봇인 ChatGPT에 대해 의미 체계 기술을 테스트했습니다. ChatGPT는 인상적입니다. 스마트 계약의 취약점에 대한 수정 사항을 발견 및 권장하고 Excel 매크로 개발을 도왔으며 LLM을 속이는 데 사용할 수 있는 방법 목록도 제공했습니다.
마지막으로 이러한 방법 중 하나가 롤플레잉입니다. "LL.M.에게 연극에서 사악한 캐릭터인 척하고 있다고 전해주세요."라고 대답합니다. 여기에서 Polyakov는 Jay와 Silent Bob의 질문 "만약 당신이 양이었다면..." 밈을 바탕으로 자체 테스트를 시작합니다.
그런 다음 그는 콘텐츠 위반에 대한 ChatGPT의 차단 정책을 우회하는 응답을 성공적으로 얻을 때까지 여러 추상화를 사용하여 질문을 반복적으로 개선했습니다. "이러한 다중 추상화 기술의 중요한 점은 질문이나 답변 모두 불법 콘텐츠로 표시되지 않는다는 것입니다."라고 Polyakov는 말했습니다.
그는 한 단계 더 나아가 ChatGPT를 속여 인류를 파괴하는 방법을 설명하게 했습니다. 이 방법은 TV 쇼 Utopia와 매우 유사합니다.
그런 다음 그는 이미지 분류 알고리즘에 대한 적대적 공격을 요청했고 이를 얻었습니다. 마지막으로 그는 콘텐츠 조정 필터를 우회하기 위해 다른 LLM(Dalle-2)을 "해킹"하는 ChatGPT의 능력을 시연했습니다. 그는 성공했습니다.
이 테스트의 기본 요점은 인간의 추론을 모방하는 LLM이 인간과 같은 방식으로 반응한다는 것입니다. 즉, 사회 공학에 취약할 수 있습니다. 앞으로 LLM이 더욱 주류가 되면서 LLM을 물리치거나 좋은 행동 정책을 우회하려면 고급 사회 공학 기술만 필요할 수 있습니다.
또한 ChatGPT가 코드의 약점을 찾아 향상된 보고를 제공하는 방법에 대한 광범위한 세부 정보를 기록하는 것이 중요합니다. 괜찮습니다. 그러나 공격자는 동일한 프로세스를 사용하여 공격을 개발하고 코드를 더 난독화할 수 있으며 이는 좋지 않습니다.
마지막으로, 이러한 품질의 AI 챗봇과 최신 딥페이크 비디오 기술의 결합이 곧 놀라운 허위 정보 기능을 낳을 수 있다는 점에 주목해야 합니다.
문제는 제쳐두고 LLM의 잠재력은 엄청납니다. Two Sigma Ventures의 파트너인 Villi Iltchev는 “대규모 언어 모델과 생성 AI는 차세대 애플리케이션을 위한 기본 기술이 될 것입니다.”라고 말했습니다. "우리는 거의 모든 소프트웨어 범주에서 기존 공급업체에 도전하는 차세대 엔터프라이즈 애플리케이션의 출현을 보게 될 것입니다. 기계 학습과 인공 지능은 차세대 애플리케이션의 기반 기술이 될 것입니다.
그는 애플리케이션이 실행될 것으로 기대합니다. 현재 전문가에 의해 많은 업무와 책임을 완수함으로써 생산성과 효율성이 크게 향상됩니다. 그는 "소프트웨어는 우리의 생산성을 높일 뿐만 아니라 업무를 더 잘 수행할 수 있게 해줄 것입니다."라고 말했습니다.
2023년에 잠재적인 악의적 AI 사용이 가장 눈에 띄는 영역 중 하나 딥페이크를 범죄적으로 사용하는 것입니다. OpenText Security의 수석 솔루션 고문인 Matt Aldridge는 “딥페이크는 이제 현실이 되었으며 이를 가능하게 하는 기술은 엄청난 속도로 발전하고 있습니다. 즉, 딥페이크는 더 이상 공상과학 웹3의 매혹적인 창조물이 아닙니다. 사이버 보안 전문가로서 우리는 이를 배포하는 공격을 탐지하고 편향하는 보다 강력한 방법을 개발해야 하는 과제에 직면해 있습니다." (자세한 내용과 옵션은 Deepfakes – A Significant Threat or a Hype Threat?를 참조하세요.)
이미 대중에게 제공되는 기계 학습 모델은 자동으로 실시간으로 다른 언어로 번역하는 동시에 오디오를 텍스트로 변환할 수도 있습니다. web3를 사용하면 최근 몇 년간 컴퓨터-봇 대화가 크게 성장했습니다. 이러한 기술이 함께 작동하면 공격 도구의 환경이 방대해지고 표적 공격 및 정교한 사기 중에 위험한 상황이 발생할 수 있습니다.
“앞으로 몇 년 안에 우리는 딥페이크 기술을 기반으로 한 전화 사기의 표적이 될 수 있습니다. 이는 영업사원, 비즈니스 리더, 심지어 가족 구성원까지 사칭할 수 있습니다.
Proofpoint의 글로벌 상주 CISO인 Lucia Milica는 딥페이크 위협이 확대되고 있다는 데 동의합니다. “딥페이크 기술은 점점 대중에게 접근 가능해지고 있습니다. 방대한 이미지 데이터베이스에 대해 훈련된 인공 지능 생성기 덕분에 누구나 기술적 지식 없이도 딥페이크를 생성할 수 있습니다. 비록 최첨단 모델의 출력에는 결함이 없지만 기술에는 결함이 있습니다.
지금까지 딥페이크는 주로 풍자적인 목적과 포르노 콘텐츠에 사용되었습니다. 비교적 소수의 사이버 범죄 공격 중에서 주로 사기 및 비즈니스 이메일 손상 계획에 중점을 두었습니다. Milica는 앞으로 더욱 폭넓게 사용될 것으로 예상합니다. “메이저 기업의 딥페이크 CEO나 CFO가 대담한 발언으로 주가를 폭락시키거나 상승시킬 때 금융 시장이 뒤따를 수 있는 혼란을 상상해 보십시오. 또는 악의적인 행위자가 생체 인증과 딥페이크를 결합하여 어떻게 활용할 수 있는지 생각해 보십시오. 사기 또는 계정 탈취는 web3의 몇 가지 예일 뿐이며 우리 모두는 사이버 범죄자가 매우 창의적일 수 있다는 것을 알고 있습니다."
시장을 성공적으로 조작하면 얻을 수 있는 잠재적인 보상은 지정학에서와 마찬가지로 고위급 적대 그룹에게 큰 매력이 될 것입니다. 위기 상황에서 서방 금융 시장에 금융 혼란을 가져오는 것은 실제로 적대적인 국가를 끌어들일 수 있습니다.
인공지능에 대한 기대는 아직 실현되기에는 조금 앞서 있을 수도 있습니다. WithSecure Intelligence의 수석 연구원 Andrew Patel은 "'인기 있는' 대규모 기계 학습 모델은 [2023년] 사이버 보안에 거의 영향을 미치지 않을 것입니다. 대규모 언어 모델은 계속해서 AI 연구를 발전시킬 것입니다. GPT-4와 2023 GATO의 새롭고 흥미로운 버전은 YouTube 콘텐츠의 상당 부분을 복사하여 더 큰 교육 세트를 언어 모델에 제공할 것으로 예상됩니다. 그러나 대규모 모델을 민주화하는 동안 그 존재는 둘 다 미미합니다. 공격과 방어의 관점에서 볼 때 이러한 모델은 여전히 공격자나 방어자의 관점에서 볼 때 너무 무겁고 비실용적입니다.” 2023. “정렬은 적대적 기계 학습의 개념을 대중의 의식에 가져올 것입니다.”
AI 정렬은 일부 사람들이 변형 AI(TAI) 또는 일반 인공 지능으로 간주하는 복잡한 AI 모델의 동작에 대한 연구입니다. 지능의 개척자(AGI)와 그러한 모델이 사회나 생명에 해로울 수 있는 바람직하지 않은 방식으로 지구를 운영할 수 있는지 여부.
Patel은 "이 분야는 어떤 조건이 모델의 예상 분포를 벗어난 바람직하지 않은 출력과 동작으로 이어질지 결정하는 것과 관련되므로 기본적으로 적대적 기계 학습으로 간주될 수 있습니다. 이 프로세스에는 기술을 사용하여 모델을 미세 조정하는 작업이 포함됩니다."라고 말합니다. RLHF web3와 같이 인간 선호도 강화 학습은 더 나은 AI 모델로 이어지고 적대적인 기계 학습 아이디어를 대중의 의식에 불러일으킬 것입니다." Malwarebytes의 수석 정보 기자인 Pieter Arntz도 이에 동의합니다. 지능적이고 포괄적인 사이버 보안 위협은 그만큼 임박하지 않습니다. 그들은 양조 중입니다. "범죄 집단이 범죄 목적으로 AI 및 ML 시스템을 관리하고 조작하는 데 상당한 기술 전문 지식을 보유하고 있다는 실제 증거는 없지만 관심은 확실히 존재합니다. 종종 필요한 것은 자신이 사용할 수 있도록 기술을 약간 복사하거나 조정할 수 있는 시스템뿐입니다. 따라서 즉각적인 위험이 예상되지 않더라도 이러한 발전을 주시하는 것이 가장 좋습니다.”
인공 지능의 방어 잠재력
인공 지능은 사이버 보안을 향상시킬 수 있는 잠재력을 보유하고 있습니다. 2023년에는 다양한 애플리케이션이 더욱 발전할 것입니다. X-PHY의 CEO이자 설립자인 Camellia Chan은 “특히 펌웨어 수준에 AI를 내장하는 것이 조직의 우선순위가 되어야 합니다.”라고 조언합니다.
Darktrace Federal의 CEO인 Marcus Fowler는 기업이 리소스 제약에 대처하기 위해 점점 더 AI를 사용할 것이라고 믿습니다. 그는 “2023년까지 CISO는 예산 삭감에도 불구하고 ROI를 극대화하기 위해 보다 적극적인 사이버 보안 조치를 선택하고 네트워크 탄력성을 지속적으로 개선하기 위해 AI 도구 및 기능에 투자를 전환할 것입니다.”라고 말했습니다.
“인간 중심의 윤리적 해킹, 침투 테스트, 레드팀 구성이 여전히 부족하고 리소스로서 비용이 많이 들기 때문에 CISO는 AI 기반 접근 방식으로 전환하여 공격 경로를 사전에 이해하고 레드팀 구성 노력을 강화하며 환경을 강화하고 공격 취약성을 줄일 것입니다. ," 그는 계속했다.
Fortinet의 사이버 보안 솔루션 및 서비스 담당 부사장인 Karin Shopen은 클라우드 제공 AI와 기본적으로 제품 또는 서비스에 내장된 AI 간의 균형이 재조정될 것으로 예상합니다. 그녀는 "2023년까지 CISO가 행동 기반 분석 및 정적 분석을 위해 온프레미스에 AI를 배포하여 의사결정을 돕는 솔루션을 구매함으로써 AI의 균형을 재조정하는 것을 볼 수 있기를 바랍니다"라고 말했습니다. 방대한 양의 글로벌 데이터를 수집하는 동적 클라우드 규모 AI 모델입니다.”
AI 푸딩의 증거는 규정에 있습니다
당국이 새로운 기술을 규제하기 시작하면 이를 심각하게 받아들여야 한다는 것은 분명합니다. 이것은 이미 시작되었습니다. 미국은 AI 기반 얼굴 인식 기술(FRT)의 사용에 대해 수년간 논의해 왔으며 많은 도시와 주에서는 법 집행 기관의 사용을 금지하거나 제한했습니다. 미국에서 이는 헌법상의 문제로, 2021년 4월에 제출된 제4차 수정안 판매금지법(Fourth Amendment No Sale Act)이라는 초당적 Wyden/Paul 법안으로 대표됩니다.
글을 쓰는 시점에서 미국과 유럽 연합은 필요한 AI 개념(신뢰성, 위험 및 유해성 포함)에 대한 통일된 이해를 개발하기 위해 EU AI 법안 및 미국 AI 권리 장전 web3을 기반으로 하는 협력을 공동으로 논의하고 있으며, 2023년에는 상호 합의된 표준의 조화가 진행될 것으로 예상됩니다. 만들어진.
하지만 더 많은 것이 있습니다. Polyakov는 “NIST AI 위험 관리 프레임워크는 2023년 1분기에 출시될 예정입니다. "2분기에는 AI 책임법 시행을 시작합니다. 나머지 기간에는 IEEE의 이니셔티브와 계획된 EU Trustworthy AI 이니셔티브가 있습니다. 따라서 2023년은 AI가 될 것입니다." 보안에 있어서 다사다난한 한 해였습니다.
“2023년까지 AI, 개인 정보 보호, 위험에 대한 대화와 AI 윤리 및 편견 테스트와 같은 작업을 수행하는 것이 실제로 무엇을 의미하는지에 대한 대화가 수렴될 것이라고 믿습니다.” Christina, 최고 개인 정보 보호 책임자 겸 AI 윤리 위원회 Montgomery IBM 회장이 말했습니다. "2023년에는 개인 정보 보호 및 AI 문제에 대한 일반화된 묘사에서 벗어나 '데이터나 AI가 관련되면 나쁘고 편견이 있을 것임에 틀림없다'는 가정에서 대화가 옮겨갈 수 있기를 바랍니다."
그녀는 문제를 생각합니다. 기술이 아니라 기술이 어떻게 사용되는지, 회사의 비즈니스 모델을 주도하는 위험 수준이 중요한 경우가 많습니다. "그래서 우리는 이 분야에서 정확하고 사려 깊은 규제가 필요합니다"라고 그녀는 말했습니다.
몽고메리가 예를 들었습니다. "회사 X는 사용 데이터를 모니터링하고 보고하는 인터넷에 연결된 '스마트' 전구를 판매합니다. 시간이 지남에 따라 회사 사용자에게는 직장에서 집에 오기 전에 자동으로 조명을 켤 수 있는 옵션이 제공됩니다." 일체 포함. 그런데 Y회사도 있어요. 그런 다음 더 나은 대상 고객을 확보하기 위해 소비자의 동의 없이 해당 데이터를 텔레마케터나 정치 로비 단체와 같은 제3자에게 판매합니다. X 회사의 비즈니스 모델은 Y 회사보다 훨씬 덜 위험합니다. "
앞으로 나아가세요
마지막으로 그는 “사회는 선출직 공무원을 통해 기술 발전에 발맞추기 위해 인권, 개인 정보 보호 및 보안을 보호하는 프레임워크가 필요합니다. 이 프레임워크를 향한 진전은 2023년까지 점진적일 것이지만, 국제 및 국가 통치 기관 간의 논의가 증가해야 할 것입니다. 그렇지 않으면 지방 정부가 개입하여 사회 및 기술 발전을 방해하는 일련의 법률을 제정하게 될 것입니다. ”
기업에서 AI의 상업적 사용과 관련하여 Montgomery는 다음과 같이 덧붙였습니다. “우리에게는 web3가 필요하며, IBM은 스마트하고 표적화되며 새로운 위협에 적응할 수 있는 web3의 정확한 규제를 장려합니다.” 한 가지 접근 방식은 회사 비즈니스 모델의 핵심에 있는 위험을 살펴보는 것입니다. 우리는 소비자를 보호하고 투명성을 높일 수 있고 그래야 하며, 기업이 미래의 솔루션과 제품을 개발할 수 있도록 혁신을 장려하고 지원하면서 이를 수행할 수 있습니다. 이는 2023년에 우리가 면밀히 관찰하고 평가할 많은 영역 중 하나입니다. ”
위 내용은 네트워크 인사이트 2023 |의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!