최신 설문 조사 보고서에 따르면 70% 이상의 기업이 생성 AI 배포와 관련하여 여전히 '탐색' 단계에 있는 것으로 나타났습니다. 이는 대규모 언어 모델을 개발하는 AI 개발자가 기업 사용자를 만족시키기 위해 제품에 적절한 데이터 보안 메커니즘이 있는지 확인해야 함을 의미합니다.
최근 삼성 등 대기업에서는 데이터 보안 우려로 직원들의 ChatGPT 등 AI 도구 사용을 금지하기 시작했습니다. 한 분석가는 Microsoft와 같은 공급업체가 기술이 성공하려면 기업에 맞는 솔루션을 설계하고 제공해야 한다고 말했습니다.
삼성은 직원의 ChatGPT 사용을 금지하고 생성 AI는 데이터 유출 위험이 있습니다.
삼성은 지난달 도구 소스 코드가 유출됨에 따라 ChatGPT, Bing 및 Google의 Bard와 같은 AI를 사용하지 말라고 직원들에게 지시했습니다. 이전에 다른 기술 회사들도 생성 AI를 사용한 데이터 보안에 대한 우려를 표명하는 유사한 성명을 발표했습니다.
OpenAI는 최근 기업 사용자를 위한 특정 버전의 ChatGPT 플랫폼을 개발 중임을 확인했습니다. 이 플랫폼은 기본적으로 기업 사용자가 ChatGPT 재교육에서 대화를 사용하는 것을 금지합니다. 이것이 대기업 고객의 보안 문제를 해결하기에 충분한지는 확실하지 않지만, 이들 회사의 경영진은 분명히 이 기술을 채택하기를 열망하고 있습니다.
2,500명의 업계 임원을 대상으로 한 Gartner 설문 조사에 따르면 응답자의 45%는 ChatGPT가 AI 투자를 촉진한다고 믿고 있으며, 응답자의 70%는 조직에서 생성 AI 배포 방법을 연구하고 있으며, 응답자의 19%는 이미 파일럿 또는 생산 단계에 있다고 답했습니다.
Gartner 부사장 분석가인 Frances Karamouzis는 다음과 같이 말했습니다. “생성 AI 채택에 대한 사용자의 집착은 줄어들 기미가 보이지 않습니다. 많은 업계 조직이 생성 AI 솔루션에 투자할 금액, 투자할 가치가 있는 제품 및 방법을 결정하기 위해 안간힘을 쓰고 있습니다. 이 신흥 기술로 인한 위험을 언제 시작하고 어떻게 완화해야 하는지”
가장 눈에 띄는 점은 응답자의 68%가 생성 AI의 이점이 위험보다 크다고 생각하는 반면, 단 5%만이 이 기술을 사용하는 것이 기술의 위험이 위험보다 크다고 생각한다는 것입니다. 이익.
생성 AI에 대한 투자가 심화되고 데이터 보안에 대한 의미가 더욱 분명해짐에 따라 이러한 상황은 삼성이 직면한 보안 딜레마 상황(회사는 자체 AI 모델을 구축하고 있음)처럼 바뀔 수 있습니다.
제너레이티브 AI를 피하는 것이 배포하는 것보다 어려울 수 있다는 것이 일반적인 추세입니다.
글로벌 경제 침체와 기술 산업의 대량 해고에도 불구하고 응답자의 17%만이 비용 최적화가 AI에 투자하는 주요 이유라고 답했습니다. , 고객 경험이 가장 중요한 초점입니다.
Microsoft와 같은 회사가 Copilot을 통해 CRM 및 Office 365 제품군에 AI를 배포하고 Salesforce가 전체 제품군에 챗봇 기술을 추가함에 따라 생성 AI를 피하는 것이 배포하는 것보다 어려울 수 있습니다.
Gartner의 부사장 겸 분석가인 Avivah Litan은 기업이 공개 대규모 언어 모델을 사용할 때 여러 가지 위험에 직면하지만 잘못된 정보의 출력을 자동으로 필터링하는 기능을 갖추는 것을 포함하여 위험을 완화할 수 있는 방법이 있다고 말했습니다. , 환각 및 원치 않는 사실 정보.
또한 기업은 대규모 언어 모델 공급업체가 검증 가능한 데이터 거버넌스와 보안 보장을 제공하여 대규모 언어 모델로 전송되는 기업 기밀 정보가 손상되지 않도록 해야 한다고 말했습니다. 또한 모든 사용이 GDPR 규정 및 EU AI법과 같은 법률을 준수하는지 확인하기 위해 투명성이 필요합니다.
그녀는 다음과 같이 설명했습니다. “이러한 요구 사항이 충족될 때까지 우리는 신중한 기업이 직원의 채팅 액세스를 제한하거나(개인 장치가 있기 때문에 시행이 불가능함) 기밀 데이터를 대규모 언어로 전송하지 않도록 조정된 실험적 사용을 허용하는 것을 목격하고 있습니다. 모델 ”
생성 AI를 기술로 배포하는 데 대한 관심은 특히 비싸고 광범위한 데이터 세트로 훈련된 공개 모델의 잠재적 이점에 있습니다. Litan은 "OpenAI와 제3자가 개발한 대규모 언어 모델의 엄청난 가치는 이를 훈련하는 데 필요한 대량의 데이터와 이를 실행하는 데 필요한 거대하고 복잡한 슈퍼컴퓨터 성능에 있습니다. 기업은 단순히 재구축할 리소스가 없습니다.
OpenAI, Microsoft 및 이 기술을 배포하려는 모든 공급업체를 위한 솔루션은 공유 보안 책임 계약을 통해 기술 도구를 만드는 것입니다. 기밀 데이터가 유출된 경우 공급업체는 책임을 져야 하며, 이것이 앞으로 나아갈 길입니다.
위 내용은 기업 보안에 주의: 삼성은 직원이 ChatGPT 생성 AI를 사용하는 것을 금지하고 기업에 보안 문제에 주의를 기울일 것을 상기시킵니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!