ChatGPT가 워털루를 경험하고 있는 것 같습니다.
3월 31일, 많은 사용자들이 자신이 직접 개설한 ChatGPT 계정에 더 이상 로그인할 수 없다고 불만을 토로했습니다. 더욱 당황스러운 점은 새 계정을 등록할 수 없다는 점이었습니다. 점점 더 많은 이용자들이 밝혀지면서 계정 정지 사건은 지난 3월 30일부터 시작돼 빠르게 확산되고 있는 것으로 드러났다.
4월 1일, 자신의 계정이 차단됐다는 사람들이 점점 많아졌고, 주요 플랫폼과 단체 채팅방에서는 차단을 방지하기 위해 서로 '메모'를 하기 위해 서둘러 나섰습니다. 이때 원래 사용 가능했던 플러스 계좌가 아끼지 않고 차례차례 무효가 되면서 청구서에서 일부 기록을 확인할 수 없게 됐다.
이상하게도 4월 3일 현재에도 대규모 계정 차단이 멈추지 않는 것 같았습니다. 많은 네티즌들도 소셜 플랫폼에 "ChatGPT가 대규모로 계정을 차단하고 있습니다"라는 글을 올렸습니다. 많은 사용자들은 이번 자동 계정 금지가 주로 아시아에 집중되었다고 보고했습니다. 동시에 OpenAI는 이에 대해 어떠한 경고나 대응도 하지 않았습니다.
규정 준수 측면에서 ChatGPT도 새로운 조사를 받았습니다. 레코드 웹사이트는 이탈리아 데이터 보호 기관이 공식적으로 ChatGPT 사용을 일시적으로 금지한다고 발표했으며 모회사인 OpenAI에게 이탈리아 사용자 정보 처리를 중단할 것을 엄격히 요청했다고 밝혔습니다. 이탈리아는 ChatGPT를 금지하는 첫 번째 공격을 "발사"했습니다!
ChatGPT를 금지한 이유에 대해 이탈리아 데이터 보호 기관은 OpenAI가 이탈리아 사용자의 대량 개인 데이터를 불법적으로 수집했을 뿐만 아니라 더 나쁜 것은 OpenAI가 연령을 확인하는 메커니즘을 설정하지 않았다는 점이라고 밝혔습니다. 미성년자가 불법 자료에 접근하는 것을 방지하기 위해 ChatGPT 사용자의
이탈리아 데이터 보호국은 또한 OpenAI가 정보 도난에 대해 20일 동안 방어해야 한다고 지적했습니다. 그렇지 않으면 EU의 일반 데이터 보호 규정 위반으로 인해 최대 2천만 유로 또는 회사 연간 매출의 4%에 해당하는 벌금이 부과될 수 있습니다. 벌금 측면뿐만 아니라 OpenAI가 사용자 데이터 정보 보호 조치를 취했는지 자세히 설명할 수 없으면 EU 국가에서 ChatGPT를 금지할 확률이 높아질 수밖에 없습니다.
이탈리아에서 ChatGPT를 금지한 후 OpenAI는 즉시 이탈리아에서 ChatGPT를 오프라인으로 전환했습니다. CEO인 Sam Altman은 회사에서 수행한 작업이 ChatGPT와 같은 인공 지능 시스템을 교육할 때 개인 데이터를 줄이는 것이라고 설명하기 위해 즉시 트윗을 올렸습니다. 개인보다 세상을 이해하게 될 것입니다. 회사는 어떠한 규정도 위반하지 않았으며 이탈리아 개인정보 보호 당국과의 협력을 매우 기대하고 있습니다.
ChatGPT의 출현이 새로운 정보 혁명을 촉발하고 인류에게 더 나은 이익을 가져다 줄 것이라는 점은 부인할 수 없습니다. 그러나 모든 것에는 양면이 있고 사회는 미래를 기대하고 있습니다. ChatGPT가 인류에게 가져올 이점. 전례 없는 기회가 오면 그 출현이 가져올 보안 위험도 고려해야 합니다. 결국 불과 2, 3개월 만에 ChatGPT 사용으로 인해 발생하는 보안 위험이 잇달아 나타났습니다.
ChatGPT는 출시 이후 '완벽한' 이미지를 보여주고 있지만, 사용자 수가 점차 증가하면서 일부 보안 위험이 점차 노출되기 시작했습니다.
2023년 3월 초 일부 사용자는 다른 사람의 채팅 기록이 채팅 목록에 표시된다는 사실을 공개했습니다. ChatGPT는 한동안 사용자 데이터를 유출하여 주요 소셜 미디어 목록을 점유했습니다. 사용자의 ChatGPT 채팅 기록을 유출시킨 BUG는 단지 오픈 소스 코드 기반의 버그일 뿐임을 사용자에게 설명하기 위해 긴급 트윗을 게시했습니다.
사용자 채팅 기록 유출 이후 OpenAI는 ChatGPT에 보안 취약점이 있음을 언론에 선뜻 인정하고 즉시 채팅 기록 기능을 오프라인했지만 항상 채팅 기록 제목만 유출되었습니다. 사용자는 다른 사람의 실제 채팅을 볼 수 없습니다.
OpenAI가 공개한 정보로 볼 때, 사용자 대화 내용은 자동으로 클라우드에 저장되며, 제3자에 의해 도난당할 가능성도 있습니다. ChatGPT의 출현을 진지하게 고려하십시오. 정보 보안 문제가 우연인지 여부.
연속 파도입니다. 지난 주 한국 언론은 거대 기술 기업인 삼성전자가 ChatGPT를 도입한 지 20일도 채 되지 않아 3건의 내부 기밀 데이터 유출 사건에 노출됐다고 밝혔습니다. (반도체 장비 관련 2건, 내부 회의 내용 관련 1건).
이러한 삼성전자의 기밀정보는 ChatGPT 데이터베이스로 유입되어 언제든지 유출될 위험이 있는 것으로 알려졌습니다.
세 가지 사건에 대한 자세한 설명:
삼성전자 유출 이후 즉시 내부적으로 보안 인력을 조직해 관련 보호 대책을 마련했으며, 향후 유사한 사건이 다시 발생하면 삼성전자가 내부적으로 ChatGPT 서비스를 중단할 수도 있다고 밝혔습니다. 또 삼성전자는 현재 DS부문 혁신센터를 통해 삼성 고유의 AI 서비스 개발도 검토하고 있다고 언론은 전했다.
올해 3월 11일 삼성전자는 DS 부서 직원의 ChatGPT 사용을 허용하는 결의안을 통과시켰지만, DX 기기 체험 부서 직원에게는 ChatGPT가 여전히 비활성화되어 있습니다. 그 결과, 불과 20일 만에 예상치 못한 보안 사고가 3건이나 발생했습니다. 이는 ChatGPT의 보안이 실제로 고려할 가치가 있음을 보여줍니다.
직원들이 회사 기밀 데이터를 ChatGPT에 업로드하는 회사는 삼성뿐만이 아닙니다. 160만 명의 직원이 ChatGPT를 사용하고 있다는 Cyberhaven의 통계에 따르면 약 3.1%의 직원이 업무 효율성 향상을 위해 분석을 위해 내부 기업 데이터를 ChatGPT에 직접 업로드합니다.
위에서 언급한 내용에서 볼 수 있듯이 ChatGPT는 널리 사용되고 심각한 보안 위험을 초래하므로 ChatGPT의 미래에 대해 인공지능(AI) 기술은 AI 기술에 대한 대중의 우려를 불러일으켰고, 많은 유명 과학계 인사들이 공동으로 더 강력한 AI 시스템 개발을 중단하겠다고 밝혔습니다.
미국 시간으로 3월 29일, 인공지능의 아버지 제프리 힌튼(Jeffrey Hinton), 테슬라 및 트위터 CEO 엘론 머스크(Elon Musk), 튜링상 수상자 조슈아 벤지오(Joshua Bengio) 등이 참석해 수천 명의 인공지능 전문가와 업계 임원들이 ''라는 제목의 공개 서한에 서명했습니다. 미국 비영리단체인 미래생명연구소(Future of Life Institute)가 발행한 AI의 대규모 모델 실험 일시중지'를 출간했습니다.
서한에서 이들 고위 전문가들은 모든 인공지능 연구소에 최소한 반년 동안 더 강력한 인공지능 시스템의 개발과 훈련을 중단할 것을 촉구했습니다. 정부는 즉시 개입하여 AI 시스템을 즉시 중단해야 합니다. 연구.
위 내용은 ChatGPT 워털루: 이탈리아에서 광범위한 계정 금지;의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!