7월 21일 뉴스, 로이터 통신에 따르면 미국 정부는 오늘 인공 지능으로 생성된 콘텐츠에 워터마크를 추가하고 기술 보안을 개선하는 데 도움이 되는 기타 조치를 추가하겠다는 여러 주요 인공 지능 기업으로부터 자발적인 약속을 받았다고 발표했습니다. .
Amazon, Anthropic, Google, Inflection, Meta, Microsoft 및 OpenAI 7개 회사는 제3자 전문가가 모델을 검토할 수 있도록 허용하는 것을 포함하여 시스템의 보안과 투명성을 향상시키는 데 동의했습니다.
TechRadar에 보낸 성명에서 미국 정부는 다음과 같이 말했습니다. “신기술을 개발하는 기업은 제품의 안전을 보장할 책임이 있습니다. 인공 지능의 잠재력을 최대한 활용하기 위해 미국 정부는 업계가 다음 사항을 준수할 것을 권장합니다. 혁신을 보장하기 위한 최고의 표준 먼저,이 7개 회사는 AI 시스템을 대중에게 공개하기 전에 내부 및 외부 보안 테스트 를 수행하고 관련 업계와 협력할 것을 약속합니다. 플레이어, 정부, 학계 및 대중이 AI 위험 관리에 도움이 되는 정보를 공유합니다.
또한 회사는 AI를 구동하는 데이터 모델의 작동에 중요한 "독점 및 미공개 모델 가중치를 보호"하기 위해 사이버 보안 투자 및 내부 위협 제어에도 노력할 것입니다.또한 제3자가 시스템의 보안 취약점을 조사하고 보고할 수 있도록 하는 데 동의합니다.
7개 회사는 또한 사람들이워터마크나 기타 조치와 같은 AI 생성 콘텐츠를 볼 때 를 알 수 있는 방법을 개발하는 것을 포함하여 시스템에 대한 대중의 신뢰를 높이기 위한 조치를 취하기로 합의했습니다. 양사는 또한 인종 차별 및 기타 형태의 편견 가능성, '개인 정보 보호' 등 AI 모델이 제기하는 사회적 위험에 대한 연구를 우선적으로 수행할 예정입니다.
그러나 IT House는이러한 약속은 관련 기업의 자발적인 조치이며, 위반 시 처벌이 없으므로 엄격한 이행을 보장할 수 없다는 사실을 발표를 통해 확인했습니다.
위 내용은 OpenAI, Google 등 7개 주요 AI 기업이 워터마크 기술을 도입하고 제3자가 AI 콘텐츠를 검토할 수 있도록 허용하기로 공동 약속했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!