한 문서에 따르면 7개국(G7) 국가들은 월요일 첨단 인공 지능(AI) 시스템을 개발하는 기업을 위한 행동 강령을 개발하기로 합의할 계획이라고 합니다. 정부는 현재 인공지능 기술의 오용 위험을 줄이기 위해 노력하고 있습니다
이 문서에서는 인공지능이 가져올 수 있는 개인 정보 보호 및 보안 위험을 고려하여 자발적인 행동 강령이 주요 국가에서 관리해야 할 중요한 이정표가 될 것임을 지적합니다. 인공 지능.
올해 5월, G7 국가(캐나다, 프랑스, 독일, 이탈리아, 일본, 영국, 미국 포함) 정상과 유럽연합이 각료 포럼에서 공동으로 히로시마 인공지능 프로세스를 출범시켰습니다.
행동강령에 언급된 사항은 총 11점입니다. 이 지침의 목표는 안전하고 신뢰할 수 있으며 신뢰할 수 있는 AI를 전 세계적으로 홍보하는 동시에 최첨단 기본 모델 및 생성 AI 시스템을 포함한 최첨단 AI 시스템을 개발하는 조직에 자발적인 지침을 제공하는 것입니다
또한 , 강령은 또한 이러한 기술의 이점을 활용하고 이로 인해 발생하는 위험과 과제를 해결하는 데 도움이 될 것입니다. 이는 기업이 AI 수명주기 전반에 걸쳐 위험을 식별, 평가 및 완화하기 위한 적절한 조치를 취하고 AI 제품이 시장에 출시되면 사고 및 남용 패턴을 해결하도록 촉구합니다.
기업은 AI 시스템 기능, 제한, 사용법에 대한 정보를 공개적으로 게시해야 합니다. 남용 신고 및 강력한 보안 제어 시스템에 투자합니다.
EU는 엄격한 AI 법안으로 이 신흥 기술을 규제하는 데 앞장서고 있는 반면, 일본, 미국 및 동남아시아 국가는 경제 성장을 촉진하기 위해 EU보다 덜 침해적인 접근 방식을 취했습니다.
이달 초 일본 교토에서 열린 인터넷 거버넌스 포럼에서 유럽 위원회 디지털 책임자인 Vera Jourova는 행동 강령이 보안을 보장하기 위한 견고한 기반이라고 말했습니다. 규제가 마련될 때까지 가교 역할을 할 것입니다
위 내용은 G7은 기업이 첨단 AI 시스템을 개발하기 위한 행동 강령을 마련하기로 합의했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!