5월 29일 이 웹사이트의 소식에 따르면 OpenAI는 OpenAI 프로젝트 및 운영에 대한 주요 안전 및 보안 결정에 대한 권장 사항을 담당할 안전 및 보안 위원회의 설립을 발표했습니다.
위원회의 현재 우선순위는 향후 90일 이내에 OpenAI의 개발 프로세스와 보호 장치를 평가하고 추가로 개발하는 것입니다. 90일이 지나면 안전보안위원회는 전체 이사회와 권고사항을 공유할 것입니다.
보고서에 따르면 위원회는 Bret Taylor(의장), Adam D'Angelo, Nicole Seligman 및 OpenAI CEO Sam Altman이 이사회를 이끌게 됩니다.
또한 OpenAI 기술 및 정책 전문가 Aleksander Madry(준비 책임자), Lilian Weng(보안 시스템 책임자), John Schulman(정렬 과학 책임자), Matt Knight(보안 책임자) 및 Jakub Pachocki(최고 과학자) 위원회에 합류하게 됩니다.
이 사이트에서는 OpenAI가 이러한 노력을 지원하기 위해 OpenAI에 보안 조언을 제공하는 전 사이버 보안 담당자인 Rob Joyce와 John Carlin을 포함하여 다른 안전, 보안 및 기술 전문가를 고용하고 상담할 것이라고 밝혔습니다.
OpenAI는 또한 최근 차세대 최첨단 모델 훈련을 시작했으며 AGI로 향하는 과정에서 이들을 다음 단계로 끌어올릴 것으로 예상된다고 밝혔습니다.
위 내용은 OpenAI, 안전보안위원회 설치 발표 및 차세대 첨단 모델 훈련 개시의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!