3월 14일 뉴스에 따르면 미국 현지 시간 월요일에 마이크로소프트가 AI 위험 평가팀 전체를 해체한 것으로 밝혀졌습니다. 이 팀의 정식 명칭은 AI 윤리 및 사회팀으로, 주요 기능은 마이크로소프트의 AI 혁신을 이끌어 윤리적이고 책임감 있고 지속 가능한 결과를 창출하는 것이라고 한다. 최근 팀은 Microsoft가 OpenAI 기술을 제품에 통합할 때 발생할 수 있는 위험을 평가하기 위해 열심히 노력하고 있습니다.
많은 전직 및 현직 Microsoft 직원은 이러한 움직임의 결과로 Microsoft는 더 이상 AI 원칙이 제품 디자인과 긴밀하게 통합되는지 확인하는 전담 팀을 갖지 않을 것이라고 말했습니다. 현재 회사는 트렌드를 선도하고 열심히 노력하고 있습니다. AI 도구를 주류로 만들기 위해. 그러나 Microsoft는 회사의 AI 이니셔티브를 관리하기 위한 규칙을 설정하는 임무를 맡은 ORA(Office of Responsible AI)라는 팀을 여전히 유지하고 있습니다. 마이크로소프트는 최근 정리해고에도 불구하고 책임 있는 업무에 대한 전반적인 투자가 증가하고 있다고 밝혔다.
Microsoft는 성명을 통해 다음과 같이 말했습니다. "Microsoft는 AI 제품과 경험을 안전하고 책임감 있게 개발하는 데 전념하고 있으며 이러한 요소를 우선시하는 사람, 프로세스 및 파트너에 투자하여 이 목표를 달성합니다. 지난 6년 동안 우리는 Microsoft의 모든 구성원과 함께 AI 원칙을 실천에 옮기는 일을 담당하는 제품 팀과 ORA의 직원 수가 늘어났습니다. 우리는 계속해서 도움을 주기 위해 수행한 윤리 및 사회 팀의 획기적인 작업에 감사드립니다. 책임 있는 AI를 향한 여정.”
Microsoft 직원은 회사의 제품과 서비스가 책임 있는 AI의 원칙을 준수하도록 하는 데 윤리 및 사회 팀이 핵심 역할을 한다고 밝혔습니다. 전직 직원은 "사람들은 ORA가 제안한 원칙을 보지만 이를 어떻게 적용해야 할지 모릅니다. 우리의 임무는 규칙이 없는 영역에서 이를 보여주고 규칙을 만드는 것입니다."라고 말했습니다. 에서는 디자이너가 AI가 가져올 수 있는 잠재적인 피해를 상상하고 제품 개발 과정에서 논의하는 데 도움이 되는 "판단 호출" 롤플레잉 게임이라는 새로운 시스템을 설계했습니다. 윤리와 사회팀은 2020년 엔지니어, 디자이너, 철학자를 포함해 직원 30여 명으로 최대 규모에 이르렀다. 하지만 지난해 조직개편을 통해 팀은 7명으로 축소됐다.
개편 후 팀 회의에서 존 몽고메리 마이크로소프트 AI사업부 부사장은 회사 경영진이 신속하게 행동하라고 지시했다고 말했다. 몽고메리는 당시 "CTO인 케빈 스콧(Kevin Scott)과 사티아 나델라(Satya Nadella) CEO로부터 OpenAI 모델과 후속 모델의 통합을 가속화하라는 압력이 크다"고 말했다고 한다.
몽고메리는 윤리 분야의 많은 사람들이 말했다. 압력으로 인해 소셜 팀은 회사의 다른 부서로 이동될 것입니다. 당시 몽고메리는 팀이 제거되지 않을 것이며 "서비스와 소프트웨어를 구축하는 개별 제품 팀에 더 집중해야 할 것"이라고 말했습니다. 그 후, 팀의 대부분의 구성원은 다른 부서로 이동되었고 나머지 인력은 인력이 부족하여 많은 야심찬 계획을 실행하는 것이 불가능했습니다.
약 5개월 후, 남은 직원들에게 마침내 팀 전체가 해체된다는 소식이 전해졌습니다. 한 직원은 이번 조치로 인해 AI 제품의 사용자 경험과 전반적인 디자인에 큰 구멍이 생겼다고 말했습니다. "가장 나쁜 점은 이렇게 하면 기업이 위험에 빠지고 인간도 위험에 빠지게 된다는 것입니다."라고 그들은 설명했습니다.
윤리 및 사회 팀 구성원은 일반적으로 제품 개발을 지원하기 위해 일한다고 말했습니다. 그러나 Microsoft가 경쟁사보다 더 빠르게 AI 도구를 출시하는 데 집중하기 시작하면서 회사 경영진은 팀이 집중하는 장기적인 사고에 관심이 줄어들었습니다.
윤리 및 사회 팀이 해체되는 동안에도 다른 사람들은 Microsoft가 OpenAI 기반 AI 도구를 전 세계 대상에게 출시할 때 미칠 영향을 예측하는 데 관심을 돌리고 있습니다. 작년 메모에서 윤리 및 사회 팀은 OpenAI의 Dall-E 시스템을 사용하여 텍스트 프롬프트를 기반으로 이미지를 생성하는 Bing의 이미지 생성기와 관련된 위험을 자세히 설명했습니다. 이 이미징 도구는 지난 10월 여러 국가에서 출시되어 Microsoft와 OpenAI의 첫 번째 공개 협력 중 하나가 되었습니다.
텍스트를 이미지로 변환하는 기술이 엄청난 인기를 얻은 반면, Microsoft 연구원들은 이 기술이 아티스트의 창작 스타일을 누구나 쉽게 복제할 수 있게 함으로써 아티스트의 생계를 위협할 수도 있다고 정확하게 예측했습니다. 또한 OpenAI는 사용자에게 "Dall-E로 생성된 이미지에 대한 완전한 소유권"을 제공하기 위해 서비스 약관을 업데이트했는데, 이는 Microsoft의 윤리 및 사회 팀을 걱정하게 합니다. (샤오샤오)
위 내용은 마이크로소프트, AI 위험 평가팀 전체를 해산한 것으로 밝혀져의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!