인공 지능 의사 결정을 이해하는 것은 연구원, 정책 입안자 및 일반 대중에게 매우 중요합니다. 다행히도 더 많은 것을 배울 수 있는 방법이 있습니다. 최첨단 AI 기업과 학계에서 사용하는 딥러닝 모델은 너무 복잡해 모델을 구축하는 연구자조차 의사결정을 이해하기 어려울 정도입니다.
이것은 특정 토너먼트에서 가장 명확하게 반영되었습니다. 이 게임에서는 가장 강력한 수로 간주되지 않는 비공식적인 게임을 만들기 때문에 데이터 과학자와 전문 바둑 플레이어는 게임 중 인공 지능의 의사 결정에 종종 혼란을 겪습니다.
AI 연구자들은 자신이 구축한 모델을 더 잘 이해하기 위해 세 가지 주요 해석 방법을 개발했습니다. 이는 전체 모델의 결정이 아닌 특정 결정만 설명하는 로컬 설명 방법으로, 규모에 따라 어려울 수 있습니다.
기능 속성을 통해 AI 모델은 입력 중 어떤 부분이 특정 결정에 중요한지 식별합니다. X선의 경우 연구원은 모델이 결정을 내리는 데 가장 중요하다고 생각하는 열 지도나 개별 픽셀을 볼 수 있습니다.
이 기능 귀속 설명을 이용하면 허위 상관관계가 있는지 확인할 수 있습니다. 예를 들어 워터마크의 픽셀이 강조 표시되는지, 실제 종양의 픽셀이 강조 표시되는지 등을 보여줍니다.
우리는 결정을 내릴 때 AI가 왜 이런 저런 결정을 내렸는지 의아해하고 혼란스러울 수 있습니다. AI는 교도소, 보험, 모기지 대출 등 고위험 환경에 배치되므로 AI 거부 요인이나 항소 이유를 이해하면 다음에 신청할 때 승인을 받는 데 도움이 됩니다.
반사실적 해석 접근 방식의 이점은 실제 용도로 사용될 수 있는 결정을 뒤집기 위해 입력을 어떻게 변경해야 하는지 정확하게 알려준다는 것입니다. 모기지를 신청했지만 받지 못한 사람들을 위해 이 설명은 그들이 원하는 결과를 얻기 위해 무엇을 해야 하는지 알려줄 것입니다.
샘플 중요성을 설명하려면 모델 뒤에 있는 기본 데이터에 액세스해야 합니다. 연구자들이 오류라고 생각하는 것을 발견하면 표본 유의성 해석을 실행하여 AI가 계산할 수 없는 데이터를 입력하여 판단 오류가 발생하는지 확인할 수 있습니다.
위 내용은 연구자들이 AI 의사결정을 올바르게 이해할 수 있는 세 가지 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!