> 기술 주변기기 > 일체 포함 > MLCommons는 인공 지능 보안 실무 그룹을 설립하여 중요한 단계를 발표했습니다.

MLCommons는 인공 지능 보안 실무 그룹을 설립하여 중요한 단계를 발표했습니다.

WBOY
풀어 주다: 2023-10-30 18:37:02
앞으로
1157명이 탐색했습니다.

인공지능 벤치마크 기관인 MLCommons가 인공지능 안전(AIS: AI Safety) 워킹그룹 설립을 발표했습니다. AIS는 다양한 사용 사례에 대한 AI 보안 벤치마크를 지원하기 위해 많은 기여자들로부터 플랫폼과 테스트 라이브러리를 개발할 것입니다.

MLCommons는 인공 지능 보안 실무 그룹을 설립하여 중요한 단계를 발표했습니다.

AI 시스템은 사회에 막대한 이익을 제공할 수 있는 잠재력을 제공하지만 유해성, 잘못된 정보, 편견과 같은 위험이 없는 것은 아닙니다. 다른 복잡한 기술과 마찬가지로 사회에서는 위험을 최소화하면서 이점을 실현하기 위해 업계 표준 보안 테스트가 필요합니다.

새로운 플랫폼을 사용하면 사용자는 테스트 라이브러리에서 벤치마크를 선택하고 이러한 벤치마크 결과를 유용하고 이해하기 쉬운 점수로 집계할 수 있습니다. 이는 자동차 안전 테스트 등급 및 에너지 스타 등급과 같은 다른 산업의 표준과 유사합니다.

이 노력의 우선 순위는 보다 엄격하고 신뢰할 수 있는 AI 안전 테스트 기술의 신속한 개발을 지원하는 것입니다. AIS 실무 그룹은 회원과 대규모 AI 커뮤니티의 기술 및 운영 전문 지식을 활용하여 AI 안전 기준 기술을 안내하고 생성하는 데 도움을 줄 것입니다.

Eindhoven University of Technology의 기계 학습(ML) 부교수인 Joaquin Vanschoren은 다음과 같이 말했습니다. “광범위한 AI 커뮤니티에서 개발 중인 보안 벤치마크의 개방적이고 역동적인 특성은 공통 목표를 설정하고 달성하기 위한 실질적인 인센티브를 만듭니다." 해결되지 않은 보안 문제를 발견한 사람은 새로운 테스트를 생각해 낼 수 있습니다. 우리는 실제로 문제를 해결하기 위해 세계에서 가장 똑똑한 사람들이 함께 모이고 있으며, 벤치마크를 사용하면 무엇이 인위적인지 명확하게 파악할 수 있습니다." 지능형 모델은 보안 문제를 가장 잘 해결합니다.”

재작성된 콘텐츠: LLM(대형 언어 모델)에 대한 보안 벤치마크 개발에 중점을 두고 있으며 스탠포드 대학의 CRFM(기본 모델 연구 센터) 및 언어 전체적 평가를 기반으로 합니다. 모델(HELM))은 연구자들의 선구적인 작업을 기반으로 합니다. HELM 프레임워크에 많은 보안 관련 테스트를 구축하고 통합하는 것 외에도 실무 그룹은 일부 회사가 독점 목적을 위한 내부 AI 보안 테스트를 공개하고 MLCommons 커뮤니티와 공유하여 혁신의 속도를 가속화하기를 희망합니다

기본 모델 연구 센터 소장인 Percy Liang은 "우리는 모듈식 평가 프레임워크인 HELM을 약 2년 동안 개발해 왔습니다. MLCommons와 협력하여 인공 지능 안전성 평가에 HELM을 사용하게 되어 매우 기쁩니다. 이것이 제가 생각하는 것입니다. 7 이 주제는 강력한 기본 모델의 등장으로 매우 시급해졌습니다. “AIS 실무 그룹은 테스트가 성숙해짐에 따라 표준 인공 지능 보안 벤치마크가 인공 지능 보안 방법의 기초가 될 것이라고 믿습니다. 의. 이는 여러 기술 회사가 2023년 7월 미국 백악관에 제출한 안전, 보안 및 신뢰에 대한 자발적 약속, NIST의 인공 지능 위험 관리 프레임워크

및 EU의 다가오는 인공 지능법

. MLCommons는 인공 지능 시스템을 보다 효율적으로 구축하고 테스트하기 위한 공유 데이터, 도구 및 벤치마크를 공동으로 개발하기 위해 업계 및 학계의 광범위한 이해관계자를 지원하기 위해 최선을 다하고 있습니다. MLCommons의 David Kanter 전무이사는 "회원들과 협력하게 되어 매우 기쁘다"며 "내년에는 이러한 벤치마크를 널리 알리는 것을 목표로 오픈소스 모델을 시작으로 인공지능 안전 벤치마크 구축 및 홍보에 집중할 것"이라고 말했다. 기타 LLM."

AIS 실무 그룹에 처음으로 참여하는 사람은 Anthropic, Coactive AI, Google, Inflection, Intel, Meta, Microsoft, NVIDIA, OpenAI, Qualcomm 및 학자인 아인트호벤 공과대학의 Joaquin Vanstoren, 스탠포드 대학의 Percy Liang, 시카고 대학의 Bo Li. 학계와 산업계의 연구원과 엔지니어, 시민사회와 공공 부문의 분야 전문가가 실무그룹에 참여할 수 있습니다. AIS 실무 그룹에 참여하는 방법을 알아보려면 클릭하여 원본 기사를 읽어보세요.

MLCommons 소개

MLCommons는 인공 지능 벤치마크 구축에 전념하는 세계 최고의 조직입니다. 벤치마크와 데이터를 활용해 모든 사람이 더 나은 머신러닝을 할 수 있도록 돕는 것을 목표로 하는 개방형 엔지니어링 컨소시엄입니다. MLCommons의 기원은 2018 MLPerf 벤치마크로 추적할 수 있습니다. 이 벤치마크는 기계 학습 성능을 측정하고 기계 학습 기술의 투명성을 높이는 데 사용되는 일련의 업계 지표로 빠르게 발전했습니다. MLCommons는 벤치마크 및 지표, 공개 데이터 세트 및 모범 사례를 통해 전체 기계 학습 산업을 위한 도구를 공동 구축하는 데 중점을 두고 있는 125명 이상의 회원, 글로벌 기술 제공업체, 학계 및 연구원과 협력하고 있습니다.

위 내용은 MLCommons는 인공 지능 보안 실무 그룹을 설립하여 중요한 단계를 발표했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:51cto.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
최신 이슈
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿