OWASP, 대규모 언어 모델 네트워크 보안 및 거버넌스 체크리스트 출시
현재 인공지능 기술이 직면하고 있는 가장 큰 리스크는 대규모 언어 모델(LLM)과 생성 인공지능 기술의 개발 및 적용 속도가 보안 및 거버넌스 속도를 훨씬 뛰어넘었다는 점입니다.
OpenAI, Anthropic, Google, Microsoft와 같은 회사의 생성 AI 및 대규모 언어 모델 제품의 사용이 기하급수적으로 증가하고 있습니다. 동시에 HuggingFace와 같은 오픈 소스 인공 지능 커뮤니티는 수많은 오픈 소스 모델, 데이터 세트 및 AI 애플리케이션을 제공하며 빠르게 성장하고 있습니다.
인공지능 발전을 촉진하기 위해 OWASP, OpenSSF, CISA 등 업계 기관에서는 OWASP AI Exchange, AI 보안 및 개인 정보 보호 가이드, 대형 언어 모델의 상위 10개 위험 목록(LLMTop10).
최근 OWASP는 생성적 인공지능 보안 거버넌스의 공백을 메우기 위해 대규모 언어 모델 사이버 보안 및 거버넌스 체크리스트를 출시했습니다. 구체적인 내용은 다음과 같습니다.
OWASP의 AI 유형 및 위협 정의
OWASP의 언어 모델 사이버 보안 및 거버넌스 체크리스트는 인공 지능, 기계 학습, 생성 AI 및 대규모 언어 모델 간의 차이점을 정의합니다.
예를 들어, 생성 AI에 대한 OWASP의 정의는 다음과 같습니다. 새로운 데이터 생성에 초점을 맞춘 기계 학습 유형인 반면, 대규모 언어 모델은 인간과 유사한 "자연 콘텐츠"를 처리하고 생성하는 데 사용되는 AI 모델입니다. 입력은 제공되고 출력은 인간과 같은 "자연스러운 콘텐츠"입니다.
이전에 발표된 "빅 언어 모델 상위 10대 위협 목록"과 관련하여 OWASP는 사이버 보안 실무자가 빠르게 발전하는 AI 기술을 따라가고, 주요 위협을 식별하며, 기업이 사용을 보호하고 지원하기 위한 기본적인 보안 제어 기능을 갖도록 하는 데 도움이 될 수 있다고 믿습니다. 생성 인공지능과 대규모 언어 모델 사업. 그러나 OWASP는 이 목록이 완전한 것이 아니며 생성 인공 지능의 발전을 기반으로 지속적으로 개선되어야 한다고 믿습니다.
OWASP는 AI 보안 위협을 다음 5가지 유형으로 분류합니다.
OWASP의 대형 언어 모델 보안 거버넌스 전략 배포는 6단계로 구분됩니다.
다음은 OWASP 대형 언어 모델 네트워크 보안 및 거버넌스 목록입니다. :
1. 적대적 위험
대규모 언어 모델의 적대적 위험에는 경쟁사뿐만 아니라 공격자도 포함됩니다. 공격 자세뿐만 아니라 비즈니스 자세에도 초점이 맞춰져 있습니다. 여기에는 경쟁업체가 AI를 사용하여 비즈니스 성과를 달성하는 방법을 이해하는 것뿐만 아니라 생성적 AI 공격 및 사고에 대응하기 위해 사고 대응 계획(IRP)과 같은 내부 프로세스 및 정책을 업데이트하는 것도 포함됩니다.
2. 위협 모델링
위협 모델링은 보안 설계 시스템 개념의 홍보로 점점 더 주목을 받고 있는 보안 기술로, 미국 사이버보안 및 인프라 보안국(CISA)의 승인을 받았습니다. 다른 권위 있는 조직. 위협 모델링을 위해서는 공격자가 취약성 악용을 가속화하기 위해 대규모 언어 모델과 생성적 AI를 활용하는 방법, 악의적인 대규모 언어 모델을 탐지하는 기업의 능력, 조직이 내부 시스템 및 환경에서 대규모 언어 모델과 생성적 AI 플랫폼을 보호할 수 있는지 여부에 대한 생각이 필요합니다.
3. 인공지능 자산 체크리스트
“알 수 없는 자산은 보호할 수 없다”는 격언은 생성 AI 및 대규모 언어 모델 분야에도 적용됩니다. OWASP 인벤토리의 이 부분에는 내부적으로 개발된 AI 솔루션과 외부 도구 및 플랫폼을 위한 AI 자산의 인벤토리가 포함됩니다.
OWASP는 기업이 내부적으로 사용되는 도구와 서비스를 이해할 뿐만 아니라 소유권, 즉 이러한 도구와 서비스의 사용을 담당하는 사람도 이해해야 한다고 강조합니다. 또한 체크리스트에서는 소프트웨어 자재 명세서(SBOM)에 AI 구성 요소를 포함하고 AI 데이터 소스와 해당 민감도를 문서화할 것을 권장합니다.
기존 AI 도구를 목록화하는 것 외에도 기업은 미래의 AI 도구 및 서비스를 목록에 추가하기 위한 안전한 프로세스도 구축해야 합니다.
4. 인공지능 보안 및 개인정보 보호 인식 교육
"사람이 가장 큰 보안 취약성"이라고 흔히 말합니다. 기업은 인공지능 보안 및 개인정보 보호 교육을 생성 인공지능 및 대규모 언어의 적용 프로세스에 합리적으로 통합할 수 있습니다. 모델은 인간의 위험을 크게 완화할 수 있습니다.
여기에는 직원들이 기존 생성 AI/대규모 언어 모델 이니셔티브, 기술 및 기능은 물론 데이터 위반과 같은 주요 보안 고려 사항을 이해하도록 돕는 것이 포함됩니다. 또한 신뢰와 투명성의 보안 문화를 구축하는 것이 중요합니다.
기업 내 신뢰와 투명성의 문화는 섀도우 AI 위협을 피하는 데도 도움이 될 수 있습니다. 그렇지 않으면 직원들은 IT 및 보안 팀에 알리지 않고 "은밀히" 섀도우 AI를 사용하게 될 것입니다.
5. 인공지능 프로젝트를 위한 비즈니스 사례
클라우드 컴퓨팅과 마찬가지로 대부분의 기업은 생성 인공지능, 대규모 언어 모델 등 신기술 애플리케이션에 대한 일관된 전략적 비즈니스 사례를 실제로 개발하지 않았으며 맹목적으로 추세를 따르기 쉽습니다. .과대광고에 푹 빠져보세요. 건전한 비즈니스 사례가 없으면 엔터프라이즈 AI 애플리케이션은 좋지 않은 결과를 낳고 위험을 증가시킬 가능성이 높습니다.
6. 거버넌스
거버넌스가 없으면 기업은 인공지능에 대한 책임 메커니즘과 명확한 목표를 수립할 수 없습니다. OWASP 체크리스트는 기업이 인공 지능 애플리케이션을 위한 RACI 차트(책임 할당 매트릭스)를 개발하고, 위험 책임과 거버넌스 작업을 기록 및 할당하고, 전사적 인공 지능 정책 및 절차를 수립할 것을 권장합니다.
7. 법률
인공지능 기술의 급속한 발전으로 인해 그 법적 영향은 과소평가될 수 없으며 기업에 심각한 재정적, 평판적 위험을 가져올 수 있습니다.
인공지능 법률 업무에는 인공지능 제품 보증, 인공지능 최종 사용자 라이선스 계약(EULA), 인공지능 도구를 사용하여 개발된 코드의 소유권, 지적 재산권 위험 및 계약상 보상 조항 등 일련의 활동이 포함됩니다. 즉, 법무팀이나 전문가가 생성 AI 및 대규모 언어 모델을 사용할 때 회사에서 수행해야 하는 다양한 지원 법적 활동을 이해하는지 확인하세요.
8. 규제
EU의 인공지능법 등 인공지능 규제 규제도 빠르게 발전하고 있으며, 다른 국가 및 지역의 규제도 곧 도입될 예정입니다. 기업은 직원 모니터링과 같은 국가의 AI 규정 준수 요구 사항을 이해하고 AI 공급업체가 데이터를 저장 및 삭제하고 사용을 규제하는 방법을 명확하게 이해해야 합니다.
9. 대규모 언어 모델 솔루션 사용 또는 구현
대규모 언어 모델 솔루션을 사용하려면 고려해야 할 특정 위험과 제어가 필요합니다. OWASP 체크리스트에는 액세스 제어, 파이프라인 보안 교육, 데이터 워크플로 매핑, 대규모 언어 모델 모델 및 공급망의 기존 또는 잠재적 취약성 이해와 같은 항목이 나열되어 있습니다. 또한 초기 및 지속적으로 제3자 감사, 침투 테스트, 공급업체의 코드 검토까지 필요합니다.
10. TEVV(테스트, 평가, 검증 및 검증)
TEVV 프로세스는 NIST가 인공 지능 프레임워크에서 특별히 권장하는 프로세스입니다. 여기에는 AI 모델 수명주기 전반에 걸쳐 지속적인 테스트, 평가, 검증 및 검증을 구축하는 것뿐만 아니라 AI 모델 기능, 안전성 및 신뢰성에 대한 실행 지표를 제공하는 것도 포함됩니다.
11. 모델 카드 및 위험 카드
대규모 언어 모델을 윤리적으로 배포하려면 OWASP 체크리스트에 따라 기업은 사용자가 AI 시스템을 이해하고 신뢰할 수 있으며 편견 및 개인 정보 보호 등을 공개적으로 해결할 수 있는 모델 및 위험 카드를 사용해야 합니다. . 잠재적인 부정적인 결과.
이 카드에는 모델 세부정보, 아키텍처, 교육 데이터 방법, 성능 측정항목과 같은 항목이 포함될 수 있습니다. 책임 있는 AI에 대한 고려 사항과 공정성과 투명성에 대한 우려도 강조됩니다.
12RAG: 대규모 언어 모델 최적화
검색 증강 생성(RAG)은 특정 소스에서 관련 데이터를 검색하는 대규모 언어 모델의 기능을 최적화하는 방법입니다. 사전 학습된 모델을 최적화하거나 새로운 데이터를 기반으로 기존 모델을 재학습하여 성능을 향상시키는 방법 중 하나입니다. OWASP는 대규모 언어 모델의 가치와 효율성을 극대화하기 위해 기업이 RAG를 구현할 것을 권장합니다.
13. AI 레드 팀
마지막으로 OWASP 체크리스트는 AI 시스템에 대한 적대적 공격을 시뮬레이션하여 취약점을 식별하고 기존 제어 및 방어 기능을 검증하는 AI 레드 팀 구성의 중요성을 강조합니다. OWASP는 레드팀이 생성 AI 및 대규모 언어 모델을 갖춘 포괄적인 보안 솔루션의 필수적인 부분이어야 한다고 강조합니다.
기업은 정책 위반이나 법적 문제 발생을 방지하기 위해 외부 생성 AI 및 대규모 언어 모델 공급업체의 레드팀 서비스와 시스템 요구 사항 및 기능을 명확하게 이해해야 한다는 점도 주목할 가치가 있습니다.
위 내용은 OWASP, 대규모 언어 모델 네트워크 보안 및 거버넌스 체크리스트 출시의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











이 사이트는 6월 27일에 Jianying이 ByteDance의 자회사인 FaceMeng Technology에서 개발한 비디오 편집 소프트웨어라고 보도했습니다. 이 소프트웨어는 Douyin 플랫폼을 기반으로 하며 기본적으로 플랫폼 사용자를 위한 짧은 비디오 콘텐츠를 제작합니다. Windows, MacOS 및 기타 운영 체제. Jianying은 멤버십 시스템 업그레이드를 공식 발표하고 지능형 번역, 지능형 하이라이트, 지능형 패키징, 디지털 인간 합성 등 다양한 AI 블랙 기술을 포함하는 새로운 SVIP를 출시했습니다. 가격면에서 SVIP 클리핑 월 요금은 79위안, 연간 요금은 599위안(본 사이트 참고: 월 49.9위안에 해당), 월간 연속 구독료는 월 59위안, 연간 연속 구독료는 59위안입니다. 연간 499위안(월 41.6위안)입니다. 또한, 컷 관계자는 "사용자 경험 향상을 위해 기존 VIP에 가입하신 분들도

번역기 | Bugatti 리뷰 | Chonglou 이 문서에서는 GroqLPU 추론 엔진을 사용하여 JanAI 및 VSCode에서 초고속 응답을 생성하는 방법을 설명합니다. 모두가 AI의 인프라 측면에 초점을 맞춘 Groq와 같은 더 나은 대규모 언어 모델(LLM)을 구축하기 위해 노력하고 있습니다. 이러한 대형 모델의 빠른 응답은 이러한 대형 모델이 더 빠르게 응답하도록 보장하는 핵심입니다. 이 튜토리얼에서는 GroqLPU 구문 분석 엔진과 API 및 JanAI를 사용하여 노트북에서 로컬로 액세스하는 방법을 소개합니다. 이 기사에서는 코드 생성, 코드 리팩터링, 문서 입력 및 테스트 단위 생성을 돕기 위해 이를 VSCode에 통합합니다. 이 기사에서는 우리만의 인공 지능 프로그래밍 도우미를 무료로 만들 것입니다. GroqLPU 추론 엔진 Groq 소개

검색 강화 생성 및 의미론적 메모리를 AI 코딩 도우미에 통합하여 개발자 생산성, 효율성 및 정확성을 향상시킵니다. EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG에서 번역됨, 저자 JanakiramMSV. 기본 AI 프로그래밍 도우미는 자연스럽게 도움이 되지만, 소프트웨어 언어에 대한 일반적인 이해와 소프트웨어 작성의 가장 일반적인 패턴에 의존하기 때문에 가장 관련성이 높고 정확한 코드 제안을 제공하지 못하는 경우가 많습니다. 이러한 코딩 도우미가 생성한 코드는 자신이 해결해야 할 문제를 해결하는 데 적합하지만 개별 팀의 코딩 표준, 규칙 및 스타일을 따르지 않는 경우가 많습니다. 이로 인해 코드가 애플리케이션에 승인되기 위해 수정되거나 개선되어야 하는 제안이 나타나는 경우가 많습니다.

LLM(대형 언어 모델)은 대규모 텍스트 데이터베이스에서 훈련되어 대량의 실제 지식을 습득합니다. 이 지식은 매개변수에 내장되어 필요할 때 사용할 수 있습니다. 이러한 모델에 대한 지식은 훈련이 끝나면 "구체화"됩니다. 사전 훈련이 끝나면 모델은 실제로 학습을 중단합니다. 모델을 정렬하거나 미세 조정하여 이 지식을 활용하고 사용자 질문에 보다 자연스럽게 응답하는 방법을 알아보세요. 그러나 때로는 모델 지식만으로는 충분하지 않을 때도 있으며, 모델이 RAG를 통해 외부 콘텐츠에 접근할 수 있더라도 미세 조정을 통해 모델을 새로운 도메인에 적응시키는 것이 유익한 것으로 간주됩니다. 이러한 미세 조정은 인간 주석 작성자 또는 기타 LLM 생성자의 입력을 사용하여 수행됩니다. 여기서 모델은 추가적인 실제 지식을 접하고 이를 통합합니다.

AIGC에 대해 자세히 알아보려면 다음을 방문하세요. 51CTOAI.x 커뮤니티 https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou는 인터넷 어디에서나 볼 수 있는 전통적인 문제 은행과 다릅니다. 고정관념에서 벗어나 생각해야 합니다. LLM(대형 언어 모델)은 데이터 과학, 생성 인공 지능(GenAI) 및 인공 지능 분야에서 점점 더 중요해지고 있습니다. 이러한 복잡한 알고리즘은 인간의 기술을 향상시키고 많은 산업 분야에서 효율성과 혁신을 촉진하여 기업이 경쟁력을 유지하는 데 핵심이 됩니다. LLM은 자연어 처리, 텍스트 생성, 음성 인식 및 추천 시스템과 같은 분야에서 광범위하게 사용될 수 있습니다. LLM은 대량의 데이터로부터 학습하여 텍스트를 생성할 수 있습니다.

이 기사는 제2회 OpenHarmony 기술 컨퍼런스에서 시연된 "OpenHarmony에서 대규모 언어 모델의 로컬 배포" 결과를 오픈 소스로 제공합니다. 오픈 소스 주소: https://gitee.com/openharmony-sig/tpc_c_cplusplus/blob/master/thirdparty /InferLLM/docs/hap_integrate.md. 구현 아이디어와 단계는 경량 LLM 모델 추론 프레임워크 InferLLM을 OpenHarmony 표준 시스템에 이식하고 OpenHarmony에서 실행할 수 있는 바이너리 제품을 컴파일하는 것입니다. InferLLM은 간단하고 효율적인 L입니다.

편집자 |ScienceAI 질문 응답(QA) 데이터 세트는 자연어 처리(NLP) 연구를 촉진하는 데 중요한 역할을 합니다. 고품질 QA 데이터 세트는 모델을 미세 조정하는 데 사용될 수 있을 뿐만 아니라 LLM(대형 언어 모델)의 기능, 특히 과학적 지식을 이해하고 추론하는 능력을 효과적으로 평가하는 데에도 사용할 수 있습니다. 현재 의학, 화학, 생물학 및 기타 분야를 포괄하는 과학적인 QA 데이터 세트가 많이 있지만 이러한 데이터 세트에는 여전히 몇 가지 단점이 있습니다. 첫째, 데이터 형식이 비교적 단순하고 대부분이 객관식 질문이므로 평가하기 쉽지만 모델의 답변 선택 범위가 제한되고 모델의 과학적 질문 답변 능력을 완전히 테스트할 수 없습니다. 이에 비해 개방형 Q&A는

머신 러닝은 명시적으로 프로그래밍하지 않고도 컴퓨터가 데이터로부터 학습하고 능력을 향상시킬 수 있는 능력을 제공하는 인공 지능의 중요한 분야입니다. 머신러닝은 이미지 인식, 자연어 처리, 추천 시스템, 사기 탐지 등 다양한 분야에서 폭넓게 활용되며 우리의 삶의 방식을 변화시키고 있습니다. 기계 학습 분야에는 다양한 방법과 이론이 있으며, 그 중 가장 영향력 있는 5가지 방법을 "기계 학습의 5개 학교"라고 합니다. 5개 주요 학파는 상징학파, 연결주의 학파, 진화학파, 베이지안 학파, 유추학파이다. 1. 상징주의라고도 알려진 상징주의는 논리적 추론과 지식 표현을 위해 상징을 사용하는 것을 강조합니다. 이 사고 학교는 학습이 기존을 통한 역연역 과정이라고 믿습니다.
