목차
Method
1. 매개변수화된 사전 소개
2. 의미론적 사전 소개
Experiments
기술 주변기기 일체 포함 한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.

한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.

Apr 09, 2023 pm 09:51 PM
기계 학습 암호

Zero-Shot Learning은 훈련 과정에서 나타나지 않은 카테고리를 분류하는 데 중점을 둡니다. 의미론적 설명을 기반으로 한 Zero-Shot 학습은 보이는 클래스로부터의 분류를 실현합니다(보이는 클래스에서 보이지 않는 클래스로 지식 전달). 전통적인 제로샷 학습은 테스트 단계에서 보이지 않는 클래스만 식별하면 되는 반면, 일반화된 제로샷 학습(GZSL)은 보이는 클래스와 보이지 않는 클래스를 모두 식별해야 합니다. 평가 지표는 보이는 클래스의 평균 정확도와 보이지 않는 클래스의 평균 정확도입니다. 클래스. 정확도의 고조파 평균.

일반적인 제로샷 학습 전략은 가시적 클래스 샘플과 의미론을 사용하여 의미론적 공간에서 시각적 샘플 공간으로 조건부 생성 모델을 훈련한 다음 보이지 않는 클래스 의미론을 사용하여 보이지 않는 클래스의 의사 샘플을 생성하고 마지막으로 가시적 클래스 샘플을 사용하는 것입니다. 클래스 보이지 않는 클래스의 샘플 및 의사 샘플은 분류 네트워크를 훈련하는 데 사용됩니다. 그러나 두 가지 양식(의미적 양식과 시각적 양식) 간의 좋은 매핑 관계를 학습하려면 일반적으로 많은 수의 샘플(CLIP 참조)이 필요하며 이는 기존 제로샷 학습 환경에서는 달성할 수 없습니다. 따라서 보이지 않는 클래스 의미론을 사용하여 생성된 시각적 샘플 분포는 일반적으로 실제 샘플 분포에서 벗어나는데, 이는 다음 두 가지 점을 의미합니다. 1. 이 방법으로 얻은 보이지 않는 클래스 정확도에는 제한이 있습니다. 2. 보이지 않는 클래스에 대해 클래스당 생성된 평균 의사 샘플 수가 보이는 클래스에 대한 각 클래스의 평균 샘플 수와 같을 때 보이지 않는 클래스의 정확도와 보이는 클래스의 정확도 사이에는 큰 차이가 있습니다. 아래 표 1에 나와 있습니다.

한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.

우리는 의미론을 카테고리 중심점으로 매핑하는 것만 학습하고, 보이지 않는 클래스 의미가 매핑된 단일 샘플 포인트를 여러 번 복사한 후 분류자 훈련에 참여하더라도, 생성 모델 효과를 사용하는 것에 가까워질 수 있습니다. 이는 생성 모델에 의해 생성된 보이지 않는 의사 샘플 특징이 분류기와 상대적으로 동일하다는 것을 의미합니다.

이전 방법은 일반적으로 보이지 않는 클래스 의사 샘플을 많이 생성하여 GZSL 평가 지표를 충족합니다(비록 보이지 않는 클래스 간 차별에는 많은 수의 샘플이 도움이 되지 않지만). 그러나 이러한 리샘플링 전략은 롱테일 학습 분야에서 분류기가 일부 기능에 과적합되도록 하는 것으로 입증되었으며, 이는 실제 샘플 클래스 특성에서 벗어나는 의사 눈에 띄지 않습니다. 이러한 상황은 보이는 클래스와 보이지 않는 클래스의 실제 샘플을 식별하는 데 도움이 되지 않습니다. 그렇다면 이 리샘플링 전략을 포기하고 대신 보이지 않는 클래스의 의사 샘플(또는 보이는 클래스와 보이지 않는 클래스 간의 클래스 불균형)을 생성하는 오프셋과 동질성을 귀납적 편향으로 사용할 수 있습니까?

이를 바탕으로 코드 한 줄만 수정하면 생성적 제로샷 학습 방법의 효과를 향상시킬 수 있는 플러그 앤 플레이 분류 모듈을 제안했습니다. SOTA 수준을 달성하기 위해 보이지 않는 클래스당 10개의 의사 샘플만 생성됩니다. 다른 생성적 제로 샘플 방법과 비교할 때 새로운 방법은 계산 복잡성 측면에서 큰 이점을 갖습니다. 연구진은 난징 과학 기술 대학교와 옥스퍼드 대학교 출신입니다.

한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.


  • 논문: https://arxiv.org/abs/2204.11822
  • 코드: https://github.com/cdb342/IJCAI-2022-Z 라

이 글에서는 일반화된 제로샷 학습 평가 지수의 변형 하한값을 도출하기 위해 일관된 훈련 및 테스트 목표를 가이드로 사용합니다. 이러한 방식으로 모델링된 분류기는 재채택 전략을 사용하는 것을 방지하고 생성된 유사 샘플에 대한 과적합을 방지하여 실제 샘플 인식에 부정적인 영향을 미치는 것을 방지할 수 있습니다. 제안된 방법은 생성 방법 프레임워크에서 임베딩 기반 분류기를 효과적으로 만들고 생성된 의사 샘플의 품질에 대한 분류기의 의존성을 줄일 수 있습니다.

Method

1. 매개변수화된 사전 소개

분류기의 손실 함수부터 시작하기로 결정했습니다. 보이지 않는 클래스의 생성된 의사 샘플로 클래스 공간이 완성되었다고 가정하면 이전 분류기는 전역 정확도를 최대화하는 목표로 최적화됩니다.

한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.

여기서 한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.은 전역 정확도이고, 한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.는 분류기 출력을 나타내고, 한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.는 표본 분포를 나타내고, 한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.은 표본 X의 해당 레이블입니다. GZSL의 평가 지표는 다음과 같습니다.

한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.

여기서 한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.은 각각 보이는 클래스와 보이지 않는 클래스 집합을 나타냅니다. 훈련 목표와 테스트 목표 사이의 불일치는 이전 분류기 훈련 전략이 보이는 클래스와 보이지 않는 클래스 간의 차이를 고려하지 않았음을 의미합니다. 당연히 우리는 한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.을 도출하여 훈련 및 테스트 목표와 일치하는 결과를 달성하려고 노력합니다. 파생 후 하한값을 얻었습니다.

한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.

여기서 한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.는 보이는 클래스, 즉 데이터와 독립적이고 실험에서 하이퍼파라미터로 조정되는 이전 클래스인 보이지 않는 클래스를 나타내고, 한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.는 보이는 클래스 또는 보이지 않는 클래스 내부 사전은 구현 과정에서 보이는 클래스 샘플 빈도 또는 균일 분포로 대체됩니다. 한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.의 하한을 최대화하여 최종 최적화 목표를 얻습니다.

한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.

이로부터 분류 모델링 목표는 이전 목표와 비교하여 다음과 같이 변경되었습니다.

한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.

교차 엔트로피는 사후 확률 한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.에 적합하며 분류기 손실은 다음과 같습니다.

한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.

이는 롱테일 학습의 로짓 조정과 유사하므로 이를 영표본 로짓 조정(ZLA)이라고 합니다. 지금까지 우리는 분류기 훈련에 귀납적 편향으로 보이는 클래스와 보이지 않는 클래스 사이의 범주 불균형을 주입하기 위해 매개변수화된 사전 정의를 구현했으며, 코드 구현에서 원래 로짓에 편향 항을 추가하기만 하면 위의 목표를 달성할 수 있습니다. 효과.

한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.

2. 의미론적 사전 소개

지금까지 제로샷 전송의 핵심, 즉 의미론적 사전(semantic Prior)은 생성기를 훈련하고 의사 샘플을 생성하는 역할만 수행했습니다. 보이지 않는 클래스의 생성된 의사 샘플의 품질에 전적으로 의존합니다. 분명히, 분류기 훈련 단계에서 의미론적 사전 분석을 도입할 수 있다면 보이지 않는 클래스를 식별하는 데 도움이 될 것입니다. 제로샷 학습 분야에는 이 기능을 달성할 수 있는 임베딩 기반 방법 클래스가 있습니다. 그러나 이러한 방식은 생성 모델에서 학습한 지식, 즉 의미론과 비전의 연결(의미-시각적 연결)과 유사하여 이전 생성 프레임워크를 직접 도입하게 되었습니다(논문 f 참조). -CLSWGAN) 기반 임베디드 분류기는 원본보다 더 나은 결과를 얻을 수 없습니다(분류기 자체가 더 나은 제로샷 성능을 갖지 않는 한). 본 논문에서 제안한 ZLA 전략을 통해 생성된 보이지 않는 클래스의 의사 샘플이 분류기 훈련에서 수행하는 역할을 변경할 수 있습니다. 원래 보이지 않는 클래스 정보 제공부터 현재 보이지 않는 클래스와 보이는 클래스 사이의 결정 경계 조정에 이르기까지 분류기 훈련 단계에서 의미론적 사전을 도입할 수 있습니다. 구체적으로, 우리는 프로토타입 학습 방법을 사용하여 각 카테고리의 의미를 시각적 프로토타입(즉, 분류자 가중치)에 매핑한 다음 조정된 사후 확률을 샘플과 시각적 프로토타입 간의 코사인 유사성(코사인 유사성)으로 모델링합니다. , 즉,

한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.

여기서 한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.은 온도 계수입니다. 테스트 단계에서 샘플은 코사인 유사성이 가장 높은 시각적 프로토타입의 범주에 해당할 것으로 예측됩니다.

한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.

Experiments

제안된 분류기를 기본 WGAN과 결합하여 보이지 않는 클래스당 10개의 샘플을 생성했을 때 SoTA와 비슷한 결과를 얻었습니다. 또한, 보다 발전된 CE-GZSL 방법에 삽입하여 다른 매개변수(생성된 샘플 수 포함)를 변경하지 않고도 초기 효과를 향상시켰습니다.

한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.

절제 실험에서 우리는 세대 기반 프로토타입 학습자와 순수 프로토타입 학습자를 비교했습니다. 우리는 마지막 ReLU 레이어가 순수 프로토타입 학습기의 성공에 매우 중요하다는 것을 발견했습니다. 음수를 0으로 설정하면 카테고리 프로토타입과 보이지 않는 클래스 기능의 유사성이 증가하기 때문입니다(보이지 않는 클래스 기능도 ReLU가 활성화됨). 그러나 일부 값을 0으로 설정하면 프로토타입의 표현도 제한되므로 추가 인식 성능에 도움이 되지 않습니다. 보이지 않는 클래스 정보를 보상하기 위해 보이지 않는 클래스 샘플을 사용하면 RuLU를 사용할 때 더 높은 성능을 얻을 수 있을 뿐만 아니라 ReLU 레이어 없이도 더 높은 성능 초월을 달성할 수 있습니다.

한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.

또 다른 절제 연구에서는 프로토타입 학습자를 초기 분류기와 비교했습니다. 결과는 보이지 않는 클래스 샘플을 대량 생성할 때 프로토타입 학습자가 초기 분류자에 비해 이점이 없음을 보여줍니다. 본 논문에서 제안한 ZLA 기술을 사용하면 프로토타입 학습자가 그 우수성을 보여준다. 앞서 언급했듯이 프로토타입 학습자와 생성 모델 모두 의미-시각적 연결을 학습하고 있어 의미 정보를 충분히 활용하기 어렵기 때문이다. ZLA는 생성된 보이지 않는 클래스 샘플을 통해 보이지 않는 클래스 정보를 제공하는 대신 결정 경계를 조정하여 프로토타입 학습자를 활성화할 수 있습니다.

한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.

위 내용은 한 줄의 코드를 사용하여 제로샷 학습 방법의 효과를 크게 향상시키기 위해 Nanjing University of Technology & Oxford는 플러그 앤 플레이 분류기 모듈을 제안합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

인기 기사

R.E.P.O. 에너지 결정과 그들이하는 일 (노란색 크리스탈)
1 몇 달 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 최고의 그래픽 설정
1 몇 달 전 By 尊渡假赌尊渡假赌尊渡假赌
Will R.E.P.O. 크로스 플레이가 있습니까?
1 몇 달 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

이 기사에서는 SHAP: 기계 학습을 위한 모델 설명을 이해하도록 안내합니다. 이 기사에서는 SHAP: 기계 학습을 위한 모델 설명을 이해하도록 안내합니다. Jun 01, 2024 am 10:58 AM

기계 학습 및 데이터 과학 분야에서 모델 해석 가능성은 항상 연구자와 실무자의 초점이었습니다. 딥러닝, 앙상블 방법 등 복잡한 모델이 널리 적용되면서 모델의 의사결정 과정을 이해하는 것이 특히 중요해졌습니다. explainable AI|XAI는 모델의 투명성을 높여 머신러닝 모델에 대한 신뢰와 확신을 구축하는 데 도움이 됩니다. 모델 투명성을 향상시키는 것은 여러 복잡한 모델의 광범위한 사용은 물론 모델을 설명하는 데 사용되는 의사 결정 프로세스와 같은 방법을 통해 달성할 수 있습니다. 이러한 방법에는 기능 중요도 분석, 모델 예측 간격 추정, 로컬 해석 가능성 알고리즘 등이 포함됩니다. 특성 중요도 분석은 모델이 입력 특성에 미치는 영향 정도를 평가하여 모델의 의사결정 과정을 설명할 수 있습니다. 모델 예측 구간 추정

학습 곡선을 통해 과적합과 과소적합 식별 학습 곡선을 통해 과적합과 과소적합 식별 Apr 29, 2024 pm 06:50 PM

이 글에서는 학습 곡선을 통해 머신러닝 모델에서 과적합과 과소적합을 효과적으로 식별하는 방법을 소개합니다. 과소적합 및 과적합 1. 과적합 모델이 데이터에 대해 과도하게 훈련되어 데이터에서 노이즈를 학습하는 경우 모델이 과적합이라고 합니다. 과적합된 모델은 모든 예를 너무 완벽하게 학습하므로 보이지 않거나 새로운 예를 잘못 분류합니다. 과대적합 모델의 경우 완벽/거의 완벽에 가까운 훈련 세트 점수와 형편없는 검증 세트/테스트 점수를 얻게 됩니다. 약간 수정됨: "과적합의 원인: 복잡한 모델을 사용하여 간단한 문제를 해결하고 데이터에서 노이즈를 추출합니다. 훈련 세트로 사용되는 작은 데이터 세트는 모든 데이터를 올바르게 표현하지 못할 수 있기 때문입니다."

투명한! 주요 머신러닝 모델의 원리를 심층적으로 분석! 투명한! 주요 머신러닝 모델의 원리를 심층적으로 분석! Apr 12, 2024 pm 05:55 PM

일반인의 관점에서 보면 기계 학습 모델은 입력 데이터를 예측된 출력에 매핑하는 수학적 함수입니다. 보다 구체적으로, 기계 학습 모델은 예측 출력과 실제 레이블 사이의 오류를 최소화하기 위해 훈련 데이터로부터 학습하여 모델 매개변수를 조정하는 수학적 함수입니다. 기계 학습에는 로지스틱 회귀 모델, 의사결정 트리 모델, 지원 벡터 머신 모델 등 다양한 모델이 있습니다. 각 모델에는 적용 가능한 데이터 유형과 문제 유형이 있습니다. 동시에, 서로 다른 모델 간에는 많은 공통점이 있거나 모델 발전을 위한 숨겨진 경로가 있습니다. 연결주의 퍼셉트론을 예로 들면, 퍼셉트론의 은닉층 수를 늘려 심층 신경망으로 변환할 수 있습니다. 퍼셉트론에 커널 함수를 추가하면 SVM으로 변환할 수 있다. 이 하나

우주탐사 및 인간정주공학 분야 인공지능의 진화 우주탐사 및 인간정주공학 분야 인공지능의 진화 Apr 29, 2024 pm 03:25 PM

1950년대에는 인공지능(AI)이 탄생했다. 그때 연구자들은 기계가 사고와 같은 인간과 유사한 작업을 수행할 수 있다는 것을 발견했습니다. 이후 1960년대에 미국 국방부는 인공 지능에 자금을 지원하고 추가 개발을 위해 실험실을 설립했습니다. 연구자들은 우주 탐사, 극한 환경에서의 생존 등 다양한 분야에서 인공지능의 응용 분야를 찾고 있습니다. 우주탐험은 지구를 넘어 우주 전체를 포괄하는 우주에 대한 연구이다. 우주는 지구와 조건이 다르기 때문에 극한 환경으로 분류됩니다. 우주에서 생존하려면 많은 요소를 고려해야 하며 예방 조치를 취해야 합니다. 과학자와 연구자들은 우주를 탐험하고 모든 것의 현재 상태를 이해하는 것이 우주가 어떻게 작동하는지 이해하고 잠재적인 환경 위기에 대비하는 데 도움이 될 수 있다고 믿습니다.

C++에서 기계 학습 알고리즘 구현: 일반적인 과제 및 솔루션 C++에서 기계 학습 알고리즘 구현: 일반적인 과제 및 솔루션 Jun 03, 2024 pm 01:25 PM

C++의 기계 학습 알고리즘이 직면하는 일반적인 과제에는 메모리 관리, 멀티스레딩, 성능 최적화 및 유지 관리 가능성이 포함됩니다. 솔루션에는 스마트 포인터, 최신 스레딩 라이브러리, SIMD 지침 및 타사 라이브러리 사용은 물론 코딩 스타일 지침 준수 및 자동화 도구 사용이 포함됩니다. 실제 사례에서는 Eigen 라이브러리를 사용하여 선형 회귀 알고리즘을 구현하고 메모리를 효과적으로 관리하며 고성능 행렬 연산을 사용하는 방법을 보여줍니다.

당신이 모르는 머신러닝의 5가지 학교 당신이 모르는 머신러닝의 5가지 학교 Jun 05, 2024 pm 08:51 PM

머신 러닝은 명시적으로 프로그래밍하지 않고도 컴퓨터가 데이터로부터 학습하고 능력을 향상시킬 수 있는 능력을 제공하는 인공 지능의 중요한 분야입니다. 머신러닝은 이미지 인식, 자연어 처리, 추천 시스템, 사기 탐지 등 다양한 분야에서 폭넓게 활용되며 우리의 삶의 방식을 변화시키고 있습니다. 기계 학습 분야에는 다양한 방법과 이론이 있으며, 그 중 가장 영향력 있는 5가지 방법을 "기계 학습의 5개 학교"라고 합니다. 5개 주요 학파는 상징학파, 연결주의 학파, 진화학파, 베이지안 학파, 유추학파이다. 1. 상징주의라고도 알려진 상징주의는 논리적 추론과 지식 표현을 위해 상징을 사용하는 것을 강조합니다. 이 사고 학교는 학습이 기존을 통한 역연역 과정이라고 믿습니다.

설명 가능한 AI: 복잡한 AI/ML 모델 설명 설명 가능한 AI: 복잡한 AI/ML 모델 설명 Jun 03, 2024 pm 10:08 PM

번역기 | 검토자: Li Rui | Chonglou 인공 지능(AI) 및 기계 학습(ML) 모델은 오늘날 점점 더 복잡해지고 있으며 이러한 모델에서 생성되는 출력은 이해관계자에게 설명할 수 없는 블랙박스입니다. XAI(Explainable AI)는 이해관계자가 이러한 모델의 작동 방식을 이해할 수 있도록 하고, 이러한 모델이 실제로 의사 결정을 내리는 방식을 이해하도록 하며, AI 시스템의 투명성, 이 문제를 해결하기 위한 신뢰 및 책임을 보장함으로써 이 문제를 해결하는 것을 목표로 합니다. 이 기사에서는 기본 원리를 설명하기 위해 다양한 설명 가능한 인공 지능(XAI) 기술을 살펴봅니다. 설명 가능한 AI가 중요한 몇 가지 이유 신뢰와 투명성: AI 시스템이 널리 수용되고 신뢰되려면 사용자가 의사 결정 방법을 이해해야 합니다.

Flash Attention은 안정적인가요? Meta와 Harvard는 모델 중량 편차가 ​​수십 배로 변동한다는 사실을 발견했습니다. Flash Attention은 안정적인가요? Meta와 Harvard는 모델 중량 편차가 ​​수십 배로 변동한다는 사실을 발견했습니다. May 30, 2024 pm 01:24 PM

MetaFAIR는 대규모 기계 학습을 수행할 때 생성되는 데이터 편향을 최적화하기 위한 새로운 연구 프레임워크를 제공하기 위해 Harvard와 협력했습니다. 대규모 언어 모델을 훈련하는 데는 수개월이 걸리고 수백 또는 수천 개의 GPU를 사용하는 것으로 알려져 있습니다. LLaMA270B 모델을 예로 들면, 훈련에는 총 1,720,320 GPU 시간이 필요합니다. 대규모 모델을 교육하면 이러한 워크로드의 규모와 복잡성으로 인해 고유한 체계적 문제가 발생합니다. 최근 많은 기관에서 SOTA 생성 AI 모델을 훈련할 때 훈련 프로세스의 불안정성을 보고했습니다. 이는 일반적으로 손실 급증의 형태로 나타납니다. 예를 들어 Google의 PaLM 모델은 훈련 과정에서 최대 20번의 손실 급증을 경험했습니다. 수치 편향은 이러한 훈련 부정확성의 근본 원인입니다.

See all articles