기계 학습의 앙상블 방법 개요
온라인 쇼핑을 하고 있는데 동일한 평가로 동일한 제품을 판매하는 두 매장을 발견했다고 상상해 보세요. 그러나 첫 번째는 단 한 사람의 평가를 받았고 두 번째는 100명의 평가를 받았습니다. 어떤 평가를 더 신뢰하시겠습니까? 결국 어떤 제품을 구매하시겠어요? 대부분의 사람들의 대답은 간단합니다. 100명의 의견은 단 한 사람의 의견보다 확실히 더 신뢰할 만합니다. 이것이 "군중의 지혜"라고 불리며 앙상블 접근 방식이 작동하는 이유입니다.
앙상블 방법
보통 우리는 훈련 데이터로부터 오직 학습자(학습자 = 훈련 모델)만을 생성합니다(즉, 훈련 데이터에 대해서만 기계 학습 모델을 훈련시킵니다). 앙상블 방식은 여러 학습자가 동일한 문제를 해결한 후 함께 결합하는 방식입니다. 이러한 학습자를 기본 학습자라고 하며 신경망, 지원 벡터 머신, 의사결정 트리 등과 같은 기본 알고리즘을 가질 수 있습니다. 이러한 기본 학습기가 모두 동일한 알고리즘으로 구성되면 동종 기본 학습기라고 하고, 서로 다른 알고리즘으로 구성되면 이종 기본 학습기라고 합니다. 단일 기본 학습기에 비해 앙상블은 일반화 기능이 더 뛰어나므로 더 나은 결과를 얻을 수 있습니다.
앙상블 방식이 약한 학습자로 구성된 경우. 따라서 기본 학습자를 약한 학습자라고도 합니다. 앙상블 모델이나 강한 학습기(약한 학습기의 조합)는 편향/분산이 더 낮고 더 나은 성능을 달성합니다. 약한 학습자를 강한 학습자로 변환하는 이러한 통합 접근 방식의 능력은 실제로 약한 학습자를 더 쉽게 사용할 수 있기 때문에 대중화되었습니다.
최근 몇 년 동안 통합 방법은 다양한 온라인 대회에서 지속적으로 우승을 차지했습니다. 앙상블 방식은 온라인 대회 외에도 객체 탐지, 인식, 추적 등 컴퓨터 비전 기술 등 실생활 응용 분야에도 적용된다.
앙상블 방법의 주요 유형
약한 학습자는 어떻게 생성되나요?
기본 학습자가 생성되는 방식에 따라 통합 방법은 크게 순차 통합 방법과 병렬 통합 방법의 두 가지 범주로 나눌 수 있습니다. 이름에서 알 수 있듯이 Sequential ensemble 방법에서는 AdaBoost와 같은 Boosting 알고리즘과 같이 기본 학습기를 순차적으로 생성한 후 결합하여 예측을 합니다. 병렬 앙상블 방식에서는 기본 학습기를 병렬로 생성한 후 이를 결합하여 랜덤 포레스트, 스태킹 등의 배깅 알고리즘 등 예측을 수행합니다. 다음 그림은 병렬 및 순차 접근 방식을 설명하는 간단한 아키텍처를 보여줍니다.
기본 학습자의 다양한 생성 방법에 따라 통합 방법은 크게 순차 통합 방법과 병렬 통합 방법의 두 가지 범주로 나눌 수 있습니다. 이름에서 알 수 있듯이 순차 앙상블 방법에서는 AdaBoost와 같은 Boosting 알고리즘과 같이 기본 학습기를 순서대로 생성한 후 결합하여 예측을 합니다. 병렬 앙상블 방법에서는 기본 학습기가 병렬로 생성된 다음 Random Forest 및 Stacking과 같은 배깅 알고리즘과 같은 예측을 위해 함께 결합됩니다. 아래 그림은 병렬 및 순차 접근 방식을 모두 설명하는 간단한 아키텍처를 보여줍니다.
병렬 및 순차 통합 방법
순차적 학습 방법은 약한 학습자 간의 종속성을 활용하여 잔여 감소 방식으로 전체 성능을 향상시켜 나중에 학습자가 이전 학습자의 오류에 더 많은 관심을 기울일 수 있도록 합니다. 대략적으로 말하면(회귀 문제의 경우) 부스팅 방법으로 얻은 앙상블 모델 오류의 감소는 주로 약한 학습기의 높은 편향을 줄임으로써 달성되지만 분산의 감소는 때때로 관찰됩니다. 반면, 병렬 앙상블 방법은 독립적인 약한 학습기를 결합하여 오류를 줄입니다. 즉, 약한 학습기 간의 독립성을 활용합니다. 이러한 오류 감소는 기계 학습 모델의 분산이 감소했기 때문입니다. 따라서 부스팅은 주로 머신러닝 모델의 편향을 줄여 오류를 줄이는 반면, 배깅은 머신러닝 모델의 분산을 줄여 오류를 줄이는 것으로 요약할 수 있습니다. 어떤 앙상블 방법을 선택하느냐는 약한 학습기의 분산이 높은지 아니면 높은 편향을 갖는지에 따라 달라지기 때문에 이는 중요합니다.
약한 학습자를 어떻게 합칠 수 있나요?
이러한 소위 기본 학습자를 생성한 후 우리는 이러한 학습자 중 가장 좋은 것을 선택하지 않고 더 나은 일반화를 위해 함께 결합합니다. 이를 수행하는 방식은 앙상블 접근 방식에서 중요한 역할을 합니다.
평균화: 출력이 숫자인 경우 기본 학습자를 결합하는 가장 일반적인 방법은 평균화입니다. 평균은 단순 평균 또는 가중 평균일 수 있습니다. 회귀 문제의 경우 단순 평균은 모든 기본 모델의 오류 합계를 총 학습자 수로 나눈 값입니다. 가중 평균 결합 출력은 각 기본 학습자에게 서로 다른 가중치를 부여하여 달성됩니다. 회귀 문제의 경우 각 기본 학습기의 오류에 주어진 가중치를 곱한 다음 합산합니다.
투표: 명목 출력의 경우 투표는 기본 학습자를 결합하는 가장 일반적인 방법입니다. 투표에는 다수결, 다수결, 가중투표, 소프트투표 등 다양한 유형이 있습니다. 분류 문제의 경우 절대다수 투표는 각 학습자에게 한 표를 주고 클래스 레이블에 투표합니다. 어떤 클래스 레이블이 50% 이상의 표를 얻었는지가 앙상블의 예측 결과입니다. 그러나 클래스 레이블이 50% 이상의 표를 얻지 못하면 거부 옵션이 제공됩니다. 이는 결합된 앙상블이 어떤 예측도 할 수 없음을 의미합니다. 상대적 다수 투표에서는 가장 많은 표를 얻은 클래스 레이블이 예측 결과이며, 클래스 레이블에는 50% 이상의 표가 필요하지 않습니다. 즉, 3개의 출력 레이블이 있고 3개 모두 40% 30% 30%와 같이 50% 미만의 결과를 얻는 경우 클래스 레이블의 40%를 얻는 것이 앙상블 모델의 예측 결과입니다. . 가중 평균과 마찬가지로 가중 투표는 중요도와 특정 학습자의 강점을 기준으로 분류자에 가중치를 할당합니다. 소프트 투표는 레이블(이진 또는 기타)이 아닌 확률(0과 1 사이의 값)이 있는 클래스 출력에 사용됩니다. 소프트 투표는 다시 단순 소프트 투표(확률의 단순 평균)와 가중치 소프트 투표(학습자에게 가중치를 부여하고 확률에 이 가중치를 곱하여 더함)로 세분화됩니다.
학습: 결합하는 또 다른 방법은 스태킹 앙상블 방법이 사용하는 학습을 통해서입니다. 이 접근 방식에서는 메타 학습자라고 하는 별도의 학습자가 원래 기계 학습 데이터 세트에서 생성된 다른 기본/약한 학습자를 결합하기 위해 새로운 데이터 세트에 대해 훈련됩니다.
부스팅, 배깅 또는 스태킹 여부에 관계없이 세 가지 앙상블 방법 모두 동종 또는 이종 약한 학습기를 사용하여 생성될 수 있습니다. 가장 일반적인 접근 방식은 배깅 및 부스팅에는 동종 약한 학습기를 사용하고, 스태킹에는 이종 약한 학습기를 사용하는 것입니다. 아래 그림은 세 가지 주요 앙상블 방법을 잘 분류한 것입니다.
앙상블 방법의 주요 유형 분류
앙상블 다양성
앙상블 다양성은 기본 학습자가 얼마나 다른지를 나타내며, 이는 좋은 앙상블 모델을 생성하는 데 큰 의미가 있습니다. 서로 다른 조합 방법을 통해 완전히 독립적인(다양한) 기본 학습자는 오류를 최소화할 수 있는 반면, 완전히(고도로) 관련된 학습자는 아무런 개선도 가져오지 않는다는 것이 이론적으로 입증되었습니다. 이는 실제 생활에서 어려운 문제입니다. 동일한 데이터 세트를 사용하여 동일한 문제를 해결하도록 모든 약한 학습자를 교육하고 있어 높은 상관 관계가 발생하기 때문입니다. 게다가 약한 학습자가 실제로 나쁜 모델이 아닌지 확인해야 합니다. 이로 인해 앙상블 성능이 저하될 수도 있기 때문입니다. 반면에 강력하고 정확한 기본 학습자를 결합하는 것은 일부 약한 학습자와 일부 강한 학습자를 결합하는 것만큼 효과적이지 않을 수 있습니다. 따라서 기본 학습기의 정확도와 기본 학습기 간의 차이점 사이에 균형을 맞춰야 합니다.
통합된 다양성을 달성하는 방법은 무엇입니까?
1. 데이터 처리
기본 학습자를 위해 데이터 세트를 하위 세트로 나눌 수 있습니다. 기계 학습 데이터 세트가 큰 경우 데이터 세트를 동일한 부분으로 분할하여 기계 학습 모델에 공급할 수 있습니다. 데이터 세트가 작은 경우 무작위 추출을 복원하여 원래 데이터 세트에서 새 데이터 세트를 생성할 수 있습니다. 배깅 방법은 부트스트래핑 기술을 사용하여 기본적으로 교체를 통한 무작위 샘플링인 새로운 데이터 세트를 생성합니다. 부트스트래핑을 사용하면 생성된 모든 데이터 세트가 서로 다른 값을 가져야 하므로 어느 정도 임의성을 생성할 수 있습니다. 그러나 대부분의 값(이론에 따르면 약 67%)은 여전히 반복되므로 데이터 세트가 완전히 독립적이지는 않습니다.
2. 입력 기능
모든 데이터세트에는 데이터에 대한 정보를 제공하는 기능이 포함되어 있습니다. 하나의 모델에서 모든 기능을 사용하는 대신 기능의 하위 집합을 만들고 다양한 데이터 세트를 생성하여 모델에 제공할 수 있습니다. 이 방법은 랜덤 포레스트(Random Forest) 기법에 의해 채택되었으며, 데이터에 중복된 특징이 많을 때 효과적입니다. 데이터 세트에 특성이 거의 없으면 효율성이 감소합니다.
3. 학습 매개변수
이 기술은 기본 학습 알고리즘에 다양한 매개변수 설정을 적용하여 기본 학습기에서 임의성을 생성합니다. 즉, 하이퍼 매개변수 조정입니다. 예를 들어 정규화 용어를 변경하면 개별 신경망에 서로 다른 초기 가중치를 할당할 수 있습니다.
통합 가지치기
마지막으로 통합 가지치기 기술은 경우에 따라 더 나은 통합 성능을 달성하는 데 도움이 될 수 있습니다. 앙상블 프루닝(Ensemble Pruning)은 모든 약한 학습자를 결합하는 대신 학습자의 하위 집합만 결합하는 것을 의미합니다. 이 외에도 소규모 통합으로 스토리지 및 컴퓨팅 리소스를 절약하여 효율성을 높일 수 있습니다.
마지막으로
이 글은 머신러닝 앙상블 방법에 대한 개요입니다. 모두가 좀 더 깊이 있는 연구를 하고, 더 중요한 것은 연구를 실생활에 적용할 수 있기를 바랍니다.
위 내용은 기계 학습의 앙상블 방법 개요의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











기계 학습 및 데이터 과학 분야에서 모델 해석 가능성은 항상 연구자와 실무자의 초점이었습니다. 딥러닝, 앙상블 방법 등 복잡한 모델이 널리 적용되면서 모델의 의사결정 과정을 이해하는 것이 특히 중요해졌습니다. explainable AI|XAI는 모델의 투명성을 높여 머신러닝 모델에 대한 신뢰와 확신을 구축하는 데 도움이 됩니다. 모델 투명성을 향상시키는 것은 여러 복잡한 모델의 광범위한 사용은 물론 모델을 설명하는 데 사용되는 의사 결정 프로세스와 같은 방법을 통해 달성할 수 있습니다. 이러한 방법에는 기능 중요도 분석, 모델 예측 간격 추정, 로컬 해석 가능성 알고리즘 등이 포함됩니다. 특성 중요도 분석은 모델이 입력 특성에 미치는 영향 정도를 평가하여 모델의 의사결정 과정을 설명할 수 있습니다. 모델 예측 구간 추정

지연이 발생하고 iPhone의 모바일 데이터 연결 속도가 느립니까? 일반적으로 휴대폰의 셀룰러 인터넷 강도는 지역, 셀룰러 네트워크 유형, 로밍 유형 등과 같은 여러 요소에 따라 달라집니다. 더 빠르고 안정적인 셀룰러 인터넷 연결을 얻기 위해 할 수 있는 일이 몇 가지 있습니다. 수정 1 – iPhone 강제 다시 시작 때로는 장치를 강제로 다시 시작하면 셀룰러 연결을 포함한 많은 항목이 재설정됩니다. 1단계 – 볼륨 높이기 키를 한 번 눌렀다가 놓습니다. 그런 다음 볼륨 작게 키를 눌렀다가 다시 놓습니다. 2단계 - 프로세스의 다음 부분은 오른쪽에 있는 버튼을 누르는 것입니다. iPhone이 다시 시작되도록 하세요. 셀룰러 데이터를 활성화하고 네트워크 속도를 확인하세요. 다시 확인하세요 수정 2 – 데이터 모드 변경 5G는 더 나은 네트워크 속도를 제공하지만 신호가 약할 때 더 잘 작동합니다

C++의 기계 학습 알고리즘이 직면하는 일반적인 과제에는 메모리 관리, 멀티스레딩, 성능 최적화 및 유지 관리 가능성이 포함됩니다. 솔루션에는 스마트 포인터, 최신 스레딩 라이브러리, SIMD 지침 및 타사 라이브러리 사용은 물론 코딩 스타일 지침 준수 및 자동화 도구 사용이 포함됩니다. 실제 사례에서는 Eigen 라이브러리를 사용하여 선형 회귀 알고리즘을 구현하고 메모리를 효과적으로 관리하며 고성능 행렬 연산을 사용하는 방법을 보여줍니다.

테슬라의 로봇 옵티머스(Optimus)의 최신 영상이 공개됐는데, 이미 공장에서 작동이 가능한 상태다. 정상 속도에서는 배터리(테슬라의 4680 배터리)를 다음과 같이 분류합니다. 공식은 또한 20배 속도로 보이는 모습을 공개했습니다. 작은 "워크스테이션"에서 따고 따고 따고 : 이번에 출시됩니다. 영상에는 옵티머스가 공장에서 이 작업을 전 과정에 걸쳐 사람의 개입 없이 완전히 자율적으로 완료하는 모습이 담겨 있습니다. 그리고 Optimus의 관점에서 보면 자동 오류 수정에 중점을 두고 구부러진 배터리를 집어 넣을 수도 있습니다. NVIDIA 과학자 Jim Fan은 Optimus의 손에 대해 높은 평가를 했습니다. Optimus의 손은 세계의 다섯 손가락 로봇 중 하나입니다. 가장 능숙합니다. 손은 촉각적일 뿐만 아니라

최근 군계는 미군 전투기가 이제 AI를 활용해 완전 자동 공중전을 완수할 수 있다는 소식에 충격을 받았다. 네, 얼마 전 미군의 AI 전투기가 최초로 공개되면서 그 미스터리가 드러났습니다. 이 전투기의 정식 명칭은 VISTA(Variable Stability Flight Simulator Test Aircraft)로 미 공군 장관이 직접 조종해 일대일 공중전을 모의 실험한 것이다. 5월 2일, 미 공군 장관 프랭크 켄달(Frank Kendall)이 X-62AVISTA를 타고 에드워드 공군 기지에서 이륙했습니다. 1시간의 비행 동안 모든 비행 작업은 AI에 의해 자동으로 완료되었습니다. Kendall은 "지난 수십 년 동안 우리는 자율 공대공 전투의 무한한 잠재력에 대해 생각해 왔지만 항상 도달할 수 없는 것처럼 보였습니다."라고 말했습니다. 그러나 지금은,

머신 러닝은 명시적으로 프로그래밍하지 않고도 컴퓨터가 데이터로부터 학습하고 능력을 향상시킬 수 있는 능력을 제공하는 인공 지능의 중요한 분야입니다. 머신러닝은 이미지 인식, 자연어 처리, 추천 시스템, 사기 탐지 등 다양한 분야에서 폭넓게 활용되며 우리의 삶의 방식을 변화시키고 있습니다. 기계 학습 분야에는 다양한 방법과 이론이 있으며, 그 중 가장 영향력 있는 5가지 방법을 "기계 학습의 5개 학교"라고 합니다. 5개 주요 학파는 상징학파, 연결주의 학파, 진화학파, 베이지안 학파, 유추학파이다. 1. 상징주의라고도 알려진 상징주의는 논리적 추론과 지식 표현을 위해 상징을 사용하는 것을 강조합니다. 이 사고 학교는 학습이 기존을 통한 역연역 과정이라고 믿습니다.

번역기 | 검토자: Li Rui | Chonglou 인공 지능(AI) 및 기계 학습(ML) 모델은 오늘날 점점 더 복잡해지고 있으며 이러한 모델에서 생성되는 출력은 이해관계자에게 설명할 수 없는 블랙박스입니다. XAI(Explainable AI)는 이해관계자가 이러한 모델의 작동 방식을 이해할 수 있도록 하고, 이러한 모델이 실제로 의사 결정을 내리는 방식을 이해하도록 하며, AI 시스템의 투명성, 이 문제를 해결하기 위한 신뢰 및 책임을 보장함으로써 이 문제를 해결하는 것을 목표로 합니다. 이 기사에서는 기본 원리를 설명하기 위해 다양한 설명 가능한 인공 지능(XAI) 기술을 살펴봅니다. 설명 가능한 AI가 중요한 몇 가지 이유 신뢰와 투명성: AI 시스템이 널리 수용되고 신뢰되려면 사용자가 의사 결정 방법을 이해해야 합니다.

MetaFAIR는 대규모 기계 학습을 수행할 때 생성되는 데이터 편향을 최적화하기 위한 새로운 연구 프레임워크를 제공하기 위해 Harvard와 협력했습니다. 대규모 언어 모델을 훈련하는 데는 수개월이 걸리고 수백 또는 수천 개의 GPU를 사용하는 것으로 알려져 있습니다. LLaMA270B 모델을 예로 들면, 훈련에는 총 1,720,320 GPU 시간이 필요합니다. 대규모 모델을 교육하면 이러한 워크로드의 규모와 복잡성으로 인해 고유한 체계적 문제가 발생합니다. 최근 많은 기관에서 SOTA 생성 AI 모델을 훈련할 때 훈련 프로세스의 불안정성을 보고했습니다. 이는 일반적으로 손실 급증의 형태로 나타납니다. 예를 들어 Google의 PaLM 모델은 훈련 과정에서 최대 20번의 손실 급증을 경험했습니다. 수치 편향은 이러한 훈련 부정확성의 근본 원인입니다.
