최근 몇 년간 머신러닝과 인공지능 분야가 점점 더 많은 주목을 받고 있다는 것은 의심의 여지가 없습니다. 빅데이터가 업계에서 가장 뜨거운 기술 트렌드가 되면서, 머신러닝 역시 빅데이터를 활용해 예측과 추천 분야에서 놀라운 성과를 거두었습니다. 더 유명한 기계 학습 사례로는 Netflix가 사용자의 과거 검색 행동을 기반으로 사용자에게 영화를 추천하는 것과 사용자의 과거 구매 행동을 기반으로 Amazon이 책을 추천하는 것이 있습니다. 이 글에서는 머신러닝에 대한 간략한 논의에서 이해해야 할 상위 10가지 알고리즘을 주로 소개합니다. 이는 특정 참조 가치가 있으며 필요한 친구들이 참조할 수 있습니다.
그렇다면 머신러닝 알고리즘을 배우고 싶다면 어떻게 시작해야 할까요? 내 경우 입문 강좌는 코펜하겐 유학 시절 수강했던 인공지능 강좌였다. 선생님은 덴마크 공과대학에서 응용수학과 컴퓨터 과학을 전공하는 전임 교수입니다. 그의 연구 방향은 논리와 인공 지능이며 주로 논리 방법을 사용한 모델링입니다. 이 과정은 이론/핵심 개념에 대한 토론과 실습의 두 부분으로 구성됩니다. 우리가 사용하는 교과서는 인공 지능에 관한 고전 서적 중 하나인 Peter Norvig 교수의 "Artificial Intelligence - A Modern Approach"입니다. 이 과정에는 지능형 에이전트, 검색 기반 해결, 적대적 검색, 확률 이론, 다중 에이전트 시스템이 포함됩니다. 인공지능의 윤리와 미래 등의 주제를 다룬다. 과정 후반에는 우리 셋이 팀을 이루어 프로그래밍 프로젝트를 수행하고 간단한 검색 기반 알고리즘을 구현하여 가상 환경에서 운송 작업을 해결했습니다.
저는 이 강좌를 통해 많은 것을 배웠으며 이 주제에 대해 계속 깊이 공부할 계획입니다. 지난 몇 주 동안 저는 샌프란시스코 지역에서 딥 러닝, 신경망, 데이터 아키텍처에 관한 여러 강연과 유명 교수들이 참석하는 머신 러닝 컨퍼런스에 참석했습니다. 가장 중요한 것은 6월 초에 Udacity의 "머신러닝 입문" 온라인 강좌에 등록하고 며칠 전에 강좌 콘텐츠를 완료했다는 것입니다. 이 글에서는 제가 이 강좌에서 배운 몇 가지 일반적인 머신러닝 알고리즘을 공유하고 싶습니다.
기계 학습 알고리즘은 일반적으로 지도 학습, 비지도 학습, 강화 학습의 세 가지 주요 범주로 나눌 수 있습니다. 지도 학습은 데이터 세트(훈련 데이터)의 일부에 얻을 수 있는 어느 정도의 친숙성(레이블)이 있지만 나머지 샘플은 누락되어 예측이 필요한 시나리오에서 주로 사용됩니다. 비지도 학습은 주로 레이블이 지정되지 않은 데이터 세트 간의 암시적 관계를 마이닝하는 데 사용됩니다. 강화 학습은 그 사이 어딘가에 있습니다. 예측 또는 행동의 각 단계에는 피드백 정보가 다소 있지만 정확한 레이블이나 오류 프롬프트는 없습니다. 입문 강좌이기 때문에 강화 학습에 대해서는 언급하지 않지만, 지도 학습과 비지도 학습을 위한 10가지 알고리즘이 여러분의 흥미를 끌기에 충분하길 바랍니다.
지도 학습
1. 의사결정 트리:
의사결정 트리는 확률 이벤트 결과 등을 포함한 의사결정 과정과 후속 결과를 트리 다이어그램 또는 트리 모델을 사용하는 의사결정 지원 도구입니다. 의사결정트리의 구조를 이해하려면 아래 이미지를 참조하세요.
비즈니스 의사 결정의 관점에서 의사결정 트리는 가능한 한 적은 수의 옳고 그른 판단 질문을 통해 올바른 결정의 확률을 예측하는 것입니다. 이 접근 방식은 체계적이고 체계적인 접근 방식을 사용하여 합리적인 결론을 도출하는 데 도움이 될 수 있습니다.
2. 나이브 베이즈 분류기:
나이브 베이즈 분류기는 특징들이 이전에 서로 독립적이라고 가정하는 베이지안 이론에 기초한 단순 확률 분류기입니다. 아래 그림은 공식을 보여줍니다. P(A|B)는 사후 확률을 나타내고, P(B|A)는 우도 값, P(A)는 범주의 사전 확률, P(B)는 예측 변수를 나타냅니다. 사전 확률.
실제 시나리오의 몇 가지 예는 다음과 같습니다.
스팸 이메일 감지
뉴스를 기술, 정치, 스포츠 등의 카테고리로 분류합니다.
텍스트가 긍정적인 감정을 표현하는지 부정적인 감정을 표현하는지 판단합니다
사람 얼굴 감지 소프트웨어에 사용됨
3. 최소 제곱 회귀:
통계 과정을 수강한 적이 있다면 선형 회귀의 개념을 들어보셨을 것입니다. 최소 제곱 회귀는 선형 회귀 방법입니다. 선형 회귀는 여러 점에 직선을 맞추는 것으로 생각할 수 있습니다. 다양한 피팅 방법이 있습니다. "최소 제곱" 전략은 직선을 그린 다음 각 점에서 직선까지의 수직 거리를 계산하고 마지막으로 가장 적합한 직선을 합산하는 것과 동일합니다. 가장 작은 거리의 합입니다.
선형은 데이터를 맞추는 데 사용되는 모델을 의미하고, 최소 제곱은 최적화할 손실 함수를 의미합니다.
4. 로지스틱 회귀:
로지스틱 회귀 모델은 하나 이상의 설명 변수를 사용하여 이진 출력 결과를 모델링하는 강력한 통계 모델링 방법입니다. 누적 로지스틱 분포에 속하는 하나 이상의 독립변수와 범주형 종속변수 사이의 관계를 측정하기 위해 확률값을 추정하는 로지스틱 함수를 사용합니다.
일반적으로 실제 시나리오에서 로지스틱 회귀 모델을 적용하는 방법은 다음과 같습니다.
신용 점수
비즈니스 활동의 성공 확률 예측
특정 제품의 수익 예측
지진 확률 예측 특정 날짜에
5. 지원 벡터 머신:
지원 벡터 머신은 이진 분류 알고리즘입니다. N차원 공간에 두 가지 유형의 점이 주어지면 서포트 벡터 머신은 (N-1)차원 초평면을 생성하여 이러한 점을 두 가지 범주로 분류합니다. 예를 들어, 종이에는 선형으로 분리 가능한 두 가지 유형의 점이 있습니다. 서포트 벡터 머신은 이러한 두 가지 유형의 점을 구분하고 각 점에서 최대한 멀리 떨어져 있는 직선을 찾습니다.
서포트 벡터 머신(특정 응용 시나리오를 기반으로 개선됨)을 사용하여 디스플레이 광고, 인체 관절 부분 인식, 이미지 기반 성별 확인, 대규모 이미지 분류 등을 포함한 대규모 문제를 해결합니다...
6. 앙상블 방법:
앙상블 방법은 먼저 분류기 세트를 구축한 다음 각 분류기의 가중치 투표를 사용하여 새로운 데이터를 예측하는 알고리즘입니다. 원래 앙상블 방법은 베이지안 평균이었지만 최신 알고리즘에는 오류 수정 출력 인코딩 및 부스팅 알고리즘이 포함되어 있습니다.
그럼 통합모델의 원리는 무엇이며 왜 독립모델보다 성능이 더 좋은가요?
편향 효과를 제거합니다. 예를 들어 민주당의 설문지와 공화당의 설문지를 혼합하면 설명이 없고 중립적인 정보를 얻게 됩니다.
예측의 분산을 줄일 수 있습니다. 여러 모델을 통합한 예측 결과는 단일 모델의 예측 결과보다 더 안정적입니다. 금융계에서는 이를 다각화라고 합니다. 혼합 주식은 항상 단일 주식보다 훨씬 적게 움직입니다. 이는 훈련 데이터가 증가할수록 모델이 더 좋아지는 이유도 설명합니다.
과대적합이 발생하지 않습니다. 단일 모델이 과적합되지 않은 경우 단순히 각 모델의 예측 결과(평균, 가중 평균, 로지스틱 회귀)를 결합하면 과적합할 이유가 없습니다.
비지도 학습
7. 클러스터링 알고리즘:
클러스터링 알고리즘의 작업은 개체 그룹을 여러 그룹으로 클러스터링하는 것입니다.
모든 클러스터링 알고리즘은 다릅니다. 다음은 몇 가지입니다.
중앙 기반 클러스터링 알고리즘
연결 기반 클러스터링 알고리즘
밀도 기반 클러스터링 알고리즘
확률적 유형 알고리즘
차원성 감소 알고리즘
신경 네트워크/딥 러닝
8. 주성분 분석:
주성분 분석은 상관관계가 있는 변수 집합을 하나의 선형 비상관 변수 그룹으로 변환하는 통계적 방법입니다. 주성분이라고 합니다.
주성분 분석의 실제 응용 분야로는 데이터 압축, 단순화된 데이터 표현, 데이터 시각화 등이 있습니다. 주성분 분석 알고리즘을 사용하는 것이 적합한지 판단하기 위해서는 도메인 지식이 필요하다는 점을 언급할 가치가 있습니다. 데이터에 노이즈가 너무 많은 경우(즉, 각 성분의 분산이 큰 경우) 주성분 분석 알고리즘을 사용하는 것은 적합하지 않습니다.
9. 특이값 분해:
특이값 분해는 선형 대수학에서 중요한 행렬 분해이며 행렬 분석에서 일반 행렬 단일 대각화의 확장입니다. 주어진 m*n 행렬 M에 대해 M=UΣV로 분해될 수 있습니다. 여기서 U와 V는 m×m 차의 단위 행렬이고 Σ는 m×n 차의 양의 준정부호 대각 행렬입니다.
주성분 분석은 실제로 간단한 특이값 분해 알고리즘입니다. 컴퓨터 비전 분야에서 최초의 얼굴 인식 알고리즘은 주성분 분석과 특이값 분해를 사용하여 차원 축소 후 얼굴을 "고유 얼굴" 집합의 선형 조합으로 표현한 다음 간단한 방법을 사용하여 후보 얼굴을 일치시켰습니다. 현대적인 방법이 더 정교하기는 하지만 많은 기술이 유사합니다.
10. 독립 성분 분석:
독립 성분 분석은 통계 원리를 사용하여 계산을 수행하여 무작위 변수, 측정 또는 신호 뒤에 숨겨진 요인을 찾아내는 방법입니다. 독립 성분 분석 알고리즘은 관찰된 다변량 데이터(일반적으로 대규모 샘플 배치)에 대한 생성 모델을 정의합니다. 이 모델에서 데이터 변수는 일부 알려지지 않은 잠재 변수의 선형 혼합으로 가정되며 혼합 시스템도 알려지지 않았습니다. 잠재 변수는 가우시안이 아니며 독립적인 것으로 가정됩니다. 이를 관찰된 데이터의 독립 구성 요소라고 합니다.
독립성분 분석은 주성분 분석과 관련이 있지만 더 강력한 기법입니다. 이러한 전통적인 방법이 실패하더라도 데이터 소스의 기본 요소를 찾을 수 있습니다. 그 응용 프로그램에는 디지털 이미지, 문서 데이터베이스, 경제 지표 및 심리 측정이 포함됩니다.
이제 이해한 알고리즘을 사용하여 기계 학습 애플리케이션을 만들고 전 세계 사람들의 삶의 질을 향상시켜 보세요.
관련 추천: