머신러닝 분야에서 일부 모델은 매우 효과적이지만 그 이유를 완전히 확신할 수는 없습니다. 대조적으로, 상대적으로 잘 이해된 일부 연구 분야는 실제로 적용 가능성이 제한되어 있습니다. 이 기사에서는 기계 학습의 유용성과 이론적 이해를 바탕으로 다양한 하위 분야의 진행 상황을 살펴봅니다.
여기서 실험적 유용성은 방법의 적용 범위, 구현 용이성, 가장 중요하게는 실제 세계에서 얼마나 유용한지를 고려하는 포괄적인 고려 사항입니다. 일부 방법은 매우 실용적일 뿐만 아니라 광범위한 적용 범위를 갖고 있는 반면, 일부 방법은 매우 강력하기는 하지만 특정 영역으로 제한됩니다. 신뢰할 수 있고 예측 가능하며 큰 결함이 없는 방법은 유용성이 더 높은 것으로 간주됩니다.
소위 이론적 이해란 모델 방법의 해석 가능성, 즉 입력과 출력의 관계가 무엇인지, 예상 결과를 어떻게 얻을 수 있는지, 이 방법의 내부 메커니즘은 무엇인지, 깊이를 고려하는 것입니다. 및 무결성과 관련된 문헌.
이론적 이해도가 낮은 방법은 일반적으로 구현 시 경험적 방법이나 시행착오 방법을 많이 사용합니다. 이론적 이해도가 높은 방법은 강력한 이론적 기초와 예측 가능한 결과를 갖춘 공식적 구현을 사용하는 경우가 많습니다. 선형 회귀와 같은 간단한 방법은 이론적 상한이 더 낮고, 딥러닝과 같은 더 복잡한 방법은 이론적 상한이 더 높습니다. 특정 분야 내 문헌의 깊이와 완전성에 관해서는 부분적으로 직관에 의존하는 해당 분야 가정의 이론적 상한선을 기준으로 해당 분야를 평가합니다.
평균 이해도와 평균 효용을 갖춘 가상 참조 영역을 나타내는 좌표축의 교차점을 사용하여 효용 행렬을 4개의 사분면으로 구성할 수 있습니다. 이 접근 방식을 사용하면 필드가 위치한 사분면에 따라 필드를 질적으로 해석할 수 있습니다. 아래 그림에 표시된 것처럼 특정 사분면의 필드는 해당 사분면의 특성 중 일부 또는 전부를 가질 수 있습니다.
일반적으로 우리는 유용성과 이해가 느슨하게 연관되어 있을 것으로 기대하므로 이론적 이해 수준이 높은 방법이 이론적 이해 수준이 낮은 방법보다 더 유용합니다. 이는 대부분의 필드가 왼쪽 아래 사분면이나 오른쪽 위 사분면에 있어야 함을 의미합니다. 왼쪽 아래 오른쪽 위 대각선에서 떨어진 영역은 예외를 나타냅니다. 초기 연구 이론을 실제 적용으로 전환하는 데 시간이 걸리기 때문에 실제 유용성은 이론보다 뒤처지는 경우가 많습니다. 따라서 이 대각선은 원점을 직접 통과하는 것이 아니라 원점 위에 있어야 합니다.
위에 표시된 모든 분야가 머신러닝(ML)에 완전히 포함되는 것은 아니지만 모두 ML의 맥락에서 적용할 수 있거나 ML과 밀접하게 관련되어 있습니다. 평가된 영역 중 상당수는 중복되어 명확하게 설명할 수 없습니다. 강화 학습, 연합 학습 및 그래프 ML의 고급 방법은 딥 러닝을 기반으로 하는 경우가 많습니다. 그러므로 나는 이론적이고 실용적인 유용성 중 딥러닝이 아닌 측면을 고려합니다.
선형 회귀는 간단하고 이해하기 쉽고 효율적인 방법입니다. 종종 과소평가되고 무시되지만. , 그러나 그 사용 범위와 철저한 이론적 근거로 인해 그림의 오른쪽 상단에 표시됩니다.
전통적인 머신러닝은 이론적으로 고도로 이해되고 실용적인 분야로 발전했습니다. GBDT(Gradient Boosted Decision Tree)와 같은 복잡한 ML 알고리즘은 일부 복잡한 예측 작업에서 선형 회귀보다 성능이 뛰어난 것으로 나타났습니다. 빅데이터 문제의 경우에는 확실히 그렇습니다. 과도하게 매개변수화된 모델에 대한 이론적 이해에는 여전히 격차가 있지만, 기계 학습을 구현하는 것은 섬세한 방법론적 프로세스이며, 잘 수행되면 모델은 업계 내에서 안정적으로 실행될 수 있습니다.
그러나 추가적인 복잡성과 유연성으로 인해 일부 오류가 발생하기 때문에 선형 회귀 분석의 왼쪽에 기계 학습을 배치했습니다. 일반적으로 지도 머신러닝은 비지도 머신러닝보다 더 정교하고 영향력이 크지만 두 방법 모두 서로 다른 문제 공간을 효과적으로 해결합니다.
베이지안 방법은 대중적인 고전 통계 방법보다 우월하다고 선전하는 추종자들이 많습니다. 베이지안 모델은 특정 상황에서 특히 유용합니다. 즉, 점 추정만으로는 충분하지 않고 불확실성 추정이 중요한 경우, 데이터가 제한적이거나 누락이 심한 경우, 모델 시간에 명시적으로 포함하려는 데이터 생성 프로세스를 이해하는 경우 등이 있습니다. 베이지안 모델의 유용성은 많은 문제에서 점 추정만으로 충분하고 사람들이 단순히 비베이지안 방법을 기본으로 사용한다는 사실로 인해 제한됩니다. 게다가 기존 ML에는 불확실성을 수량화하는 방법이 있습니다(거의 사용되지 않음). 데이터 생성 메커니즘과 사전 고려 사항을 고려할 필요 없이 간단히 ML 알고리즘을 데이터에 적용하는 것이 더 쉬운 경우가 많습니다. 베이지안 모델은 또한 계산 비용이 많이 들고, 이론적 발전으로 더 나은 샘플링 및 근사 방법이 개발된다면 더 큰 유용성을 갖게 될 것입니다.
대부분의 분야에서 발전하는 것과는 달리 딥 러닝은 이론적 측면에서 근본적으로 진전이 어려운 것으로 입증되었음에도 불구하고 놀라운 성공을 거두었습니다. 딥 러닝은 잘 알려지지 않은 접근 방식의 많은 특성을 구현합니다. 즉, 모델이 불안정하고, 안정적으로 구축하기 어렵고, 약한 휴리스틱을 기반으로 구성하고, 예측할 수 없는 결과를 생성합니다. 무작위 시드 "조정"과 같은 의심스러운 관행이 일반적이며 작업 모델의 메커니즘을 설명하기 어렵습니다. 그러나 딥 러닝은 컴퓨터 비전, 자연어 처리 등의 분야에서 계속해서 발전하고 초인적인 성능 수준에 도달하여 자율 주행과 같이 다른 방법으로는 이해할 수 없는 작업의 세계를 열어줍니다.
가정적으로 일반 AI는 오른쪽 하단 모서리를 차지할 것입니다. 정의상 초지능은 인간의 이해를 뛰어넘고 모든 문제를 해결하는 데 사용될 수 있기 때문입니다. 현재는 사고 실험으로만 포함되어 있습니다.
각 사분면에 대한 정성적 설명입니다. 필드는 해당 지역의 일부 또는 전체 설명으로 설명될 수 있습니다.
대부분의 인과 추론 형태는 기계 학습이 아니지만 때로는 기계 학습이며 항상 예측에 관심이 있습니다. 모델. 인과성은 무작위 대조 시험(RCT)과 관찰 데이터로부터 인과 관계를 측정하려고 시도하는 보다 정교한 인과 추론 방법으로 나눌 수 있습니다. RCT는 이론적으로 간단하고 엄격한 결과를 제공하지만 현실 세계에서 수행하기에는 비용이 많이 들고 불가능하지는 않더라도 비실용적이므로 유용성이 제한됩니다. 인과 추론 방법은 본질적으로 아무것도 하지 않고 RCT를 모방하므로 수행하기가 훨씬 쉽지만 결과를 무효화할 수 있는 여러 가지 제한 사항과 함정이 있습니다. 전반적으로 인과 관계는 여전히 실망스러운 추구로 남아 있으며, 이러한 질문이 무작위 대조 시험을 통해 탐색될 수 없거나 일부 프레임워크에 깔끔하게 들어맞지 않는 한(예: " 자연 실험').
연합 학습(FL)은 별로 관심을 끌지 못하는 멋진 개념입니다. 아마도 가장 강력한 응용 프로그램을 사용하려면 수많은 스마트폰 장치에 배포해야 하기 때문에 FL은 Apple과 Google이라는 두 플레이어만 실제로 연구할 수 있기 때문일 것입니다. 독점 데이터 세트 풀링과 같은 FL의 다른 사용 사례도 존재하지만 이러한 이니셔티브를 조정하는 데는 정치적, 물류적 문제가 있어 실제로 유용성이 제한됩니다. 그럼에도 불구하고 멋진 개념처럼 들리지만(대략 요약하면 "데이터를 모델에 넣기보다는 모델을 데이터에 넣습니다") FL은 키보드 텍스트 예측 및 개인화된 뉴스 추천과 같은 영역에서 작동하고 적용됩니다. 성공 사례 FL의 기본 이론과 기술은 FL의 광범위한 적용에 충분해 보입니다.
강화 학습(RL)은 체스, 바둑, 포커, DotA와 같은 게임에서 전례 없는 수준의 성능에 도달했습니다. 그러나 비디오 게임 및 시뮬레이션 환경 이외의 강화 학습은 아직 실제 응용 프로그램으로 설득력 있게 변환되지 않았습니다. 로봇 공학은 RL의 차세대 개척자가 될 것으로 예상되었지만 그런 일은 일어나지 않았습니다. 현실은 고도로 제한된 장난감 환경보다 더 어려워 보였습니다. 즉, 지금까지 RL의 성과는 고무적이며, 체스를 정말 좋아하는 사람이라면 체스의 유용성이 훨씬 더 높아야 한다고 주장할 수도 있습니다. 나는 RL이 매트릭스의 오른쪽에 배치되기 전에 잠재적인 실제 응용 프로그램 중 일부를 깨닫는 것을 보고 싶습니다.
GNN(그래프 신경망)은 이제 기계 학습에서 매우 인기 있는 분야이며 많은 분야에서 유망한 결과를 달성했습니다. 그러나 이러한 많은 예에서 GNN이 딥 러닝 아키텍처와 결합된 보다 전통적인 구조화된 데이터를 사용하는 대안보다 나은지 여부는 불분명합니다. 화학정보학의 분자와 같이 데이터가 자연스럽게 그래프 구조로 되어 있는 문제는 더 강력한 GNN 결과를 갖는 것으로 보입니다(비록 일반적으로 그래프와 관련되지 않은 방법보다 열등하지만). 대부분의 분야보다 규모에 맞게 GNN을 훈련하기 위한 오픈 소스 도구와 업계에서 사용되는 내부 도구 사이에 큰 격차가 있는 것으로 보이며, 이는 벽으로 둘러싸인 정원 외부의 대규모 GNN의 타당성을 제한합니다. 해당 분야의 복잡성과 폭은 높은 이론적 상한을 암시하므로 GNN이 성숙하고 특정 작업에 대한 이점을 설득력 있게 입증할 수 있는 여지가 있어야 하며, 이는 더 큰 유용성을 가져올 것입니다. 그래프가 현재 기존 컴퓨팅 하드웨어에 자연스럽게 맞지 않기 때문에 GNN은 기술 발전의 이점을 누릴 수도 있습니다.
Interpretable Machine Learning(IML)은 계속해서 주목받고 있는 중요하고 유망한 분야입니다. SHAP 및 LIME과 같은 기술은 ML 모델을 조사하는 데 정말 유용한 도구가 되었습니다. 그러나 제한된 채택으로 인해 기존 접근 방식의 유용성이 아직 완전히 실현되지 않았습니다. 강력한 모범 사례와 구현 지침이 아직 확립되지 않았습니다. 그러나 현재 IML의 가장 큰 약점은 우리가 실제로 관심을 갖고 있는 인과관계 질문을 다루지 않는다는 것입니다. IML은 모델이 예측을 수행하는 방법을 설명하지만 기본 데이터가 모델과 어떻게 인과관계에 있는지 설명하지 않습니다(종종 이렇게 잘못 해석되기는 하지만). 주요 이론적 발전 이전에는 IML의 합법적인 사용은 대부분 모델 디버깅/모니터링 및 가설 생성으로 제한되었습니다.
QML(양자 기계 학습)은 제 조타실 밖이지만 현재는 실행 가능한 양자 컴퓨터가 출시될 때까지 인내심을 갖고 기다리는 가상의 연습인 것 같습니다. 그때까지 QML은 왼쪽 하단에 미미하게 자리잡고 있었습니다.
이 분야에는 이론적 이해와 경험적 효용 매트릭스를 탐색하는 세 가지 주요 메커니즘이 있습니다(그림 2).
행렬을 통해 필드를 탐색할 수 있는 방법을 보여주는 예시입니다.
진행형 진행은 매트릭스 오른쪽의 인치 필드 위로 이동하는 느리고 꾸준한 진행입니다. 이에 대한 좋은 예는 지난 수십 년 동안 지도된 기계 학습입니다. 이 기간 동안 점점 더 효과적인 예측 알고리즘이 개선되고 채택되어 오늘날 우리가 누리는 강력한 도구 상자가 되었습니다. 기술적 도약과 패러다임 전환으로 인해 더욱 극적인 변화가 일어나는 시기를 제외하면 점진적인 진보는 모든 성숙한 분야의 현상 유지입니다.
기술의 도약으로 인해 일부 분야에서는 과학적 진보가 단계적으로 변화했습니다. *딥 러닝* 분야는 2010년대 딥 러닝 붐이 일어나기 20여 년 전에 발견된 이론적인 기초에 의해 해결되지 않았습니다. 르네상스를 촉진한 것은 소비자 GPU를 통해 구현된 병렬 처리였습니다. 기술적 도약은 일반적으로 경험적 효용 축을 따라 오른쪽으로 도약하는 것으로 나타납니다. 그러나 기술이 주도하는 모든 발전이 비약적인 것은 아닙니다. 오늘날의 딥 러닝은 더 많은 컴퓨팅 성능과 점점 더 전문화되는 하드웨어를 사용하여 점점 더 큰 모델을 훈련함으로써 달성되는 점진적인 발전이 특징입니다.
이 프레임워크 내에서 과학적 진보의 궁극적인 메커니즘은 패러다임 전환입니다. 토마스 쿤(Thomas Kuhn)이 자신의 저서 과학혁명의 구조(The Structure of Scientific Revolutions)에서 언급했듯이, 패러다임 전환은 과학 분야의 기본 개념과 실험적 실천에 있어서 중요한 변화를 나타냅니다. Donald Rubin과 Judea Pearl이 개척한 인과 프레임워크는 그러한 예 중 하나로, 무작위 대조 시험과 전통적인 통계 분석에서 인과 관계 분야를 인과 추론 형태의 보다 강력한 수학적 분야로 끌어올렸습니다. 패러다임 전환은 종종 이해의 상승 움직임으로 나타나며, 이는 유용성 증가를 따르거나 동반될 수 있습니다.
그러나 패러다임 전환은 매트릭스를 어느 방향으로든 횡단할 수 있습니다. 신경망(및 이후의 심층 신경망)이 기존 ML과 별도의 패러다임으로 자리 잡았을 때 이는 처음에는 실용성과 이해도의 감소에 해당했습니다. 많은 신흥 분야는 이러한 방식으로 보다 확립된 연구 분야에서 분기됩니다.
요약하자면, 미래에 일어날 수 있는 일에 대한 몇 가지 추측적인 예측은 다음과 같습니다(표 1). 오른쪽 위 사분면에 있는 필드는 너무 성숙해서 중요한 진전을 볼 수 없기 때문에 생략됩니다.
표 1: 기계 학습의 여러 주요 분야의 향후 발전 예측.
그러나 개별 분야가 어떻게 발전하는지보다 더 중요한 관찰은 경험주의를 향한 일반적인 추세와 포괄적인 이론적 이해를 인정하려는 의지가 증가하고 있다는 것입니다.
역사적 경험에서 일반적으로 이론(가설)이 먼저 나타나고 그 다음 아이디어가 공식화됩니다. 그러나 딥러닝은 이를 뒤집는 새로운 과학적 과정을 열었습니다. 즉, 방법은 이론에 집중하기 전에 최첨단 성능을 입증해야 합니다. 경험적 결과가 가장 중요하고 이론은 선택 사항입니다.
이로 인해 현장에서 이론을 의미있게 발전시키는 것이 아니라 단순히 기존 방법을 수정하고 무작위성에 의존하여 기준을 뛰어넘는 방식으로 최신 최첨단 결과를 달성하기 위한 기계 학습 연구의 체계적이고 광범위한 게임이 이루어졌습니다. 그러나 아마도 이것이 새로운 기계 학습 붐에 대해 우리가 지불하는 대가일 것입니다.
그림 3: 2022년 딥 러닝 개발의 3가지 잠재적 궤도.
2022년은 딥 러닝이 돌이킬 수 없을 정도로 결과 지향적인 프로세스가 되고 이론적 이해를 선택 사항으로 격하시키는 전환점이 될 수 있습니다. 우리는 다음 질문에 대해 생각해야 합니다.
이론적 혁신을 통해 우리의 이해가 실용성을 따라잡고 딥 러닝을 전통적인 기계 학습과 같이 보다 구조화된 학문으로 전환할 수 있을까요?
기존 딥 러닝 문헌은 단순히 더 큰 모델로 확장하는 것만으로도 효용성을 무한정 늘릴 수 있을 만큼 충분합니까?
아니면 경험적 돌파구가 우리를 토끼굴 속으로 더 깊이 빠져들게 하여, 비록 우리가 그것에 대해 덜 알고 있음에도 불구하고 유용성을 향상시키는 새로운 패러다임으로 이끌까요?
이 경로 중 일반 인공 지능으로 이어지는 경로가 있나요? 단지 시간이 말해 줄 것이다.
위 내용은 머신러닝의 이론적 기반의 신뢰성을 어떻게 평가하나요?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!