目錄
五、隨機森林迴歸
首頁 科技週邊 人工智慧 常用的迴歸演算法及其特點在機器學習中的應用

常用的迴歸演算法及其特點在機器學習中的應用

Nov 29, 2023 pm 05:29 PM
機器學習 統計

迴歸是統計學中最有力的工具之一,機器學習監督學習演算法分為分類演算法和迴歸演算法兩種。迴歸演算法用於連續型分佈預測,可以預測連續型資料而不僅僅是離散的類別標籤。

迴歸分析在機器學習領域中廣泛應用,例如預測商品銷售、交通流量、房價以及天氣狀況等

迴歸演算法是一種常用的機器學習演算法,用於建立自變數X和因變數Y之間的關係。從機器學習的角度來看,它用於建立一個演算法模型(函數),以實現屬性X和標籤Y之間的映射關係。在學習過程中,演算法試圖找到最佳的參數關係,以使擬合程度最好

在迴歸演算法中,演算法(函數)的最終結果是一個連續的資料值。輸入值(屬性值)是一個d維度的屬性/數值向量

一些常用的迴歸演算法包括線性迴歸、多項式迴歸、決策樹迴歸、Ridge迴歸、Lasso迴歸、ElasticNet迴歸等等

本文將介紹一些常見的迴歸演算法,以及它們各自的特點

  • #線性迴歸
  • #多項式迴歸
  • 支援向量機迴歸
  • 決策樹迴歸
  • 隨機森林迴歸
  • #LASSO 回歸
  • Ridge 回歸
  • ElasticNet 回歸
  • ##XGBoost 回歸
  • 局部加權線性迴歸
#一、線性迴歸

線性迴歸通常是人們學習機器學習和資料科學的第一個演算法。線性迴歸是一種線性模型,它假設輸入變數 (X) 和單一輸出變數 (y) 之間存在線性關係。一般來說,有兩種情況:

單變數線性迴歸是一種建模方法,用於分析單一輸入變數(即單一特徵變數)與單一輸出變數之間的關係

多變量線性迴歸(也稱為多元線性迴歸):它對多個輸入變數(多個特徵變數)和單一輸出變數之間的關係進行建模。

關於線性迴歸的幾個關鍵點:

  • #快速且易於建模
  • 當要建模的關係不是非常複雜且您沒有大量資料時,它特別有用。
  • 非常直覺的理解與解釋。
  • 它對異常值非常敏感。
二、多項式迴歸

當我們想要為非線性可分資料建立模型時,多項式迴歸是最受歡迎的選擇之一。它類似於線性迴歸,但使用變數 X 和 y 之間的關係來找到繪製適合資料點的曲線的最佳方法。

關於多項式迴歸的幾個關鍵點:

  • #能夠對非線性可分資料進行建模;線性迴歸不能做到這一點。一般來說,它更加靈活,可以對一些相當複雜的關係進行建模。
  • 完全控制特徵變數的建模(要設定的指數)。
  • 需要精心設計。需要一些數據知識才能選擇最佳指數。
  • 如果指數選擇不當,則容易過度擬合。
三、支援向量機迴歸

支援向量機在分類問題中是眾所周知的。 SVM 在迴歸中的使用稱為支持向量迴歸(SVR)。 Scikit-learn在 SVR()中內建了這種方法。

關於支援向量迴歸的幾個關鍵點:

  • #它對異常值具有穩健性,並且在高維空間中有效
  • 它具有出色的泛化能力(能夠正確適應新的、以前看不見的數據)
  • #如果特徵數遠大於樣本數,則容易過度擬合
四、決策樹迴歸

決策樹是一種用於分類和迴歸的非參數監督學習方法。目標是創建一個模型,透過學習從資料特徵推斷出的簡單決策規則來預測目標變數的值。一棵樹可以看成是分段常數近似。

常用的迴歸演算法及其特點在機器學習中的應用

關於決策樹的幾個關鍵點:

  • 易於理解和解釋。樹可以可視化。
  • 適用於分類值和連續值
  • 使用DT(即預測資料)的成本與用於訓練樹的資料點數量成對數
  • 決策樹的預測既不平滑也不連續(如上圖所示為分段常數近似)

五、隨機森林迴歸

隨機森林迴歸與決策樹迴歸基本上非常相似。它是一種元估計器,可以在資料集的各個子樣本上擬合多個決策樹,並透過平均來提高預測準確性和控制過擬合

##隨機森林迴歸器在迴歸問題中的表現可能會優於決策樹,也可能不如決策樹(儘管在分類問題中通常更好),這是由於樹構造演算法本身存在微妙的過擬合和欠擬合的權衡

關於隨機森林迴歸的幾點:

  • 減少決策樹中的過度擬合並提高準確性。
  • 它也適用於分類值和連續值。
  • 需要大量運算能力和資源,因為它適合許多決策樹來組合它們的輸出。
六、LASSO 迴歸

LASSO迴歸是一種變體的收縮線性迴歸。收縮是將數據值收縮到中心點作為平均值的過程。這種迴歸類型非常適用於具有嚴重多重共線性(特徵之間高度相關)的模型

常用的迴歸演算法及其特點在機器學習中的應用

#關於Lasso 迴歸的幾點:

  • 它最常用於消除自動變數和選擇特徵。
  • 它非常適合顯示重度多重共線性(特徵彼此之間高度相關)的模型。
  • LASSO 迴歸利用L1 正規化
  • #LASSO 迴歸被認為比Ridge 更好,因為它只選擇了一些特徵並將其他特徵的係數降低到零。
七、嶺迴歸

嶺迴歸(Ridge regression)和LASSO迴歸非常相似,因為這兩種技巧都採用了收縮方法。 Ridge和LASSO回歸都非常適合具有嚴重多重共線性問題(即特徵之間高度相關)的模型。它們之間的主要差異在於Ridge使用L2正規化,這意味著沒有一個係數會像LASSO迴歸中那樣變為零(而是接近零)

常用的迴歸演算法及其特點在機器學習中的應用

關於嶺迴歸的幾點:

  • #它非常適合顯示重度多重共線性(特徵相互之間高度相關)的模型。
  • 嶺迴歸使用 L2 正規化。貢獻較小的特徵將具有接近零的係數。
  • 由於 L2 正規化的性質,嶺迴歸被認為比 LASSO 更差。
八、El​​asticNet 迴歸

ElasticNet 是另一個使用 L1 和 L2 正規化訓練的線性迴歸模型。它是 Lasso 和 Ridge 回歸技術的混合體,因此它也非常適合顯示重度多重共線性(特徵相互之間高度相關)的模型。

在權衡Lasso和Ridge之間時,一個實際的優勢是Elastic-Net可以在旋轉下繼承Ridge的一些穩定性

九、 XGBoost 迴歸

XGBoost 是梯度提升演算法的一種高效且有效的實作。梯度提升是一類可用於分類或迴歸問題的整合機器學習演算法

XGBoost是一個開源函式庫,最初由陳天奇在他於2016年的論文《XGBoost: A Scalable Tree Boosting System》中開發。此演算法的設計旨在具有高效和效率的運算能力

A few points about XGBoost:

  • ##XGBoost does not perform well on sparse and unstructured data.
  • The algorithm is designed to be computationally efficient and efficient, but the training time is still quite long for large data sets.
  • It is sensitive to outliers.
10. Local Weighted Linear Regression

In Local Weights Linear Regression (Local Weights Linear Regression), we are also performing linear regression. However, unlike ordinary linear regression, locally weighted linear regression is a local linear regression method. By introducing weights (kernel functions), when making predictions, only some samples that are close to the test points are used to calculate the regression coefficients. Ordinary linear regression is global linear regression, which uses all samples to calculate the regression coefficient

Advantages, Disadvantages & Applicable Scenarios

##The advantage is to prevent under-fitting through kernel function weighting, but the disadvantage is also obvious that K needs to be debugged. When multiple linear regression is overfitting, you can try Gaussian kernel local weighting to prevent overfitting.

11. Bayesian Ridge Regression

The linear regression model solved using the Bayesian inference method is called Bayesian linear regression

Bayesian linear regression is a method that treats the parameters of a linear model as random variables and calculates the posterior through the prior. Bayesian linear regression can be solved by numerical methods, and under certain conditions, posterior or related statistics in analytical form can also be obtained

Bayesian linear regression has a Bayesian statistical model The basic properties of it can solve the probability density function of weight coefficients, conduct online learning and model hypothesis testing based on Bayes factor (Bayes factor)

Advantages and Disadvantages&Applicable Scenarios

#The advantage of Bayesian regression is that it has the ability to adapt to data, reuse data and prevent overfitting. In the estimation process, regularization terms can be introduced. For example, by introducing the L2 regularization term in Bayesian linear regression, Bayesian ridge regression can be realized.

The disadvantage is the learning process overhead Too big. When the number of features is less than 10, you can try Bayesian regression.

以上是常用的迴歸演算法及其特點在機器學習中的應用的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

<🎜>:泡泡膠模擬器無窮大 - 如何獲取和使用皇家鑰匙
3 週前 By 尊渡假赌尊渡假赌尊渡假赌
北端:融合系統,解釋
3 週前 By 尊渡假赌尊渡假赌尊渡假赌
Mandragora:巫婆樹的耳語 - 如何解鎖抓鉤
3 週前 By 尊渡假赌尊渡假赌尊渡假赌

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

熱門話題

Java教學
1664
14
CakePHP 教程
1423
52
Laravel 教程
1321
25
PHP教程
1269
29
C# 教程
1249
24
15個值得推薦的開源免費圖片標註工具 15個值得推薦的開源免費圖片標註工具 Mar 28, 2024 pm 01:21 PM

圖像標註是將標籤或描述性資訊與圖像相關聯的過程,以賦予圖像內容更深層的含義和解釋。這個過程對於機器學習至關重要,它有助於訓練視覺模型以更準確地識別圖像中的各個元素。透過為圖像添加標註,使得電腦能夠理解圖像背後的語義和上下文,從而提高對圖像內容的理解和分析能力。影像標註的應用範圍廣泛,涵蓋了許多領域,如電腦視覺、自然語言處理和圖視覺模型具有廣泛的應用領域,例如,輔助車輛識別道路上的障礙物,幫助疾病的檢測和診斷透過醫學影像識別。本文主要推薦一些較好的開源免費的圖片標註工具。 1.Makesens

一文帶您了解SHAP:機器學習的模型解釋 一文帶您了解SHAP:機器學習的模型解釋 Jun 01, 2024 am 10:58 AM

在機器學習和資料科學領域,模型的可解釋性一直是研究者和實踐者關注的焦點。隨著深度學習和整合方法等複雜模型的廣泛應用,理解模型的決策過程變得尤為重要。可解釋人工智慧(ExplainableAI|XAI)透過提高模型的透明度,幫助建立對機器學習模型的信任和信心。提高模型的透明度可以透過多種複雜模型的廣泛應用等方法來實現,以及用於解釋模型的決策過程。這些方法包括特徵重要性分析、模型預測區間估計、局部可解釋性演算法等。特徵重要性分析可以透過評估模型對輸入特徵的影響程度來解釋模型的決策過程。模型預測區間估計

透過學習曲線辨識過擬合和欠擬合 透過學習曲線辨識過擬合和欠擬合 Apr 29, 2024 pm 06:50 PM

本文將介紹如何透過學習曲線來有效辨識機器學習模型中的過度擬合和欠擬合。欠擬合和過擬合1、過擬合如果一個模型對資料進行了過度訓練,以至於它從中學習了噪聲,那麼這個模型就被稱為過擬合。過度擬合模型非常完美地學習了每一個例子,所以它會錯誤地分類一個看不見的/新的例子。對於一個過度擬合的模型,我們會得到一個完美/接近完美的訓練集分數和一個糟糕的驗證集/測試分數。略有修改:"過擬合的原因:用一個複雜的模型來解決一個簡單的問題,從資料中提取雜訊。因為小資料集作為訓練集可能無法代表所有資料的正確表示。"2、欠擬合如

人工智慧在太空探索和人居工程中的演變 人工智慧在太空探索和人居工程中的演變 Apr 29, 2024 pm 03:25 PM

1950年代,人工智慧(AI)誕生。當時研究人員發現機器可以執行類似人類的任務,例如思考。後來,在1960年代,美國國防部資助了人工智慧,並建立了實驗室進行進一步開發。研究人員發現人工智慧在許多領域都有用武之地,例如太空探索和極端環境中的生存。太空探索是對宇宙的研究,宇宙涵蓋了地球以外的整個宇宙空間。太空被歸類為極端環境,因為它的條件與地球不同。要在太空中生存,必須考慮許多因素,並採取預防措施。科學家和研究人員認為,探索太空並了解一切事物的現狀有助於理解宇宙的運作方式,並為潛在的環境危機

通透!機器學習各大模型原理的深度剖析! 通透!機器學習各大模型原理的深度剖析! Apr 12, 2024 pm 05:55 PM

通俗來說,機器學習模型是一種數學函數,它能夠將輸入資料映射到預測輸出。更具體地說,機器學習模型是一種透過學習訓練數據,來調整模型參數,以最小化預測輸出與真實標籤之間的誤差的數學函數。在機器學習中存在多種模型,例如邏輯迴歸模型、決策樹模型、支援向量機模型等,每種模型都有其適用的資料類型和問題類型。同時,不同模型之間存在著許多共通性,或者說有一條隱藏的模型演化的路徑。將聯結主義的感知機為例,透過增加感知機的隱藏層數量,我們可以將其轉化為深度神經網路。而對感知機加入核函數的話就可以轉換為SVM。這一

使用C++實現機器學習演算法:常見挑戰及解決方案 使用C++實現機器學習演算法:常見挑戰及解決方案 Jun 03, 2024 pm 01:25 PM

C++中機器學習演算法面臨的常見挑戰包括記憶體管理、多執行緒、效能最佳化和可維護性。解決方案包括使用智慧指標、現代線程庫、SIMD指令和第三方庫,並遵循程式碼風格指南和使用自動化工具。實作案例展示如何利用Eigen函式庫實現線性迴歸演算法,有效地管理記憶體和使用高效能矩陣操作。

你所不知道的機器學習五大學派 你所不知道的機器學習五大學派 Jun 05, 2024 pm 08:51 PM

機器學習是人工智慧的重要分支,它賦予電腦從數據中學習的能力,並能夠在無需明確編程的情況下改進自身能力。機器學習在各個領域都有廣泛的應用,從影像辨識和自然語言處理到推薦系統和詐欺偵測,它正在改變我們的生活方式。機器學習領域存在著多種不同的方法和理論,其中最具影響力的五種方法被稱為「機器學習五大派」。這五大派分別為符號派、聯結派、進化派、貝葉斯派和類推學派。 1.符號學派符號學(Symbolism),又稱符號主義,強調利用符號進行邏輯推理和表達知識。該學派認為學習是一種逆向演繹的過程,透過現有的

Flash Attention穩定嗎? Meta、哈佛發現其模型權重偏差呈現數量級波動 Flash Attention穩定嗎? Meta、哈佛發現其模型權重偏差呈現數量級波動 May 30, 2024 pm 01:24 PM

MetaFAIR聯合哈佛優化大規模機器學習時所產生的資料偏差,提供了新的研究架構。據所周知,大語言模型的訓練常常需要數月的時間,使用數百甚至上千個GPU。以LLaMA270B模型為例,其訓練總共需要1,720,320個GPU小時。由於這些工作負載的規模和複雜性,導致訓練大模型存在著獨特的系統性挑戰。最近,許多機構在訓練SOTA生成式AI模型時報告了訓練過程中的不穩定情況,它們通常以損失尖峰的形式出現,例如Google的PaLM模型訓練過程中出現了多達20次的損失尖峰。數值偏差是造成這種訓練不準確性的根因,

See all articles