首頁 > 科技週邊 > 人工智慧 > 機器學習中必學的四種交叉驗證技術

機器學習中必學的四種交叉驗證技術

王林
發布: 2023-04-12 16:31:12
轉載
1913 人瀏覽過

介紹

考慮在資料集上建立模型,但它在看不見的資料上失敗。
我們不能簡單地將模型擬合到我們的訓練資料中,然後坐等它在真實的、看不見的資料上完美運行。

這是一個過度擬合的例子,我們的模型已經提取了訓練資料中的所有模式和雜訊。為了防止這種情況發生,我們需要一種方法來確保我們的模型已經捕獲了大多數模式並且不會拾取資料中的每一點雜訊(低偏差和低方差)。處理此問題的眾多技術之一是交叉驗證。

了解交叉驗證

假設在一個特定的資料集中,我們有 1000 筆記錄,我們train_test_split()在上面執行。假設我們有 70% 的訓練資料和 30% 的測試資料random_state = 0,這些參數導致 85% 的準確度。現在,如果我們設定random_state = 50假設準確度提高到 87%。

這表示如果我們繼續選擇不同random_state的精確度值,就會發生波動。為了防止這種情況,一種稱為交叉驗證的技術開始發揮作用。

交叉驗證的類型

留一交叉驗證(LOOCV)

機器學習中必學的四種交叉驗證技術

#在LOOCV中,我們選擇1 個數據點作為測試,剩下的所有資料都將是第一次迭代中的訓練資料。在下一次迭代中,我們將選擇下一個資料點作為測試,其餘的則作為訓練資料。我們將對整個資料集重複此操作,以便在最終迭代中選擇最後一個資料點作為測試。

通常,要計算迭代交叉驗證過程的交叉驗證 R²,您需要計算每次迭代的 R² 分數並取它們的平均值。

儘管它會導致對模型性能的可靠且無偏的估計,但它的執行計算成本很高。

2. K-fold 交叉驗證

機器學習中必學的四種交叉驗證技術

##在在 K-fold CV中,

我們將資料集拆分為k 個子集(稱為折疊),然後我們對所有子集進行訓練,但留下一個(k-1) 個子集用於評估訓練後的模型。

假設我們有 1000 筆記錄並且我們的 K=5。這個 K 值意味著我們有 5 次迭代。對於測試資料要考慮的第一次迭代的資料點數從一開始就是 1000/5=200。然後對於下一次迭代,隨後的 200 個數據點將被視為測試,依此類推。

為了計算整體準確度,我們計算每次迭代的準確度,然後取其平均值。

我們可以從這個過程中獲得的最小準確度將是所有迭代中產生的最低準確度,同樣,最大準確度將是所有迭代中產生的最高準確度。

3.分層交叉驗證

機器學習中必學的四種交叉驗證技術

#分層CV是常規k 折交叉驗證的擴展,但專門針對分類問題,其中的分割不是完全隨機的,目標類別之間的比率在每個折衷中與在完整資料集中的比率相同。

機器學習中必學的四種交叉驗證技術

假設我們有 1000 筆記錄,其中包含 600 筆是和 400 筆否。因此,在每個實驗中,它都會確保填充到訓練和測試中的隨機樣本的方式是,每個類別的至少一些實例將是存在於訓練和測試分裂中。 4.

時間序列交叉驗證

################################################################## ########在時間序列CV中有一系列測試集,每個測試集都包含一個觀察值。對應的訓練集僅包含在形成測試集的觀察值###之前發生的觀察值。 ###因此,未來的觀察不能用來建構預測。 ############預測精度是透過對測試集進行平均來計算的。此過程有時被稱為“對滾動預測原點的評估”,因為預測所基於的“原點”會及時前滾。 ######

結論

在機器學習中,我們通常不想要在訓練集上表現最好的演算法或模型。相反,我們需要一個在測試集上表現出色的模型,以及一個在給定新輸入資料時始終表現良好的模型。交叉驗證是確保我們能夠識別此類演算法或模型的關鍵步驟。

以上是機器學習中必學的四種交叉驗證技術的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板