目錄
介紹
了解交叉驗證
交叉驗證的類型
留一交叉驗證(LOOCV)
結論" >結論
首頁 科技週邊 人工智慧 機器學習中必學的四種交叉驗證技術

機器學習中必學的四種交叉驗證技術

Apr 12, 2023 pm 04:31 PM
機器學習 演算法 數據集

介紹

考慮在資料集上建立模型,但它在看不見的資料上失敗。
我們不能簡單地將模型擬合到我們的訓練資料中,然後坐等它在真實的、看不見的資料上完美運行。

這是一個過度擬合的例子,我們的模型已經提取了訓練資料中的所有模式和雜訊。為了防止這種情況發生,我們需要一種方法來確保我們的模型已經捕獲了大多數模式並且不會拾取資料中的每一點雜訊(低偏差和低方差)。處理此問題的眾多技術之一是交叉驗證。

了解交叉驗證

假設在一個特定的資料集中,我們有 1000 筆記錄,我們train_test_split()在上面執行。假設我們有 70% 的訓練資料和 30% 的測試資料random_state = 0,這些參數導致 85% 的準確度。現在,如果我們設定random_state = 50假設準確度提高到 87%。

這表示如果我們繼續選擇不同random_state的精確度值,就會發生波動。為了防止這種情況,一種稱為交叉驗證的技術開始發揮作用。

交叉驗證的類型

留一交叉驗證(LOOCV)

機器學習中必學的四種交叉驗證技術

#在LOOCV中,我們選擇1 個數據點作為測試,剩下的所有資料都將是第一次迭代中的訓練資料。在下一次迭代中,我們將選擇下一個資料點作為測試,其餘的則作為訓練資料。我們將對整個資料集重複此操作,以便在最終迭代中選擇最後一個資料點作為測試。

通常,要計算迭代交叉驗證過程的交叉驗證 R²,您需要計算每次迭代的 R² 分數並取它們的平均值。

儘管它會導致對模型性能的可靠且無偏的估計,但它的執行計算成本很高。

2. K-fold 交叉驗證

機器學習中必學的四種交叉驗證技術

##在在 K-fold CV中,

我們將資料集拆分為k 個子集(稱為折疊),然後我們對所有子集進行訓練,但留下一個(k-1) 個子集用於評估訓練後的模型。

假設我們有 1000 筆記錄並且我們的 K=5。這個 K 值意味著我們有 5 次迭代。對於測試資料要考慮的第一次迭代的資料點數從一開始就是 1000/5=200。然後對於下一次迭代,隨後的 200 個數據點將被視為測試,依此類推。

為了計算整體準確度,我們計算每次迭代的準確度,然後取其平均值。

我們可以從這個過程中獲得的最小準確度將是所有迭代中產生的最低準確度,同樣,最大準確度將是所有迭代中產生的最高準確度。

3.分層交叉驗證

機器學習中必學的四種交叉驗證技術

#分層CV是常規k 折交叉驗證的擴展,但專門針對分類問題,其中的分割不是完全隨機的,目標類別之間的比率在每個折衷中與在完整資料集中的比率相同。

機器學習中必學的四種交叉驗證技術

假設我們有 1000 筆記錄,其中包含 600 筆是和 400 筆否。因此,在每個實驗中,它都會確保填充到訓練和測試中的隨機樣本的方式是,每個類別的至少一些實例將是存在於訓練和測試分裂中。 4.

時間序列交叉驗證

################################################################## ########在時間序列CV中有一系列測試集,每個測試集都包含一個觀察值。對應的訓練集僅包含在形成測試集的觀察值###之前發生的觀察值。 ###因此,未來的觀察不能用來建構預測。 ############預測精度是透過對測試集進行平均來計算的。此過程有時被稱為“對滾動預測原點的評估”,因為預測所基於的“原點”會及時前滾。 ######

結論

在機器學習中,我們通常不想要在訓練集上表現最好的演算法或模型。相反,我們需要一個在測試集上表現出色的模型,以及一個在給定新輸入資料時始終表現良好的模型。交叉驗證是確保我們能夠識別此類演算法或模型的關鍵步驟。

以上是機器學習中必學的四種交叉驗證技術的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

一文帶您了解SHAP:機器學習的模型解釋 一文帶您了解SHAP:機器學習的模型解釋 Jun 01, 2024 am 10:58 AM

在機器學習和資料科學領域,模型的可解釋性一直是研究者和實踐者關注的焦點。隨著深度學習和整合方法等複雜模型的廣泛應用,理解模型的決策過程變得尤為重要。可解釋人工智慧(ExplainableAI|XAI)透過提高模型的透明度,幫助建立對機器學習模型的信任和信心。提高模型的透明度可以透過多種複雜模型的廣泛應用等方法來實現,以及用於解釋模型的決策過程。這些方法包括特徵重要性分析、模型預測區間估計、局部可解釋性演算法等。特徵重要性分析可以透過評估模型對輸入特徵的影響程度來解釋模型的決策過程。模型預測區間估計

使用C++實現機器學習演算法:常見挑戰及解決方案 使用C++實現機器學習演算法:常見挑戰及解決方案 Jun 03, 2024 pm 01:25 PM

C++中機器學習演算法面臨的常見挑戰包括記憶體管理、多執行緒、效能最佳化和可維護性。解決方案包括使用智慧指標、現代線程庫、SIMD指令和第三方庫,並遵循程式碼風格指南和使用自動化工具。實作案例展示如何利用Eigen函式庫實現線性迴歸演算法,有效地管理記憶體和使用高效能矩陣操作。

你所不知道的機器學習五大學派 你所不知道的機器學習五大學派 Jun 05, 2024 pm 08:51 PM

機器學習是人工智慧的重要分支,它賦予電腦從數據中學習的能力,並能夠在無需明確編程的情況下改進自身能力。機器學習在各個領域都有廣泛的應用,從影像辨識和自然語言處理到推薦系統和詐欺偵測,它正在改變我們的生活方式。機器學習領域存在著多種不同的方法和理論,其中最具影響力的五種方法被稱為「機器學習五大派」。這五大派分別為符號派、聯結派、進化派、貝葉斯派和類推學派。 1.符號學派符號學(Symbolism),又稱符號主義,強調利用符號進行邏輯推理和表達知識。該學派認為學習是一種逆向演繹的過程,透過現有的

Flash Attention穩定嗎? Meta、哈佛發現其模型權重偏差呈現數量級波動 Flash Attention穩定嗎? Meta、哈佛發現其模型權重偏差呈現數量級波動 May 30, 2024 pm 01:24 PM

MetaFAIR聯合哈佛優化大規模機器學習時所產生的資料偏差,提供了新的研究架構。據所周知,大語言模型的訓練常常需要數月的時間,使用數百甚至上千個GPU。以LLaMA270B模型為例,其訓練總共需要1,720,320個GPU小時。由於這些工作負載的規模和複雜性,導致訓練大模型存在著獨特的系統性挑戰。最近,許多機構在訓練SOTA生成式AI模型時報告了訓練過程中的不穩定情況,它們通常以損失尖峰的形式出現,例如Google的PaLM模型訓練過程中出現了多達20次的損失尖峰。數值偏差是造成這種訓練不準確性的根因,

為大模型提供全新科學複雜問答基準與評估體系,UNSW、阿貢、芝加哥大學等多家機構共同推出SciQAG框架 為大模型提供全新科學複雜問答基準與評估體系,UNSW、阿貢、芝加哥大學等多家機構共同推出SciQAG框架 Jul 25, 2024 am 06:42 AM

編輯|ScienceAI問答(QA)資料集在推動自然語言處理(NLP)研究中發揮著至關重要的作用。高品質QA資料集不僅可以用於微調模型,也可以有效評估大語言模型(LLM)的能力,尤其是針對科學知識的理解和推理能力。儘管目前已有許多科學QA數據集,涵蓋了醫學、化學、生物等領域,但這些數據集仍有一些不足之處。其一,資料形式較為單一,大多數為多項選擇題(multiple-choicequestions),它們易於進行評估,但限制了模型的答案選擇範圍,無法充分測試模型的科學問題解答能力。相比之下,開放式問答

可解釋性人工智慧:解釋複雜的AI/ML模型 可解釋性人工智慧:解釋複雜的AI/ML模型 Jun 03, 2024 pm 10:08 PM

譯者|李睿審校|重樓人工智慧(AI)和機器學習(ML)模型如今變得越來越複雜,這些模型產生的產出是黑盒子-無法向利害關係人解釋。可解釋性人工智慧(XAI)致力於透過讓利害關係人理解這些模型的工作方式來解決這個問題,確保他們理解這些模型實際上是如何做出決策的,並確保人工智慧系統中的透明度、信任度和問責制來解決這個問題。本文探討了各種可解釋性人工智慧(XAI)技術,以闡明它們的基本原理。可解釋性人工智慧至關重要的幾個原因信任度和透明度:為了讓人工智慧系統被廣泛接受和信任,使用者需要了解決策是如何做出的

改進的檢測演算法:用於高解析度光學遙感影像目標檢測 改進的檢測演算法:用於高解析度光學遙感影像目標檢測 Jun 06, 2024 pm 12:33 PM

01前景概要目前,難以在檢測效率和檢測結果之間取得適當的平衡。我們研究了一種用於高解析度光學遙感影像中目標偵測的增強YOLOv5演算法,利用多層特徵金字塔、多重偵測頭策略和混合注意力模組來提高光學遙感影像的目標偵測網路的效果。根據SIMD資料集,新演算法的mAP比YOLOv5好2.2%,比YOLOX好8.48%,在偵測結果和速度之間達到了更好的平衡。 02背景&動機隨著遠感技術的快速發展,高解析度光學遠感影像已被用於描述地球表面的許多物體,包括飛機、汽車、建築物等。目標檢測在遠感影像的解釋中

C++技術中的機器學習:使用C++實作常見機器學習演算法的指南 C++技術中的機器學習:使用C++實作常見機器學習演算法的指南 Jun 03, 2024 pm 07:33 PM

在C++中,機器學習演算法的實作方式包括:線性迴歸:用於預測連續變量,步驟包括載入資料、計算權重和偏差、更新參數和預測。邏輯迴歸:用於預測離散變量,流程與線性迴歸類似,但使用sigmoid函數進行預測。支援向量機:一種強大的分類和回歸演算法,涉及計算支援向量和預測標籤。

See all articles