機器學習中七種常用的線性降維技術總結
上篇文章中我們主要總結了非線性的降維技術,本文我們來總結常見的線性降維技術。
1、Principal Component Analysis (PCA)
PCA是一種廣泛應用的降維技術,可以將高維度資料集轉換為更易處理的低維表示,同時保留資料的關鍵特徵。透過辨識資料中方差最大的方向(主成分),PCA能夠將資料投影到這些方向上,實現降維的目標。
PCA的核心思想是將原始資料轉換到一個新的座標系,以最大化資料的變異數。這些新座標軸稱為主成分,由原始特徵線性組合而成。保留方差最大的主成分,實質上保留了資料的關鍵資訊。透過捨棄方差較小的主成分,可以實現降維的目的。
PCA 的步驟如下:
- 標準化資料:將原始資料標準化處理,使得每個特徵的平均值為 0,變異數為 1。
- 計算協方差矩陣:計算標準化後的資料的協方差矩陣。
- 計算特徵值和特徵向量:對協方差矩陣進行特徵值分解,得到特徵值和對應的特徵向量。
- 選擇主成分:依照特徵值的大小選擇前 k 個特徵向量作為主成分,其中 k 是降維後的維度。
- 投影資料:將原始資料投影到選定的主成分上,得到降維後的資料集。
PCA可以用於資料降維、特徵提取和模式識別等任務。在使用PCA時,需要確保資料符合線性可分的基本假設,並進行必要的資料預處理和理解,以獲得準確的降維效果。
2、Factor Analysis (FA)
Factor Analysis (FA) is a statistical technique used to identify the underlying structure or factors among observed variables. It aims to uncover the latent factors that account for the shared variance among the observed variables, ultimately reducing them to a smaller number of unrelated variables.
FA 和PCA 有些相似,但也有一些重要的區別:
- #FA 和PCA 有些相似,但也有一些重要的區別:
- #FA 和PCA 有些相似,但也有一些重要的區別:
#FA 和PCA 有些相似,但也有一些重要的區別:
目標:PCA 旨在找到最大變異數的方向,而FA 旨在找到潛在的變數(因素),這些變數能夠解釋觀察到的變數之間的共同變異。 假設:PCA 假設觀察到的變數是觀察到的原始特徵,而 FA 假設觀察到的變數是潛在因素的線性組合和隨機誤差的總和。解釋性:PCA 往往更直接,因為它的主成分是原始特徵的線性組合。而 FA 的因素可能不太容易解釋,因為它們是觀察到的變數的線性組合,而非原始特徵。
旋轉:在 FA 中,因素通常會進行旋轉,以使它們更易於解釋。
######因子分析在心理學、社會科學和市場研究等領域廣泛應用。它有助於簡化資料集、發現潛在結構和減少測量誤差。但在選擇因子數量和旋轉方法時需慎重,以確保結果可解釋且有效。 ######3、Linear Discriminant Analysis,LDA######線性判別分析(Linear Discriminant Analysis,LDA)是一種用於降維和特徵提取的監督學習技術。它與主成分分析(PCA)不同,因為它不僅考慮了資料的變異數結構,還考慮了資料的類別資訊。 LDA 旨在找到一個投影方向,最大化不同類別之間的距離(類間散佈),同時最小化同一類別內部的距離(類內散佈)。 ###############LDA 的主要步驟如下:###- 計算類別的平均值向量:對於每個類別,計算該類別下所有樣本的平均值向量。
- 計算類別內散佈矩陣(Within-class scatter matrix):對於每個類別,計算該類別下所有樣本與其平均值向量之間的散佈矩陣,並將它們求和。
- 計算類間散佈矩陣(Between-class scatter matrix):計算所有類別的平均值向量與總體平均值向量之間的散佈矩陣。
- 計算特徵值和特徵向量:對於矩陣的逆矩陣乘以類間散佈矩陣,得到的矩陣進行特徵值分解,得到特徵值和特徵向量。
- 選擇投影方向:選擇特徵值最大的前 k 個特徵向量作為投影方向,其中 k 是降維後的維度。
- 投影資料:將原始資料投影到選定的投影方向上,得到降維後的資料。
LDA 的優點在於它考慮了資料的類別訊息,因此產生的投影能更好地區分不同類別之間的差異。它在模式識別、人臉辨識、語音辨識等領域中有著廣泛的應用。 LDA 在處理多類別和類別不平衡的情況下可能會遇到一些問題,需要特別注意。
4、Eigendecomposition
Eigendecomposition(特徵值分解)是一種用於對方陣進行分解的數學技術。它將一個方陣分解為一組特徵向量和特徵值的乘積形式。特徵向量表示了在轉換中不改變方向的方向,而特徵值表示了在轉換中沿著這些方向的縮放比例。
給定方陣AA,其特徵值分解表示為:
其中,Q是由A的特徵向量所組成的矩陣,Λ是對角矩陣,其對角線上的元素是A的特徵值。
特徵值分解有許多應用,包括主成分分析(PCA)、特徵臉辨識、譜聚類等。在PCA中,特徵值分解用於找到資料協方差矩陣的特徵向量,從而找到資料的主成分。在譜聚類中,特徵值分解用於找到相似性圖的特徵向量,從而進行聚類。特徵臉辨識利用了特徵值分解來辨識人臉影像中的重要特徵。
雖然特徵值分解在許多應用中非常有用,但並非所有的方陣都能進行特徵值分解。例如,奇異矩陣(singular matrix)或非方陣就不能進行特徵值分解。特徵值分解在大型矩陣計算上可能是非常耗時的。
5、Singular value decomposition (SVD)
奇異值分解(Singular Value Decomposition,SVD)是一種用於矩陣分解的重要技術。它將一個矩陣分解為三個矩陣的乘積形式,這三個矩陣分別是一個正交矩陣、一個對角矩陣和另一個正交矩陣的轉置。
給定一個m × n 的矩陣AA,其奇異值分解表示為:
其中,U 是一個m × m 的正交矩陣,稱為左奇異向量矩陣;Σ 是一個m × n 的對角矩陣,其對角線上的元素稱為奇異值;VT 是一個n × n 的正交矩陣的轉置,稱為右奇異向量矩陣。
奇異值分解有廣泛的應用,包括資料壓縮、降維、矩陣逆求解、推薦系統等。在降維中,只保留奇異值較大的項,可以實現對資料的有效壓縮和表示。在推薦系統中,透過奇異值分解可以對使用者和項目之間的關係進行建模,從而提供個人化的推薦。
奇異值分解也可以用於矩陣逆求解,特別是對於奇異矩陣。保留奇異值較大的項,可以近似求解逆矩陣,從而避免了對奇異矩陣求逆的問題。
6、Truncated Singular Value Decomposition (TSVD)
截斷奇異值分解(Truncated Singular Value Decomposition,TSVD)是奇異值分解(SVD)的變體,它在計算中只保留最重要的奇異值和對應的奇異向量,從而實現資料的降維和壓縮。
給定一個m × n 的矩陣AA,其截斷奇異值分解表示為:
其中,Uk 是m × k 的正交矩陣,Σk 是一個k × k 的對角矩陣,VkT 是一個k × n 的正交矩陣的轉置,這些矩陣對應於保留最重要的k 個奇異值和對應的奇異向量。
TSVD 的主要优点在于它可以通过保留最重要的奇异值和奇异向量来实现数据的降维和压缩,从而减少了存储和计算成本。这在处理大规模数据集时尤其有用,因为可以显著减少所需的存储空间和计算时间。
TSVD 在许多领域都有应用,包括图像处理、信号处理、推荐系统等。在这些应用中,TSVD 可以用于降低数据的维度、去除噪声、提取关键特征等。
7、Non-Negative Matrix Factorization (NMF)
Non-Negative Matrix Factorization (NMF) 是一种用于数据分解和降维的技术,其特点是分解得到的矩阵和向量都是非负的。这使得 NMF 在许多应用中都很有用,特别是在文本挖掘、图像处理和推荐系统等领域。
给定一个非负矩阵 VV,NMF 将其分解为两个非负矩阵 WW 和 HH 的乘积形式:
其中,W 是一个 m × k 的非负矩阵,称为基矩阵(basis matrix)或者特征矩阵(feature matrix),H 是一个 k × n 的非负矩阵,称为系数矩阵(coefficient matrix)。这里的 k 是降维后的维度。
NMF 的优点在于它能够得到具有物理含义的分解结果,因为所有的元素都是非负的。这使得 NMF 在文本挖掘中能够发现潜在的主题,而在图像处理中能够提取出图像的特征。此外,NMF 还具有数据降维的功能,可以减少数据的维度和存储空间。
NMF 的应用包括文本主题建模、图像分割与压缩、音频信号处理、推荐系统等。在这些领域中,NMF 被广泛应用于数据分析和特征提取,以及信息检索和分类等任务中。
总结
线性降维技术是一类用于将高维数据集映射到低维空间的技术,其核心思想是通过线性变换来保留数据集的主要特征。这些线性降维技术在不同的应用场景中有其独特的优势和适用性,可以根据数据的性质和任务的要求选择合适的方法。例如,PCA适用于无监督的数据降维,而LDA适用于监督学习任务。
结合前一篇文章,我们介绍了10种非线性降维技术核7种线性降维技术,下面我们来做个总结
线性降维技术:基于线性变换将数据映射到低维空间,适用于线性可分的数据集;例如数据点分布在一个线性子空间上的情况;因为其算法简单,所以计算效率高,易于理解和实现;通常不能捕捉数据中的非线性结构,可能会导致信息丢失。
非线性降维技术:通过非线性变换将数据映射到低维空间;适用于非线性结构的数据集,例如数据点分布在流形上的情况;能够更好地保留数据中的非线性结构和局部关系,提供更好的可视化效果;计算复杂度较高,通常需要更多的计算资源和时间。
如果数据是线性可分的或者计算资源有限,可以选择线性降维技术。而如果数据包含复杂的非线性结构或者需要更好的可视化效果,可以考虑使用非线性降维技术。在实践中,也可以尝试不同的方法,并根据实际效果来选择最合适的降维技术。
以上是機器學習中七種常用的線性降維技術總結的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

圖像標註是將標籤或描述性資訊與圖像相關聯的過程,以賦予圖像內容更深層的含義和解釋。這個過程對於機器學習至關重要,它有助於訓練視覺模型以更準確地識別圖像中的各個元素。透過為圖像添加標註,使得電腦能夠理解圖像背後的語義和上下文,從而提高對圖像內容的理解和分析能力。影像標註的應用範圍廣泛,涵蓋了許多領域,如電腦視覺、自然語言處理和圖視覺模型具有廣泛的應用領域,例如,輔助車輛識別道路上的障礙物,幫助疾病的檢測和診斷透過醫學影像識別。本文主要推薦一些較好的開源免費的圖片標註工具。 1.Makesens

在機器學習和資料科學領域,模型的可解釋性一直是研究者和實踐者關注的焦點。隨著深度學習和整合方法等複雜模型的廣泛應用,理解模型的決策過程變得尤為重要。可解釋人工智慧(ExplainableAI|XAI)透過提高模型的透明度,幫助建立對機器學習模型的信任和信心。提高模型的透明度可以透過多種複雜模型的廣泛應用等方法來實現,以及用於解釋模型的決策過程。這些方法包括特徵重要性分析、模型預測區間估計、局部可解釋性演算法等。特徵重要性分析可以透過評估模型對輸入特徵的影響程度來解釋模型的決策過程。模型預測區間估計

本文將介紹如何透過學習曲線來有效辨識機器學習模型中的過度擬合和欠擬合。欠擬合和過擬合1、過擬合如果一個模型對資料進行了過度訓練,以至於它從中學習了噪聲,那麼這個模型就被稱為過擬合。過度擬合模型非常完美地學習了每一個例子,所以它會錯誤地分類一個看不見的/新的例子。對於一個過度擬合的模型,我們會得到一個完美/接近完美的訓練集分數和一個糟糕的驗證集/測試分數。略有修改:"過擬合的原因:用一個複雜的模型來解決一個簡單的問題,從資料中提取雜訊。因為小資料集作為訓練集可能無法代表所有資料的正確表示。"2、欠擬合如

1950年代,人工智慧(AI)誕生。當時研究人員發現機器可以執行類似人類的任務,例如思考。後來,在1960年代,美國國防部資助了人工智慧,並建立了實驗室進行進一步開發。研究人員發現人工智慧在許多領域都有用武之地,例如太空探索和極端環境中的生存。太空探索是對宇宙的研究,宇宙涵蓋了地球以外的整個宇宙空間。太空被歸類為極端環境,因為它的條件與地球不同。要在太空中生存,必須考慮許多因素,並採取預防措施。科學家和研究人員認為,探索太空並了解一切事物的現狀有助於理解宇宙的運作方式,並為潛在的環境危機

通俗來說,機器學習模型是一種數學函數,它能夠將輸入資料映射到預測輸出。更具體地說,機器學習模型是一種透過學習訓練數據,來調整模型參數,以最小化預測輸出與真實標籤之間的誤差的數學函數。在機器學習中存在多種模型,例如邏輯迴歸模型、決策樹模型、支援向量機模型等,每種模型都有其適用的資料類型和問題類型。同時,不同模型之間存在著許多共通性,或者說有一條隱藏的模型演化的路徑。將聯結主義的感知機為例,透過增加感知機的隱藏層數量,我們可以將其轉化為深度神經網路。而對感知機加入核函數的話就可以轉換為SVM。這一

C++中機器學習演算法面臨的常見挑戰包括記憶體管理、多執行緒、效能最佳化和可維護性。解決方案包括使用智慧指標、現代線程庫、SIMD指令和第三方庫,並遵循程式碼風格指南和使用自動化工具。實作案例展示如何利用Eigen函式庫實現線性迴歸演算法,有效地管理記憶體和使用高效能矩陣操作。

機器學習是人工智慧的重要分支,它賦予電腦從數據中學習的能力,並能夠在無需明確編程的情況下改進自身能力。機器學習在各個領域都有廣泛的應用,從影像辨識和自然語言處理到推薦系統和詐欺偵測,它正在改變我們的生活方式。機器學習領域存在著多種不同的方法和理論,其中最具影響力的五種方法被稱為「機器學習五大派」。這五大派分別為符號派、聯結派、進化派、貝葉斯派和類推學派。 1.符號學派符號學(Symbolism),又稱符號主義,強調利用符號進行邏輯推理和表達知識。該學派認為學習是一種逆向演繹的過程,透過現有的

MetaFAIR聯合哈佛優化大規模機器學習時所產生的資料偏差,提供了新的研究架構。據所周知,大語言模型的訓練常常需要數月的時間,使用數百甚至上千個GPU。以LLaMA270B模型為例,其訓練總共需要1,720,320個GPU小時。由於這些工作負載的規模和複雜性,導致訓練大模型存在著獨特的系統性挑戰。最近,許多機構在訓練SOTA生成式AI模型時報告了訓練過程中的不穩定情況,它們通常以損失尖峰的形式出現,例如Google的PaLM模型訓練過程中出現了多達20次的損失尖峰。數值偏差是造成這種訓練不準確性的根因,
