Maison > Périphériques technologiques > IA > Visualisation étape par étape du processus de prise de décision de l'algorithme de boosting de gradient

Visualisation étape par étape du processus de prise de décision de l'algorithme de boosting de gradient

王林
Libérer: 2023-04-13 17:52:03
avant
1257 Les gens l'ont consulté

L'algorithme d'augmentation du gradient est l'une des techniques d'apprentissage automatique d'ensemble les plus couramment utilisées. Ce modèle utilise une séquence d'arbres de décision faibles pour construire un apprenant fort. C'est également la base théorique des modèles XGBoost et LightGBM, donc dans cet article, nous allons construire un modèle d'amplification de gradient à partir de zéro et le visualiser.

Introduction à l'algorithme de boosting de gradient

L'algorithme de boosting de gradient (Gradient Boosting) est un algorithme d'apprentissage d'ensemble qui améliore la précision de prédiction du modèle en construisant plusieurs classificateurs faibles, puis en les combinant en un classificateur fort.

Le principe de l'algorithme de boosting de gradient peut être divisé en les étapes suivantes :

  1. Initialisation du modèle : De manière générale, nous pouvons utiliser un modèle simple (comme un arbre de décision) comme classificateur initial.
  2. Calculer le gradient négatif de la fonction de perte : calculez le gradient négatif de la fonction de perte sous le modèle actuel pour chaque point d'échantillonnage. Cela équivaut à demander au nouveau classificateur d'adapter l'erreur au modèle actuel.
  3. Former un nouveau classificateur : utilisez ces gradients négatifs comme variables cibles pour former un nouveau classificateur faible. Ce classificateur faible peut être n'importe quel classificateur, tel qu'un arbre de décision, un modèle linéaire, etc.
  4. Mettre à jour le modèle : ajoutez de nouveaux classificateurs au modèle d'origine et combinez-les à l'aide d'une moyenne pondérée ou d'autres méthodes.
  5. Répéter l'itération : répétez les étapes ci-dessus jusqu'à ce que le nombre d'itérations prédéfini soit atteint ou que la précision prédéfinie soit atteinte.

Étant donné que l'algorithme d'augmentation du gradient est un algorithme en série, sa vitesse d'entraînement peut être plus lente. Présentons-le avec un exemple pratique :

Supposons que nous ayons un ensemble de fonctionnalités Xi et une valeur Yi, et que nous souhaitions calculer y Meilleure estimation.

Visualisation étape par étape du processus de prise de décision de lalgorithme de boosting de gradient

Nous commençons par la moyenne de y

Visualisation étape par étape du processus de prise de décision de lalgorithme de boosting de gradient

À chaque étape, nous voulons que F_m(x) soit plus proche de y|x.

Visualisation étape par étape du processus de prise de décision de lalgorithme de boosting de gradient

A chaque étape, nous voulons que F_m(x) soit une meilleure approximation de y étant donné x.

D'abord, on définit une fonction de perte

Visualisation étape par étape du processus de prise de décision de l'algorithme de boosting de gradient

Ensuite, on va dans le sens où la fonction de perte décroît le plus rapidement par rapport à l'apprenant Fm :

Visualisation étape par étape du processus de prise de décision de l'algorithme de boosting de gradient

car on ne peut pas calculer y pour chaque x , donc la valeur exacte de ce gradient n'est pas connue, mais pour chaque x_i dans les données d'entraînement, le gradient est exactement égal au résidu de l'étape m : r_i !

Nous pouvons donc utiliser un arbre de régression faible h_m pour approximez la fonction de gradient g_m, pour la formation résiduelle Perform :

Visualisation étape par étape du processus de prise de décision de l'algorithme de boosting de gradient

Ensuite, nous mettons à jour l'apprenant

Visualisation étape par étape du processus de prise de décision de l'algorithme de boosting de gradient

Il s'agit d'une augmentation de gradient au lieu d'utiliser le vrai gradient g_m de la fonction de perte par rapport à. l'apprenant actuel pour mettre à jour l'apprenant actuel F_{m }, utilisez plutôt l'arbre de régression faible h_m pour le mettre à jour.

Visualisation étape par étape du processus de prise de décision de lalgorithme de boosting de gradient

Autrement dit, répétez les étapes suivantes

1. Calculez le résidu :

Visualisation étape par étape du processus de prise de décision de lalgorithme de boosting de gradient

2. Ajustez l'arbre de régression h_m à l'échantillon d'entraînement et à son résidu (x_i, r_i)

3. le modèle de mise à jour alpha par étape

Visualisation étape par étape du processus de prise de décision de lalgorithme de boosting de gradient

semble compliqué, n'est-ce pas ? Visualisons le processus et il deviendra très clair

Visualisation du processus de prise de décision

Ici, nous utilisons l'ensemble de données lunaires de sklearn, car il s'agit d'un Données catégorielles non linéaires classiques

import numpy as np
 import sklearn.datasets as ds
 import pandas as pd
 import matplotlib.pyplot as plt
 import matplotlib as mpl
 
 from sklearn import tree
 from itertools import product,islice
 import seaborn as snsmoonDS = ds.make_moons(200, noise = 0.15, random_state=16)
 moon = moonDS[0]
 color = -1*(moonDS[1]*2-1)
 
 df =pd.DataFrame(moon, columns = ['x','y'])
 df['z'] = color
 df['f0'] =df.y.mean()
 df['r0'] = df['z'] - df['f0']
 df.head(10)
Copier après la connexion

Visualisons les données :

Visualisation étape par étape du processus de prise de décision de l'algorithme de boosting de gradient

下图可以看到,该数据集是可以明显的区分出分类的边界的,但是因为他是非线性的,所以使用线性算法进行分类时会遇到很大的困难。

Visualisation étape par étape du processus de prise de décision de l'algorithme de boosting de gradient

那么我们先编写一个简单的梯度增强模型:

def makeiteration(i:int):
"""Takes the dataframe ith f_i and r_i and approximated r_i from the features, then computes f_i+1 and r_i+1"""
clf = tree.DecisionTreeRegressor(max_depth=1)
clf.fit(X=df[['x','y']].values, y = df[f'r{i-1}'])
df[f'r{i-1}hat'] = clf.predict(df[['x','y']].values)
 
eta = 0.9
df[f'f{i}'] = df[f'f{i-1}'] + eta*df[f'r{i-1}hat']
df[f'r{i}'] = df['z'] - df[f'f{i}']
rmse = (df[f'r{i}']**2).sum()
clfs.append(clf)
rmses.append(rmse)
Copier après la connexion

上面代码执行3个简单步骤:

将决策树与残差进行拟合:

clf.fit(X=df[['x','y']].values, y = df[f'r{i-1}'])
 df[f'r{i-1}hat'] = clf.predict(df[['x','y']].values)
Copier après la connexion

然后,我们将这个近似的梯度与之前的学习器相加:

df[f'f{i}'] = df[f'f{i-1}'] + eta*df[f'r{i-1}hat']
Copier après la connexion

最后重新计算残差:

df[f'r{i}'] = df['z'] - df[f'f{i}']
Copier après la connexion

步骤就是这样简单,下面我们来一步一步执行这个过程。

第1次决策

Visualisation étape par étape du processus de prise de décision de lalgorithme de boosting de gradient

Tree Split for 0 and level 1.563690960407257

Visualisation étape par étape du processus de prise de décision de lalgorithme de boosting de gradient

第2次决策

Visualisation étape par étape du processus de prise de décision de l'algorithme de boosting de gradient

Tree Split for 1 and level 0.5143677890300751

Visualisation étape par étape du processus de prise de décision de l'algorithme de boosting de gradient

第3次决策

Visualisation étape par étape du processus de prise de décision de l'algorithme de boosting de gradient

Tree Split for 0 and level -0.6523728966712952

Visualisation étape par étape du processus de prise de décision de lalgorithme de boosting de gradient

第4次决策

Visualisation étape par étape du processus de prise de décision de lalgorithme de boosting de gradient

Tree Split for 0 and level 0.3370491564273834

Visualisation étape par étape du processus de prise de décision de lalgorithme de boosting de gradient

第5次决策

Visualisation étape par étape du processus de prise de décision de lalgorithme de boosting de gradient

Tree Split for 0 and level 0.3370491564273834

Visualisation étape par étape du processus de prise de décision de lalgorithme de boosting de gradient

第6次决策

Visualisation étape par étape du processus de prise de décision de lalgorithme de boosting de gradient

Tree Split for 1 and level 0.022058885544538498

Visualisation étape par étape du processus de prise de décision de lalgorithme de boosting de gradient

第7次决策

Visualisation étape par étape du processus de prise de décision de lalgorithme de boosting de gradient

Tree Split for 0 and level -0.3030575215816498

Visualisation étape par étape du processus de prise de décision de lalgorithme de boosting de gradient

第8次决策

Visualisation étape par étape du processus de prise de décision de lalgorithme de boosting de gradient

Tree Split for 0 and level 0.6119407713413239

Visualisation étape par étape du processus de prise de décision de lalgorithme de boosting de gradient

第9次决策

Visualisation étape par étape du processus de prise de décision de lalgorithme de boosting de gradient

可以看到通过9次的计算,基本上已经把上面的分类进行了区分

Visualisation étape par étape du processus de prise de décision de lalgorithme de boosting de gradient

我们这里的学习器都是非常简单的决策树,只沿着一个特征分裂!但整体模型在每次决策后边的越来越复杂,并且整体误差逐渐减小。

plt.plot(rmses)
Copier après la connexion

Visualisation étape par étape du processus de prise de décision de lalgorithme de boosting de gradient

这也就是上图中我们看到的能够正确区分出了大部分的分类

如果你感兴趣可以使用下面代码自行实验:

​https://www.php.cn/link/bfc89c3ee67d881255f8b097c4ed2d67​


Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal