Maison > Périphériques technologiques > IA > Que peuvent nous dire les graphiques de métriques de formation et de validation en matière d'apprentissage automatique ?

Que peuvent nous dire les graphiques de métriques de formation et de validation en matière d'apprentissage automatique ?

WBOY
Libérer: 2023-04-08 21:31:07
avant
1409 Les gens l'ont consulté

Dans cet article, nous résumerons les situations possibles lors de la formation et de la vérification et présenterons le type d'informations que ces graphiques peuvent nous fournir.

Que peuvent nous dire les graphiques de métriques de formation et de validation en matière d'apprentissage automatique ?

Commençons par un code simple Le code suivant établit un cadre de processus de formation de base.

from sklearn.model_selection import train_test_split<br>from sklearn.datasets import make_classification<br>import torch<br>from torch.utils.data import Dataset, DataLoader<br>import torch.optim as torch_optim<br>import torch.nn as nn<br>import torch.nn.functional as F<br>import numpy as np<br>import matplotlib.pyplot as pltclass MyCustomDataset(Dataset):<br>def __init__(self, X, Y, scale=False):<br>self.X = torch.from_numpy(X.astype(np.float32))<br>self.y = torch.from_numpy(Y.astype(np.int64))<br><br>def __len__(self):<br>return len(self.y)<br><br>def __getitem__(self, idx):<br>return self.X[idx], self.y[idx]def get_optimizer(model, lr=0.001, wd=0.0):<br>parameters = filter(lambda p: p.requires_grad, model.parameters())<br>optim = torch_optim.Adam(parameters, lr=lr, weight_decay=wd)<br>return optimdef train_model(model, optim, train_dl, loss_func):<br># Ensure the model is in Training mode<br>model.train()<br>total = 0<br>sum_loss = 0<br>for x, y in train_dl:<br>batch = y.shape[0]<br># Train the model for this batch worth of data<br>logits = model(x)<br># Run the loss function. We will decide what this will be when we call our Training Loop<br>loss = loss_func(logits, y)<br># The next 3 lines do all the PyTorch back propagation goodness<br>optim.zero_grad()<br>loss.backward()<br>optim.step()<br># Keep a running check of our total number of samples in this epoch<br>total += batch<br># And keep a running total of our loss<br>sum_loss += batch*(loss.item())<br>return sum_loss/total<br>def train_loop(model, train_dl, valid_dl, epochs, loss_func, lr=0.1, wd=0):<br>optim = get_optimizer(model, lr=lr, wd=wd)<br>train_loss_list = []<br>val_loss_list = []<br>acc_list = []<br>for i in range(epochs): <br>loss = train_model(model, optim, train_dl, loss_func)<br># After training this epoch, keep a list of progress of <br># the loss of each epoch <br>train_loss_list.append(loss)<br>val, acc = val_loss(model, valid_dl, loss_func)<br># Likewise for the validation loss and accuracy<br>val_loss_list.append(val)<br>acc_list.append(acc)<br>print("training loss: %.5f valid loss: %.5f accuracy: %.5f" % (loss, val, acc))<br><br>return train_loss_list, val_loss_list, acc_list<br>def val_loss(model, valid_dl, loss_func):<br># Put the model into evaluation mode, not training mode<br>model.eval()<br>total = 0<br>sum_loss = 0<br>correct = 0<br>batch_count = 0<br>for x, y in valid_dl:<br>batch_count += 1<br>current_batch_size = y.shape[0]<br>logits = model(x)<br>loss = loss_func(logits, y)<br>sum_loss += current_batch_size*(loss.item())<br>total += current_batch_size<br># All of the code above is the same, in essence, to<br># Training, so see the comments there<br># Find out which of the returned predictions is the loudest<br># of them all, and that's our prediction(s)<br>preds = logits.sigmoid().argmax(1)<br># See if our predictions are right<br>correct += (preds == y).float().mean().item()<br>return sum_loss/total, correct/batch_count<br>def view_results(train_loss_list, val_loss_list, acc_list):<br>plt.rcParams["figure.figsize"] = (15, 5)<br>plt.figure()<br>epochs = np.arange(0, len(train_loss_list)) plt.subplot(1, 2, 1)<br>plt.plot(epochs-0.5, train_loss_list)<br>plt.plot(epochs, val_loss_list)<br>plt.title('model loss')<br>plt.ylabel('loss')<br>plt.xlabel('epoch')<br>plt.legend(['train', 'val', 'acc'], loc = 'upper left')<br><br>plt.subplot(1, 2, 2)<br>plt.plot(acc_list)<br>plt.title('accuracy')<br>plt.ylabel('accuracy')<br>plt.xlabel('epoch')<br>plt.legend(['train', 'val', 'acc'], loc = 'upper left')<br>plt.show()<br><br>def get_data_train_and_show(model, batch_size=128, n_samples=10000, n_classes=2, n_features=30, val_size=0.2, epochs=20, lr=0.1, wd=0, break_it=False):<br># We'll make a fictitious dataset, assuming all relevant<br># EDA / Feature Engineering has been done and this is our <br># resultant data<br>X, y = make_classification(n_samples=n_samples, n_classes=n_classes, n_features=n_features, n_informative=n_features, n_redundant=0, random_state=1972)<br><br>if break_it: # Specifically mess up the data<br>X = np.random.rand(n_samples,n_features)<br>X_train, X_val, y_train, y_val = train_test_split(X, y, test_size=val_size, random_state=1972) train_ds = MyCustomDataset(X_train, y_train)<br>valid_ds = MyCustomDataset(X_val, y_val)<br>train_dl = DataLoader(train_ds, batch_size=batch_size, shuffle=True)<br>valid_dl = DataLoader(valid_ds, batch_size=batch_size, shuffle=True) train_loss_list, val_loss_list, acc_list = train_loop(model, train_dl, valid_dl, epochs=epochs, loss_func=F.cross_entropy, lr=lr, wd=wd)<br>view_results(train_loss_list, val_loss_list, acc_list)
Copier après la connexion

Le code ci-dessus est très simple, c'est un processus de base d'obtention de données, de formation et de vérification. Passons aux choses sérieuses.

Scénario 1 - Le modèle semble apprendre, mais ses performances sont médiocres en termes de validation ou de précision

La perte de train du modèle diminue lentement quels que soient les hyperparamètres, mais pas sa perte de Val et sa précision n'indique pas qu'il apprend quoi que ce soit.

Dans ce cas, par exemple, la précision de la classification binaire oscille autour de 50 %.

class Scenario_1_Model_1(nn.Module):<br>def __init__(self, in_features=30, out_features=2):<br>super().__init__()<br>self.lin1 = nn.Linear(in_features, out_features)<br>def forward(self, x):<br>x = self.lin1(x)<br>return x<br>get_data_train_and_show(Scenario_1_Model_1(), lr=0.001, break_it=True)
Copier après la connexion

Que peuvent nous dire les graphiques de métriques de formation et de validation en matière dapprentissage automatique ?

Il n'y a pas suffisamment d'informations dans les données pour permettre « l'apprentissage », les données d'entraînement peuvent ne pas contenir suffisamment d'informations pour permettre au modèle « d'apprendre ».

Dans ce cas (données aléatoires lors de l'entraînement des données dans le code), cela signifie qu'il ne peut rien apprendre de substantiel.

Les données doivent contenir suffisamment d'informations pour en tirer des leçons. L'EDA et l'ingénierie des fonctionnalités sont la clé ! Les modèles apprennent ce qui peut être appris, plutôt que d’inventer des choses qui n’existent pas.

Scénario 2 - Les courbes d'entraînement, de validation et de précision sont toutes très instables

Par exemple, le code suivant : lr=0.1, bs=128

class Scenario_2_Model_1(nn.Module):<br>def __init__(self, in_features=30, out_features=2):<br>super().__init__()<br>self.lin1 = nn.Linear(in_features, out_features)<br>def forward(self, x):<br>x = self.lin1(x)<br>return x<br>get_data_train_and_show(Scenario_2_Model_1(), lr=0.1)
Copier après la connexion

Que peuvent nous dire les graphiques de métriques de formation et de validation en matière dapprentissage automatique ?

"Le taux d'apprentissage est trop élevé" ou "le lot est trop élevé" petit", vous pouvez essayer de Le taux d'apprentissage est réduit de 0,1 à 0,001, ce qui signifie qu'il ne "rebondit" pas mais diminue progressivement.

get_data_train_and_show(Scenario_1_Model_1(), lr=0.001)
Copier après la connexion

Que peuvent nous dire les graphiques de métriques de formation et de validation en matière dapprentissage automatique ?

En plus de réduire le taux d'apprentissage, augmenter la taille du lot le rendra également plus fluide.

get_data_train_and_show(Scenario_1_Model_1(), lr=0.001, batch_size=256)
Copier après la connexion

Que peuvent nous dire les graphiques de métriques de formation et de validation en matière dapprentissage automatique ?

Scénario 3 - La perte d'entraînement est proche de zéro, la précision semble bonne, mais la validation ne baisse pas, et elle augmente également

class Scenario_3_Model_1(nn.Module):<br>def __init__(self, in_features=30, out_features=2):<br>super().__init__()<br>self.lin1 = nn.Linear(in_features, 50)<br>self.lin2 = nn.Linear(50, 150)<br>self.lin3 = nn.Linear(150, 50)<br>self.lin4 = nn.Linear(50, out_features)<br>def forward(self, x):<br>x = F.relu(self.lin1(x))<br>x = F.relu(self.lin2(x))<br>x = F.relu(self.lin3(x))<br>x = self.lin4(x)<br>return x<br>get_data_train_and_show(Scenario_3_Model_1(), lr=0.001)
Copier après la connexion

Que peuvent nous dire les graphiques de métriques de formation et de validation en matière dapprentissage automatique ?

C'est définitivement un surapprentissage : la perte d'entraînement est faible et une grande précision, tandis que la perte de validation et la perte de formation sont de plus en plus importantes, qui sont des indicateurs de surapprentissage classiques.

Fondamentalement parlant, votre capacité d'apprentissage de modèle est trop forte. Il se souvient trop bien des données d'entraînement, ce qui signifie qu'il ne peut pas non plus généraliser à de nouvelles données.

La première chose que nous pouvons essayer est de réduire la complexité du modèle.

class Scenario_3_Model_2(nn.Module):<br>def __init__(self, in_features=30, out_features=2):<br>super().__init__()<br>self.lin1 = nn.Linear(in_features, 50)<br>self.lin2 = nn.Linear(50, out_features)<br>def forward(self, x):<br>x = F.relu(self.lin1(x))<br>x = self.lin2(x)<br>return x<br>get_data_train_and_show(Scenario_3_Model_2(), lr=0.001)
Copier après la connexion

Que peuvent nous dire les graphiques de métriques de formation et de validation en matière dapprentissage automatique ?

Cela le rend meilleur, et une régularisation de la perte de poids L2 peut être introduite pour le rendre encore meilleur (pour les modèles moins profonds).

get_data_train_and_show(Scenario_3_Model_2(), lr=0.001, wd=0.02)
Copier après la connexion

Que peuvent nous dire les graphiques de métriques de formation et de validation en matière dapprentissage automatique ?

Si nous voulons conserver la profondeur et la taille du modèle, nous pouvons essayer d'utiliser le dropout (pour les modèles plus profonds).

class Scenario_3_Model_3(nn.Module):<br>def __init__(self, in_features=30, out_features=2):<br>super().__init__()<br>self.lin1 = nn.Linear(in_features, 50)<br>self.lin2 = nn.Linear(50, 150)<br>self.lin3 = nn.Linear(150, 50)<br>self.lin4 = nn.Linear(50, out_features)<br>self.drops = nn.Dropout(0.4)<br>def forward(self, x):<br>x = F.relu(self.lin1(x))<br>x = self.drops(x)<br>x = F.relu(self.lin2(x))<br>x = self.drops(x)<br>x = F.relu(self.lin3(x))<br>x = self.drops(x)<br>x = self.lin4(x)<br>return x<br>get_data_train_and_show(Scenario_3_Model_3(), lr=0.001)
Copier après la connexion

Que peuvent nous dire les graphiques de métriques de formation et de validation en matière dapprentissage automatique ?

场景 4 - 训练和验证表现良好,但准确度没有提高

lr = 0.001,bs = 128(默认,分类类别= 5

class Scenario_4_Model_1(nn.Module):<br>def __init__(self, in_features=30, out_features=2):<br>super().__init__()<br>self.lin1 = nn.Linear(in_features, 2)<br>self.lin2 = nn.Linear(2, out_features)<br>def forward(self, x):<br>x = F.relu(self.lin1(x))<br>x = self.lin2(x)<br>return x<br>get_data_train_and_show(Scenario_4_Model_1(out_features=5), lr=0.001, n_classes=5)
Copier après la connexion

Que peuvent nous dire les graphiques de métriques de formation et de validation en matière dapprentissage automatique ?

没有足够的学习能力:模型中的其中一层的参数少于模型可能输出中的类。 在这种情况下,当有 5 个可能的输出类时,中间的参数只有 2 个。

这意味着模型会丢失信息,因为它不得不通过一个较小的层来填充它,因此一旦层的参数再次扩大,就很难恢复这些信息。

所以需要记录层的参数永远不要小于模型的输出大小。

class Scenario_4_Model_2(nn.Module):<br>def __init__(self, in_features=30, out_features=2):<br>super().__init__()<br>self.lin1 = nn.Linear(in_features, 50)<br>self.lin2 = nn.Linear(50, out_features)<br>def forward(self, x):<br>x = F.relu(self.lin1(x))<br>x = self.lin2(x)<br>return x<br>get_data_train_and_show(Scenario_4_Model_2(out_features=5), lr=0.001, n_classes=5)
Copier après la connexion

Que peuvent nous dire les graphiques de métriques de formation et de validation en matière dapprentissage automatique ?

总结

以上就是一些常见的训练、验证时的曲线的示例,希望你在遇到相同情况时可以快速定位并且改进。


Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal