Les unités, également appelées nœuds ou neurones, constituent le cœur des réseaux neuronaux. Chaque unité reçoit une ou plusieurs entrées, multiplie chaque entrée par un poids, puis ajoute les entrées pondérées à la valeur de biais. Ensuite, cette valeur est introduite dans la fonction d'activation. Dans un réseau neuronal, la sortie d'une unité peut être envoyée à d'autres neurones.
Le perceptron multicouche, également connu sous le nom de réseau neuronal feedforward, est actuellement le modèle de réseau neuronal artificiel le plus largement utilisé et le plus simple. Il se compose de plusieurs couches connectées les unes aux autres, chaque couche connectant les entités d'entrée aux valeurs cibles. Cette structure de réseau est appelée « feedforward » car les valeurs des caractéristiques d'entrée sont transmises de manière « vers l'avant » à travers le réseau, et chaque couche transforme les valeurs des caractéristiques jusqu'à ce que la sortie finale soit cohérente avec la sortie cible.
Dans un réseau de neurones feedforward, il existe trois types de couches. Chaque unité contient des observations d'une seule entité dans la couche d'entrée. S'il y a 100 observations d'entités, alors la couche d'entrée aura 100 nœuds. La couche de sortie convertit la sortie de la couche cachée en valeurs utiles pour le réseau neuronal. Pour implémenter la classification binaire, nous pouvons utiliser la fonction sigmoïde dans la couche de sortie pour mettre à l'échelle la sortie à une probabilité de classe de 0 ou 1. La couche cachée est située entre la couche d'entrée et la couche de sortie et est responsable du traitement des valeurs des caractéristiques de la couche d'entrée. Enfin, la couche de sortie les convertit en valeurs similaires à la classe cible.
Les paramètres d'un réseau de neurones sont généralement initialisés à de petites valeurs aléatoires, qui peuvent provenir d'une distribution gaussienne ou d'une distribution uniforme normale. La fonction de perte est utilisée pour mesurer la différence entre la valeur de sortie du réseau et la valeur observée, par rapport à la valeur réelle après avoir traversé le réseau. L'algorithme de propagation vers l'avant est utilisé pour déterminer quels paramètres contribuent le plus à la différence entre les valeurs prédites et vraies. Grâce à l'algorithme d'optimisation, chaque poids est ajusté en fonction de la taille déterminée.
Le réseau neuronal apprend de chaque observation dans les données d'entraînement grâce à de multiples itérations de propagation avant et arrière. Le nombre de fois où chaque observation est envoyée via le réseau est appelé une époque, et la formation se compose généralement de plusieurs époques afin d'ajuster les paramètres de manière itérative.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!