De nombreux algorithmes de réseaux de neurones artificiels ont été largement utilisés dans les systèmes intelligents de traitement de l'information, en particulier les quatre algorithmes suivants : réseau ART, réseau LVQ, réseau Kohonen, réseau Hopfield, ci-dessous. Présentons ces quatre algorithmes en détail :
1. Réseau de théorie de résonance adaptative (ART)
Le réseau de théorie de résonance adaptative (ART) a différents schémas. Un réseau ART-1 contient deux couches, une couche d'entrée et une couche de sortie. Les deux couches sont entièrement interconnectées, les connexions s'effectuant à la fois dans le sens direct (de bas en haut) et dans le sens de rétroaction (de haut en bas).
Lorsque le réseau ART-1 fonctionne, son entraînement est continu et comprend les étapes d'algorithme suivantes :
(1) Pour tous les neurones de sortie, si l'ensemble d'un neurone de sortie Si l'alerte pèse sont tous définis sur 1, on l'appelle un neurone indépendant car il n'est pas spécifié pour représenter un type de motif.
(2) donne un nouveau modèle d'entrée x.
(3) Permettre à tous les neurones de sortie de participer à la compétition d'excitation.
(4) Trouvez le neurone de sortie gagnant parmi les neurones concurrents, c'est-à-dire que la valeur x·W de ce neurone est la plus grande au début de l'entraînement ou lorsqu'il n'y a pas de meilleur neurone de sortie, le gagnant ; neurone Le neurone peut être un neurone indépendant.
(5) Vérifiez si le modèle d'entrée x est suffisamment similaire au vecteur de vigilance V du neurone gagnant.
(6) Si r≥p, c'est-à-dire qu'une résonance existe, passez à l'étape (7) ; sinon, rendez le neurone gagnant temporairement incapable de concourir davantage, et passez à l'étape (4), et répétez cette opération. processus jusqu'à ce qu'il n'existe plus autant de neurones capables que possible.
2. Réseau de quantification vectorielle d'apprentissage (LVQ)
Réseau de quantification vectorielle d'apprentissage (LVQ), qui se compose de trois couches de neurones, à savoir la couche de conversion d'entrée, la couche cachée et la couche de sortie. Le réseau est entièrement connecté entre les couches d'entrée et cachées et partiellement connecté entre les couches cachées et de sortie, chaque neurone de sortie étant connecté à un groupe différent de neurones cachés.
Les étapes de formation LVQ les plus simples sont les suivantes :
(1) Préréglez le poids initial du vecteur de référence.
(2) Fournir au réseau un modèle de saisie de formation.
(3) Calculez la distance euclidienne entre le motif d'entrée et chaque vecteur de référence.
(4) Mettre à jour le poids du vecteur de référence le plus proche du modèle d'entrée (c'est-à-dire le vecteur de référence du neurone caché gagnant). Si le neurone caché gagnant appartient au tampon connecté au neurone de sortie avec la même classe que le modèle d'entrée, alors le vecteur de référence doit être plus proche du modèle d'entrée. Sinon, le vecteur de référence quitte le mode saisie.
(5) Passez à l'étape (2) et répétez ce processus avec un nouveau modèle d'entrée d'entraînement jusqu'à ce que tous les modèles d'entraînement soient correctement classés ou qu'un certain critère de fin soit rempli.
3. Réseau Kohonen
Le réseau Kohonen ou réseau de cartes de caractéristiques auto-organisé contient deux couches, une couche tampon d'entrée est utilisée pour recevoir le modèle d'entrée et l'autre est la couche de sortie. sont généralement des tableaux bidimensionnels réguliers, chaque neurone de sortie est connecté à tous les neurones d'entrée. Les poids de connexion forment des composants du vecteur de référence connectés à des neurones de sortie connus.
La formation d'un réseau Kohonen comprend les étapes suivantes :
(1) Prérégler de petites valeurs initiales aléatoires pour les vecteurs de référence de tous les neurones de sortie.
(2) Fournir au réseau un modèle de saisie de formation.
(3) Déterminez le neurone de sortie gagnant, c'est-à-dire le neurone dont le vecteur de référence est le plus proche du modèle d'entrée. La distance euclidienne entre le vecteur de référence et le vecteur d'entrée est souvent utilisée comme mesure de distance.
(4) Mettre à jour le vecteur de référence du neurone gagnant et ses vecteurs de référence voisins. Ces vecteurs de référence sont (référencés) plus proches des vecteurs d'entrée. Pour le vecteur de référence gagnant, son ajustement est le plus grand, tandis que pour les neurones plus éloignés, la taille du voisinage des neurones diminue relativement au fur et à mesure de l'entraînement, seule la référence du neurone gagnant est ajustée. .
4. Réseau Hopfield
Le réseau Hopfield est un réseau récursif typique, qui n'accepte généralement que les entrées binaires (0 ou 1) et les entrées bipolaires (+1 ou -1). Il contient une seule couche de neurones, chacun connecté à tous les autres neurones, formant une structure récursive.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!