L'apprentissage automatique est une branche importante de l'intelligence artificielle qui donne aux ordinateurs la capacité d'apprendre à partir des données et d'améliorer leurs capacités sans programmation explicite. L'apprentissage automatique a un large éventail d'applications dans divers domaines, de la reconnaissance d'images et du traitement du langage naturel aux systèmes de recommandation et à la détection des fraudes, et il change notre façon de vivre. Il existe de nombreuses méthodes et théories différentes dans le domaine de l'apprentissage automatique, parmi lesquelles les cinq méthodes les plus influentes sont appelées les « Cinq écoles d'apprentissage automatique ». Les cinq grandes écoles sont l’école symbolique, l’école connexionniste, l’école évolutionniste, l’école bayésienne et l’école analogique.
Le symbolisme, également connu sous le nom de symbolisme, met l'accent sur l'utilisation de symboles pour le raisonnement logique et l'expression des connaissances. Cette école de pensée estime que l’apprentissage est un processus de déduction inversée, utilisant les connaissances et les règles existantes pour rechercher des idées issues de la philosophie, de la psychologie et de la logique. Les origines de la sémiotique remontent à l’Antiquité, lorsque les premiers philosophes, logiciens et psychologues étudiaient la cognition à travers l’utilisation de symboles. Cependant, une sémiotique véritablement systématique a commencé dans la culture française à la fin du XIXe et au début du XXe siècle, principalement promue par un groupe d'écrivains, d'artistes et de philosophes
Herbert· Herbert Simon : l'un des fondateurs de l'école sémiotique, lui et Allen Newell ont proposé conjointement le concept du General Problem Solver (GPS).
Allen Newell : L'un des fondateurs de l'école sémiotique, lui et Herbert Simon ont proposé conjointement le concept du General Problem Solver (GPS).
John McCarthy : John McCarthy est l'un des pionniers dans le domaine de l'intelligence artificielle et un représentant de l'école sémiotique. Il a proposé le terme « intelligence artificielle » en 1956 et a développé le langage de programmation LISP, qui est devenu un outil important pour la recherche sur le symbolisme. Les travaux de McCarthy se concentraient principalement sur le raisonnement logique et la représentation des connaissances, et il pensait que les ordinateurs pouvaient simuler les processus de pensée humaine à l'aide de symboles.
Marvin Lee Minsky : L'un des fondateurs du laboratoire d'intelligence artificielle du MIT. Il a proposé la théorie du cadre et a apporté des contributions significatives au domaine de l'intelligence artificielle. Marvin Minsky est un éminent informaticien et spécialiste des sciences cognitives. Il a commencé à étudier l’intelligence artificielle dans les années 1950 et est devenu l’un des pionniers dans ce domaine. Son objectif de recherche
La programmation logique inductive (ILP) est une méthode de raisonnement inverse. Le raisonnement abverse utilise généralement le raisonnement logique pour découvrir des connaissances en extrayant des règles générales à partir d'exemples spécifiques.
Le connexionnisme, également connu sous le nom de connexionnisme, s'inspire des neurosciences et de la physique, mettant l'accent sur l'analyse inversée du cerveau et simulant la structure et la fonction des réseaux neuronaux. Cette école de pensée estime que l’intelligence naît des connexions et des interactions entre un grand nombre d’unités simples (neurones). La théorie soutient que la simulation des connexions et des interactions entre neurones peut produire un comportement intelligent. Cette connexion et cette interaction sont réalisées grâce à des connexions entre des unités simples (neurones). En ajustant la force et le poids des connexions dans un réseau neuronal, les connexions et le transfert d'informations entre les neurones du cerveau humain peuvent être simulés. L'un des principaux avantages de la connectomique est qu'elle permet de générer de l'intelligence à travers un grand nombre d'unités simples. tâches telles que la reconnaissance de chiffres manuscrits. Les travaux de LeCun ont grandement favorisé le développement de l'apprentissage profond dans des applications pratiques.
David Rumelhart : Psychologue et l'un des fondateurs du modèle Parallel Distributed Processing (PDP), il a proposé l'algorithme de rétropropagation.
Frank Rosenblatt : Psychologue et inventeur du perceptron, il a proposé l'algorithme d'apprentissage du perceptron.
L'algorithme principal de l'école de connexion est la rétropropagation. La rétropropagation est un algorithme qui met à jour le poids d'un réseau neuronal en calculant le gradient de la fonction de perte, ce qui améliore considérablement l'efficacité de la formation des réseaux neuronaux profonds. Le calcul évolutif s'inspire de la génétique et de la biologie évolutive et effectue l'apprentissage et l'optimisation en simulant le processus d'évolution biologique. L'idée principale de cette école est d'utiliser des opérations génétiques telles que la sélection, le croisement et la mutation pour simuler le processus d'évolution biologique sur ordinateur afin de trouver la solution optimale au problème. John Holland John Holland est un pionnier dans le domaine de l'informatique évolutive. Il a proposé l'algorithme génétique (Genetic Algorithm) dans les années 1960). Les travaux de Holland ont jeté les bases du calcul évolutif et ses algorithmes génétiques utilisaient la sélection naturelle et les opérations génétiques pour résoudre des problèmes d'optimisation complexes. David E. Goldberg David E. Goldberg a apporté d'importantes contributions à la recherche et à l'application des algorithmes génétiques. Son livre "Genetic Algorithm" présente en détail la théorie et l'application des algorithmes génétiques, qui ont attiré une attention et un développement généralisés dans ce domaine. L'algorithme principal de l'école évolutionniste est la programmation génétique (GP). La programmation génétique est un algorithme qui utilise la technologie informatique évolutive pour générer automatiquement des programmes informatiques. Elle optimise progressivement le programme pour résoudre des problèmes spécifiques en simulant le processus d'évolution biologique. Le bayésianisme est basé sur des statistiques et croit que l'apprentissage est un processus de raisonnement probabiliste. Cette école de pensée utilise le théorème de Bayes pour effectuer un apprentissage et une inférence en mettant à jour la distribution de probabilité a priori. Thomas Bayes Thomas Bayes est un mathématicien britannique. Son théorème de Bayes est devenu la base de l'inférence bayésienne. Bien que Bayes lui-même n'ait pas été directement impliqué dans la recherche sur l'apprentissage automatique, ses travaux ont été d'une grande importance pour la formation et le développement de l'école bayésienne. Judea Pearl Judea Pearl a apporté des contributions exceptionnelles aux réseaux bayésiens et à l'inférence causale. Son développement des réseaux bayésiens est un outil important qui rend le raisonnement probabiliste dans des systèmes complexes plus efficace et intuitif. Les travaux de Pearl ont eu un impact profond à la fois sur l'intelligence artificielle et les statistiques. L'algorithme principal de l'école bayésienne est l'inférence bayésienne. Le raisonnement bayésien permet de faire des prédictions et des décisions en calculant des probabilités a posteriori et présente des avantages significatifs dans la gestion de l'incertitude et des systèmes complexes. L'analogisme apprend par l'extrapolation de jugements de similarité et est influencé par la psychologie et l'optimisation mathématique. Cette école met l'accent sur le raisonnement analogique à partir d'exemples connus pour découvrir de nouvelles connaissances et résoudre des problèmes. Vladimir Vapnik Vladimir Vapnik est l'un des représentants importants de l'école d'analogie. Lui et Ali Alexey Chervonenkis ont co-proposé la Machine à vecteurs de support (SVM). La machine à vecteurs de support est une méthode d'apprentissage supervisé basée sur la théorie de l'apprentissage statistique et est largement utilisée dans les problèmes de classification et de régression. Tom Michael Mitchell Tom Michael Mitchell a apporté de nombreuses contributions dans le domaine de l'apprentissage automatique, et son livre "Machine Learning" est un manuel important dans ce domaine. Les recherches de Kowalski sur l'apprentissage par analogie et la programmation logique inductive ont fourni un soutien théorique important au développement de l'école d'analogie. L'algorithme principal de l'école d'analogie est la machine à vecteurs de support (SVM). Les machines à vecteurs de support mettent en œuvre des tâches de classification en construisant un hyperplan pour maximiser la séparation entre les différentes catégories. Dans les espaces de données de grande dimension, SVM fonctionne bien et est particulièrement adapté aux problèmes complexes de reconnaissance de formes. school Représentant Herbert Simon, Alan Newell Er, John McCarthy, Marvin Lee Minsky L'apprentissage est un processus de manipulation symbolique Déduction inversée L'apprentissage est un processus qui simule le réseau neuronal du cerveau. Résolution de problèmes de contrôle et d'optimisation de robots
Filtrage anti-spam, diagnostic médical, recherche d'informations Vladimir Vapnik, Tom Michael Mitchell L'apprentissage est un processus par extrapolation de jugements de similarité Basé sur des algorithmes d'apprentissage par analogie Recommandation systèmes, raisonnement de cas, traduction automatique Les cinq grandes écoles d'apprentissage automatique ont leurs propres caractéristiques, selon des perspectives et des fondements théoriques différents. Commencez et résolvez une variété de problèmes d'apprentissage complexes. L'école sémiotique met l'accent sur le raisonnement logique et la représentation des connaissances, l'école connexionniste simule la structure et la fonction des réseaux de neurones, l'école évolutionniste utilise le processus d'évolution biologique pour l'optimisation, l'école bayésienne gère l'incertitude par le biais d'un raisonnement probabiliste et l'école analogique effectue un raisonnement analogique à travers jugements de similarité. Chaque école a ses représentants et ses principaux algorithmes, et leurs contributions favorisent conjointement le développement et le progrès du domaine de l'apprentissage automatique. Bien que ces cinq écoles présentent des différences dans leurs théories et leurs méthodes, elles ne s'excluent pas mutuellement, mais peuvent se compléter et s'intégrer. Dans les applications pratiques, les chercheurs combinent souvent plusieurs méthodes pour traiter des problèmes complexes et changeants. Avec le développement de la technologie et l’approfondissement de la recherche interdisciplinaire, l’apprentissage automatique continuera à jouer un rôle important dans tous les aspects de l’intelligence artificielle, apportant davantage d’innovations et de percées.
3. Calcul évolutif
4. Bayésianisme
5. École d'analogie
6. Comparaison des cinq grandes écoles de machine learning
Idée principale
Représentation des connaissances, traitement du langage naturel
École Connexionniste
Jan LeCun, Jeffrey Hinton, Joshua Bengio, David Rummelhart, Frank Rosenblatt École évolutive John Holland, David Goldberg L'apprentissage est un processus qui simule l'évolution biologique Algorithme génétique, stratégie évolutive
École bayésienne Thomas Bayes, Judea Pearl L'apprentissage est un processus de raisonnement probabiliste Théorème de Bayes
École d'Analogie
7. Résumé
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!