


Présentation des méthodes d'ensemble dans l'apprentissage automatique
Imaginez que vous faites des achats en ligne et que vous trouvez deux magasins vendant le même produit avec la même note. Cependant, le premier a été évalué par une seule personne et le second par 100 personnes. À quelle note feriez-vous davantage confiance ? Quel produit choisirez-vous d’acheter au final ? La réponse pour la plupart des gens est simple. Les opinions de 100 personnes sont certainement plus fiables que celles d’une seule. C’est ce qu’on appelle la « sagesse de la foule » et c’est pourquoi l’approche d’ensemble fonctionne.
Méthodes d'ensemble
Habituellement, nous créons uniquement un apprenant (apprenant = modèle de formation) à partir des données de formation (c'est-à-dire que nous formons uniquement un modèle d'apprentissage automatique sur les données de formation). La méthode d’ensemble consiste à laisser plusieurs apprenants résoudre le même problème, puis à les combiner. Ces apprenants sont appelés apprenants de base et peuvent avoir n’importe quel algorithme sous-jacent, tel que des réseaux de neurones, des machines à vecteurs de support, des arbres de décision, etc. Si tous ces apprenants de base sont composés du même algorithme alors ils sont appelés apprenants de base homogènes, tandis que s'ils sont composés d'algorithmes différents alors ils sont appelés apprenants de base hétérogènes. Comparé à un apprenant de base unique, un ensemble possède de meilleures capacités de généralisation, ce qui entraîne de meilleurs résultats.
Lorsque la méthode d'ensemble est composée d'apprenants faibles. C’est pourquoi les apprenants de base sont parfois appelés apprenants faibles. Alors que les modèles d'ensemble ou les apprenants forts (qui sont des combinaisons de ces apprenants faibles) ont un biais/variance plus faible et obtiennent de meilleures performances. La capacité de cette approche intégrée à transformer les apprenants faibles en apprenants forts est devenue populaire parce que les apprenants faibles sont plus facilement disponibles dans la pratique.
Ces dernières années, les méthodes intégrées ont continuellement remporté divers concours en ligne. Outre les compétitions en ligne, les méthodes d'ensemble sont également appliquées à des applications réelles telles que les technologies de vision par ordinateur telles que la détection, la reconnaissance et le suivi d'objets.
Principaux types de méthodes d'ensemble
Comment les apprenants faibles sont-ils générés ?
Selon la méthode de génération de l'apprenant de base, les méthodes d'intégration peuvent être divisées en deux grandes catégories, à savoir les méthodes d'intégration séquentielle et les méthodes d'intégration parallèle. Comme son nom l'indique, dans la méthode d'ensemble séquentiel, les apprenants de base sont générés séquentiellement puis combinés pour faire des prédictions, telles que des algorithmes Boosting tels qu'AdaBoost. Dans la méthode d'ensemble parallèle, les apprenants de base sont générés en parallèle puis combinés pour la prédiction, comme les algorithmes d'ensachage tels que la forêt aléatoire et l'empilement. La figure suivante montre une architecture simple expliquant les approches parallèles et séquentielles.
Selon les différentes méthodes de génération des apprenants de base, les méthodes d'intégration peuvent être divisées en deux grandes catégories : les méthodes d'intégration séquentielle et les méthodes d'intégration parallèle. Comme son nom l'indique, dans la méthode d'ensemble séquentiel, les apprenants de base sont générés dans l'ordre puis combinés pour faire des prédictions, telles que des algorithmes Boosting tels qu'AdaBoost. Dans les méthodes d'ensemble parallèles, les apprenants de base sont générés en parallèle, puis combinés pour la prédiction, comme les algorithmes d'ensachage tels que Random Forest et Stacking. La figure ci-dessous montre une architecture simple expliquant à la fois les approches parallèles et séquentielles.
Méthodes d'intégration parallèle et séquentielle
Les méthodes d'apprentissage séquentiel profitent des dépendances entre les apprenants faibles pour améliorer la performance globale de manière résiduelle-décroissante, permettant aux apprenants ultérieurs de prêter plus d'attention aux erreurs des anciens apprenants. En gros (pour les problèmes de régression), la réduction de l’erreur du modèle d’ensemble obtenue par les méthodes de boosting est principalement obtenue en réduisant le biais élevé des apprenants faibles, bien qu’une réduction de la variance soit parfois observée. D’autre part, la méthode des ensembles parallèles réduit l’erreur en combinant des apprenants faibles indépendants, c’est-à-dire qu’elle exploite l’indépendance entre apprenants faibles. Cette réduction des erreurs est due à une réduction de la variance du modèle d'apprentissage automatique. Par conséquent, nous pouvons résumer que le boosting réduit principalement les erreurs en réduisant le biais des modèles d’apprentissage automatique, tandis que le bagging réduit les erreurs en réduisant la variance des modèles d’apprentissage automatique. Ceci est important car la méthode d’ensemble choisie dépendra du fait que les apprenants faibles présentent une variance élevée ou un biais élevé.
Comment regrouper les apprenants faibles ?
Après avoir généré ces soi-disant apprenants de base, nous ne sélectionnons pas les meilleurs de ces apprenants, mais les combinons ensemble pour une meilleure généralisation, la façon dont nous procédons joue un rôle important dans l'approche d'ensemble.
Moyenne : lorsque le résultat est un nombre, la façon la plus courante de combiner les apprenants de base est la moyenne. La moyenne peut être une moyenne simple ou une moyenne pondérée. Pour les problèmes de régression, la moyenne simple sera la somme des erreurs de tous les modèles de base divisée par le nombre total d’apprenants. Le résultat combiné moyen pondéré est obtenu en attribuant des pondérations différentes à chaque apprenant de base. Pour les problèmes de régression, nous multiplions l’erreur de chaque apprenant de base par le poids donné, puis nous la additionnons.
Vote : pour les résultats nominaux, le vote est le moyen le plus courant de combiner les apprenants de base. Le vote peut être de différents types tels que le vote majoritaire, le vote majoritaire, le vote pondéré et le vote soft. Pour les problèmes de classification, un vote à la majorité qualifiée donne à chaque apprenant une voix et il vote pour une étiquette de classe. Quel que soit le label de classe qui obtient plus de 50 % des voix, c'est le résultat prévu de l'ensemble. Cependant, si aucune étiquette de classe n'obtient plus de 50 % des voix, une option de rejet est proposée, ce qui signifie que l'ensemble combiné ne peut faire aucune prédiction. Lors du vote à majorité relative, l'étiquette de classe avec le plus de votes est le résultat de la prédiction, et plus de 50 % des votes ne sont pas nécessaires pour l'étiquette de classe. Cela signifie que si nous avons trois étiquettes de sortie et que toutes les trois obtiennent des résultats inférieurs à 50 %, par exemple 40 %, 30 %, 30 %, alors l'obtention de 40 % des étiquettes de classe est le résultat de prédiction du modèle d'ensemble. . Le vote pondéré, comme la moyenne pondérée, attribue des pondérations aux classificateurs en fonction de leur importance et de la force d'un apprenant particulier. Le vote doux est utilisé pour les sorties de classe avec des probabilités (valeurs comprises entre 0 et 1) plutôt que des étiquettes (binaires ou autres). Le vote doux est divisé en vote doux simple (une simple moyenne de probabilités) et en vote doux pondéré (des poids sont attribués aux apprenants, et les probabilités sont multipliées par ces poids et ajoutées).
Apprentissage : une autre façon de combiner est l'apprentissage, qui est utilisé par la méthode des ensembles d'empilement. Dans cette approche, un apprenant distinct appelé méta-apprenant est formé sur un nouvel ensemble de données pour combiner d'autres apprenants de base/faibles générés à partir de l'ensemble de données d'apprentissage automatique d'origine.
Veuillez noter que qu'il s'agisse de boosting, d'ensachage ou d'empilement, les trois méthodes d'ensemble peuvent être générées en utilisant des apprenants faibles homogènes ou hétérogènes. L’approche la plus courante consiste à utiliser des apprenants faibles homogènes pour le bagging et le boosting, et des apprenants faibles hétérogènes pour l’empilement. La figure ci-dessous fournit une bonne classification des trois principales méthodes d'ensemble.
Classer les principaux types de méthodes d'ensemble
Diversité d'ensemble
La diversité d'ensemble fait référence à la différence entre les apprenants de base, ce qui est d'une grande importance pour générer de bons modèles d'ensemble. Il a été théoriquement prouvé que, grâce à différentes méthodes de combinaison, des apprenants de base complètement indépendants (diversifiés) peuvent minimiser les erreurs, tandis que des apprenants complètement (hautement) liés n'apportent aucune amélioration. Il s’agit d’un problème difficile dans la vie réelle, car nous formons tous les apprenants faibles à résoudre le même problème en utilisant le même ensemble de données, ce qui entraîne une forte corrélation. En outre, nous devons veiller à ce que les apprenants faibles ne soient pas de véritables mauvais modèles, car cela pourrait même entraîner une détérioration des performances d’ensemble. D’un autre côté, combiner des apprenants de base forts et précis peut ne pas être aussi efficace que combiner des apprenants faibles avec des apprenants forts. Par conséquent, un équilibre doit être trouvé entre la précision de l’apprenant de base et les différences entre les apprenants de base.
Comment parvenir à une diversité intégrée ?
1. Traitement des données
Nous pouvons diviser notre ensemble de données en sous-ensembles pour les apprenants de base. Si l'ensemble de données d'apprentissage automatique est volumineux, nous pouvons simplement diviser l'ensemble de données en parties égales et les introduire dans le modèle d'apprentissage automatique. Si l'ensemble de données est petit, nous pouvons utiliser l'échantillonnage aléatoire avec remplacement pour générer un nouvel ensemble de données à partir de l'ensemble de données d'origine. La méthode d'ensachage utilise la technique d'amorçage pour générer de nouveaux ensembles de données, qui sont essentiellement un échantillonnage aléatoire avec remplacement. Avec le bootstrap, nous sommes en mesure de créer un certain caractère aléatoire puisque tous les ensembles de données générés doivent avoir des valeurs différentes. Notez cependant que la plupart des valeurs (environ 67% selon la théorie) seront quand même répétées, les ensembles de données ne seront donc pas complètement indépendants.
2. Fonctionnalités d'entrée
Tous les ensembles de données contiennent des fonctionnalités qui fournissent des informations sur les données. Au lieu d'utiliser toutes les fonctionnalités dans un seul modèle, nous pouvons créer des sous-ensembles de fonctionnalités, générer différents ensembles de données et les intégrer dans le modèle. Cette méthode est adoptée par la technique de forêt aléatoire et est efficace lorsqu'il existe un grand nombre de fonctionnalités redondantes dans les données. L'efficacité diminue lorsqu'il y a peu de fonctionnalités dans l'ensemble de données.
3. Paramètres d'apprentissage
Cette technique génère du caractère aléatoire chez l'apprenant de base en appliquant différents paramètres à l'algorithme d'apprentissage de base, c'est-à-dire le réglage des hyperparamètres. Par exemple, en modifiant les termes de régularisation, différents poids initiaux peuvent être attribués aux réseaux neuronaux individuels.
Élagage d'intégration
Enfin, la technologie d'élagage d'intégration peut aider à obtenir de meilleures performances d'intégration dans certains cas. L'élagage d'ensemble signifie que nous combinons uniquement un sous-ensemble d'apprenants au lieu de combiner tous les apprenants faibles. En plus de cela, des intégrations plus petites peuvent économiser des ressources de stockage et de calcul, améliorant ainsi l'efficacité.
Enfin
Cet article n'est qu'un aperçu des méthodes d'ensemble d'apprentissage automatique. J’espère que tout le monde pourra mener des recherches plus approfondies et, plus important encore, pouvoir appliquer ces recherches à la vie réelle.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds



Dans les domaines de l’apprentissage automatique et de la science des données, l’interprétabilité des modèles a toujours été au centre des préoccupations des chercheurs et des praticiens. Avec l'application généralisée de modèles complexes tels que l'apprentissage profond et les méthodes d'ensemble, la compréhension du processus décisionnel du modèle est devenue particulièrement importante. Explainable AI|XAI contribue à renforcer la confiance dans les modèles d'apprentissage automatique en augmentant la transparence du modèle. L'amélioration de la transparence des modèles peut être obtenue grâce à des méthodes telles que l'utilisation généralisée de plusieurs modèles complexes, ainsi que les processus décisionnels utilisés pour expliquer les modèles. Ces méthodes incluent l'analyse de l'importance des caractéristiques, l'estimation de l'intervalle de prédiction du modèle, les algorithmes d'interprétabilité locale, etc. L'analyse de l'importance des fonctionnalités peut expliquer le processus de prise de décision du modèle en évaluant le degré d'influence du modèle sur les fonctionnalités d'entrée. Estimation de l’intervalle de prédiction du modèle

Vous êtes confronté à un décalage et à une connexion de données mobile lente sur iPhone ? En règle générale, la puissance de l'Internet cellulaire sur votre téléphone dépend de plusieurs facteurs tels que la région, le type de réseau cellulaire, le type d'itinérance, etc. Vous pouvez prendre certaines mesures pour obtenir une connexion Internet cellulaire plus rapide et plus fiable. Correctif 1 – Forcer le redémarrage de l'iPhone Parfois, le redémarrage forcé de votre appareil réinitialise simplement beaucoup de choses, y compris la connexion cellulaire. Étape 1 – Appuyez simplement une fois sur la touche d’augmentation du volume et relâchez-la. Ensuite, appuyez sur la touche de réduction du volume et relâchez-la à nouveau. Étape 2 – La partie suivante du processus consiste à maintenir le bouton sur le côté droit. Laissez l'iPhone finir de redémarrer. Activez les données cellulaires et vérifiez la vitesse du réseau. Vérifiez à nouveau Correctif 2 – Changer le mode de données Bien que la 5G offre de meilleures vitesses de réseau, elle fonctionne mieux lorsque le signal est plus faible

Récemment, le milieu militaire a été submergé par la nouvelle : les avions de combat militaires américains peuvent désormais mener des combats aériens entièrement automatiques grâce à l'IA. Oui, tout récemment, l’avion de combat IA de l’armée américaine a été rendu public pour la première fois, dévoilant ainsi son mystère. Le nom complet de ce chasseur est Variable Stability Simulator Test Aircraft (VISTA). Il a été personnellement piloté par le secrétaire de l'US Air Force pour simuler une bataille aérienne en tête-à-tête. Le 2 mai, le secrétaire de l'US Air Force, Frank Kendall, a décollé à bord d'un X-62AVISTA à la base aérienne d'Edwards. Notez que pendant le vol d'une heure, toutes les actions de vol ont été effectuées de manière autonome par l'IA ! Kendall a déclaré : "Au cours des dernières décennies, nous avons réfléchi au potentiel illimité du combat air-air autonome, mais cela a toujours semblé hors de portée." Mais maintenant,

Les défis courants rencontrés par les algorithmes d'apprentissage automatique en C++ incluent la gestion de la mémoire, le multithread, l'optimisation des performances et la maintenabilité. Les solutions incluent l'utilisation de pointeurs intelligents, de bibliothèques de threads modernes, d'instructions SIMD et de bibliothèques tierces, ainsi que le respect des directives de style de codage et l'utilisation d'outils d'automatisation. Des cas pratiques montrent comment utiliser la bibliothèque Eigen pour implémenter des algorithmes de régression linéaire, gérer efficacement la mémoire et utiliser des opérations matricielles hautes performances.

La dernière vidéo du robot Optimus de Tesla est sortie, et il peut déjà fonctionner en usine. À vitesse normale, il trie les batteries (les batteries 4680 de Tesla) comme ceci : Le responsable a également publié à quoi cela ressemble à une vitesse 20 fois supérieure - sur un petit "poste de travail", en sélectionnant et en sélectionnant et en sélectionnant : Cette fois, il est publié L'un des points forts de la vidéo est qu'Optimus réalise ce travail en usine, de manière totalement autonome, sans intervention humaine tout au long du processus. Et du point de vue d'Optimus, il peut également récupérer et placer la batterie tordue, en se concentrant sur la correction automatique des erreurs : concernant la main d'Optimus, le scientifique de NVIDIA Jim Fan a donné une évaluation élevée : la main d'Optimus est l'un des robots à cinq doigts du monde. le plus adroit. Ses mains ne sont pas seulement tactiles

Traducteur | Revu par Li Rui | Chonglou Les modèles d'intelligence artificielle (IA) et d'apprentissage automatique (ML) deviennent aujourd'hui de plus en plus complexes, et le résultat produit par ces modèles est une boîte noire – impossible à expliquer aux parties prenantes. L'IA explicable (XAI) vise à résoudre ce problème en permettant aux parties prenantes de comprendre comment fonctionnent ces modèles, en s'assurant qu'elles comprennent comment ces modèles prennent réellement des décisions et en garantissant la transparence des systèmes d'IA, la confiance et la responsabilité pour résoudre ce problème. Cet article explore diverses techniques d'intelligence artificielle explicable (XAI) pour illustrer leurs principes sous-jacents. Plusieurs raisons pour lesquelles l’IA explicable est cruciale Confiance et transparence : pour que les systèmes d’IA soient largement acceptés et fiables, les utilisateurs doivent comprendre comment les décisions sont prises

L'apprentissage automatique est une branche importante de l'intelligence artificielle qui donne aux ordinateurs la possibilité d'apprendre à partir de données et d'améliorer leurs capacités sans être explicitement programmés. L'apprentissage automatique a un large éventail d'applications dans divers domaines, de la reconnaissance d'images et du traitement du langage naturel aux systèmes de recommandation et à la détection des fraudes, et il change notre façon de vivre. Il existe de nombreuses méthodes et théories différentes dans le domaine de l'apprentissage automatique, parmi lesquelles les cinq méthodes les plus influentes sont appelées les « Cinq écoles d'apprentissage automatique ». Les cinq grandes écoles sont l’école symbolique, l’école connexionniste, l’école évolutionniste, l’école bayésienne et l’école analogique. 1. Le symbolisme, également connu sous le nom de symbolisme, met l'accent sur l'utilisation de symboles pour le raisonnement logique et l'expression des connaissances. Cette école de pensée estime que l'apprentissage est un processus de déduction inversée, à travers les connaissances existantes.

MetaFAIR s'est associé à Harvard pour fournir un nouveau cadre de recherche permettant d'optimiser le biais de données généré lors de l'apprentissage automatique à grande échelle. On sait que la formation de grands modèles de langage prend souvent des mois et utilise des centaines, voire des milliers de GPU. En prenant comme exemple le modèle LLaMA270B, sa formation nécessite un total de 1 720 320 heures GPU. La formation de grands modèles présente des défis systémiques uniques en raison de l’ampleur et de la complexité de ces charges de travail. Récemment, de nombreuses institutions ont signalé une instabilité dans le processus de formation lors de la formation des modèles d'IA générative SOTA. Elles apparaissent généralement sous la forme de pics de pertes. Par exemple, le modèle PaLM de Google a connu jusqu'à 20 pics de pertes au cours du processus de formation. Le biais numérique est à l'origine de cette imprécision de la formation,
