


Comment améliorer les modèles de deep learning à l'aide de petits ensembles de données ?
Traducteur | Bugatti
Reviewer | Sun Shujuan
Comme nous le savons tous, les modèles d'apprentissage profond ont une forte demande de données. Plus vous alimentez les modèles d’apprentissage profond en données, meilleures sont leurs performances. Malheureusement, dans la plupart des situations pratiques, cela n’est pas possible. Il se peut que vous ne disposiez pas de suffisamment de données ou que leur collecte soit trop coûteuse.
Cet article abordera quatre façons d'améliorer les modèles d'apprentissage en profondeur sans utiliser plus de données.
Pourquoi le deep learning nécessite-t-il autant de données ?
Les modèles d'apprentissage profond sont convaincants car ils peuvent apprendre à comprendre des relations complexes. Les modèles d'apprentissage profond contiennent plusieurs couches. Chaque couche apprend à comprendre des représentations de données de complexité croissante. La première couche pourrait apprendre à détecter des motifs simples, tels que des bords. Un deuxième calque pourrait apprendre à voir des motifs sur ces bords, tels que des formes. Une troisième couche pourrait apprendre à reconnaître les objets composés de ces formes, et ainsi de suite.
Chaque couche est constituée d'une série de neurones, qui à leur tour sont connectés à chaque neurone de la couche précédente. Toutes ces couches et neurones impliquent de nombreux paramètres à optimiser. La bonne nouvelle est que les modèles d’apprentissage profond ont de puissantes capacités. Mais l’inconvénient signifie qu’ils sont sujets au surapprentissage. Le surajustement signifie que le modèle capture trop de signaux d'interférence dans les données d'entraînement et ne peut pas être appliqué à de nouvelles données.
Avec suffisamment de données, les modèles d'apprentissage profond peuvent apprendre à détecter des relations très complexes. Cependant, si vous ne disposez pas de suffisamment de données, les modèles d’apprentissage profond ne seront pas en mesure de comprendre ces relations complexes. Nous devons disposer de suffisamment de données pour que le modèle d’apprentissage profond puisse apprendre.
Mais si collecter davantage de données n'est pas possible, nous disposons de plusieurs techniques pour y remédier.
1. L'apprentissage par transfert permet de former des modèles d'apprentissage profond avec de petits ensembles de données.
L'apprentissage par transfert est une technique d'apprentissage automatique dans laquelle vous pouvez prendre un modèle formé sur un problème et l'utiliser comme point de départ pour résoudre différents problèmes connexes.
Par exemple, vous pouvez prendre un modèle formé sur un énorme ensemble de données d'images de chiens et l'utiliser comme point de départ pour entraîner un modèle à identifier les races de chiens.
J'espère que les fonctionnalités apprises par le premier modèle pourront être réutilisées, économisant ainsi du temps et des ressources. Il n’existe pas de règle empirique quant à la différence entre les deux applications. Cependant, l’apprentissage par transfert peut toujours être utilisé même si l’ensemble de données d’origine et le nouvel ensemble de données sont très différents.
Par exemple, vous pouvez prendre un modèle formé sur des images de chats et l'utiliser comme point de départ pour entraîner un modèle à reconnaître les types de chameaux. Espérons que comprendre la fonction des quatre pattes du premier modèle pourrait aider à identifier les chameaux.
Si vous souhaitez en savoir plus sur l'apprentissage par transfert, vous pouvez vous référer à "Apprentissage par transfert pour le traitement du langage naturel". Si vous êtes un programmeur Python, "Apprentissage pratique par transfert avec Python" vous sera peut-être également utile.
2. Essayez l'augmentation des données
L'augmentation des données est une technique dans laquelle vous pouvez utiliser des données existantes et générer de nouvelles données synthétiques.
Par exemple, si vous disposez d'un ensemble de données d'images de chiens, vous pouvez utiliser l'augmentation des données pour générer de nouvelles images de chiens. Vous pouvez le faire en recadrant l'image de manière aléatoire, en la retournant horizontalement, en ajoutant du bruit et plusieurs autres techniques.
Si vous disposez d'un petit ensemble de données, l'augmentation des données peut être très bénéfique. En générant de nouvelles données, vous pouvez augmenter artificiellement la taille de votre ensemble de données, donnant ainsi à votre modèle d'apprentissage en profondeur plus de données avec lesquelles travailler.
Cesdocumentssur l'apprentissage profond vous aideront à mieux comprendre l'augmentation des données.
3. Utilisez un encodeur automatique
Un encodeur automatique est un modèle d'apprentissage en profondeur utilisé pour apprendre des représentations de données de faible dimension.
Les encodeurs automatiques sont utiles lorsque vous disposez d'un petit ensemble de données, car ils peuvent apprendre à compresser vos données dans un espace de faible dimension.
Il existe de nombreux types d'encodeurs automatiques. Les auto-encodeurs variationnels (VAE) sont un type d’encodeur automatique populaire. Les VAE sont des modèles génératifs, ce qui signifie qu’elles peuvent générer de nouvelles données. Cela aide beaucoup car vous pouvez utiliser VAE pour générer de nouveaux points de données similaires aux données d'entraînement. C'est un excellent moyen d'augmenter la taille de votre ensemble de données sans collecter davantage de données.
Titre original : Comment améliorer les modèles d'apprentissage en profondeur avec de petits ensembles de données
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Dans les domaines de l’apprentissage automatique et de la science des données, l’interprétabilité des modèles a toujours été au centre des préoccupations des chercheurs et des praticiens. Avec l'application généralisée de modèles complexes tels que l'apprentissage profond et les méthodes d'ensemble, la compréhension du processus décisionnel du modèle est devenue particulièrement importante. Explainable AI|XAI contribue à renforcer la confiance dans les modèles d'apprentissage automatique en augmentant la transparence du modèle. L'amélioration de la transparence des modèles peut être obtenue grâce à des méthodes telles que l'utilisation généralisée de plusieurs modèles complexes, ainsi que les processus décisionnels utilisés pour expliquer les modèles. Ces méthodes incluent l'analyse de l'importance des caractéristiques, l'estimation de l'intervalle de prédiction du modèle, les algorithmes d'interprétabilité locale, etc. L'analyse de l'importance des fonctionnalités peut expliquer le processus de prise de décision du modèle en évaluant le degré d'influence du modèle sur les fonctionnalités d'entrée. Estimation de l’intervalle de prédiction du modèle

Écrit précédemment, nous discutons aujourd'hui de la manière dont la technologie d'apprentissage profond peut améliorer les performances du SLAM (localisation et cartographie simultanées) basé sur la vision dans des environnements complexes. En combinant des méthodes d'extraction de caractéristiques approfondies et de correspondance de profondeur, nous introduisons ici un système SLAM visuel hybride polyvalent conçu pour améliorer l'adaptation dans des scénarios difficiles tels que des conditions de faible luminosité, un éclairage dynamique, des zones faiblement texturées et une gigue importante. Notre système prend en charge plusieurs modes, notamment les configurations étendues monoculaire, stéréo, monoculaire-inertielle et stéréo-inertielle. En outre, il analyse également comment combiner le SLAM visuel avec des méthodes d’apprentissage profond pour inspirer d’autres recherches. Grâce à des expériences approfondies sur des ensembles de données publiques et des données auto-échantillonnées, nous démontrons la supériorité du SL-SLAM en termes de précision de positionnement et de robustesse du suivi.

Récemment, le milieu militaire a été submergé par la nouvelle : les avions de combat militaires américains peuvent désormais mener des combats aériens entièrement automatiques grâce à l'IA. Oui, tout récemment, l’avion de combat IA de l’armée américaine a été rendu public pour la première fois, dévoilant ainsi son mystère. Le nom complet de ce chasseur est Variable Stability Simulator Test Aircraft (VISTA). Il a été personnellement piloté par le secrétaire de l'US Air Force pour simuler une bataille aérienne en tête-à-tête. Le 2 mai, le secrétaire de l'US Air Force, Frank Kendall, a décollé à bord d'un X-62AVISTA à la base aérienne d'Edwards. Notez que pendant le vol d'une heure, toutes les actions de vol ont été effectuées de manière autonome par l'IA ! Kendall a déclaré : "Au cours des dernières décennies, nous avons réfléchi au potentiel illimité du combat air-air autonome, mais cela a toujours semblé hors de portée." Mais maintenant,

Les défis courants rencontrés par les algorithmes d'apprentissage automatique en C++ incluent la gestion de la mémoire, le multithread, l'optimisation des performances et la maintenabilité. Les solutions incluent l'utilisation de pointeurs intelligents, de bibliothèques de threads modernes, d'instructions SIMD et de bibliothèques tierces, ainsi que le respect des directives de style de codage et l'utilisation d'outils d'automatisation. Des cas pratiques montrent comment utiliser la bibliothèque Eigen pour implémenter des algorithmes de régression linéaire, gérer efficacement la mémoire et utiliser des opérations matricielles hautes performances.

Traducteur | Revu par Li Rui | Chonglou Les modèles d'intelligence artificielle (IA) et d'apprentissage automatique (ML) deviennent aujourd'hui de plus en plus complexes, et le résultat produit par ces modèles est une boîte noire – impossible à expliquer aux parties prenantes. L'IA explicable (XAI) vise à résoudre ce problème en permettant aux parties prenantes de comprendre comment fonctionnent ces modèles, en s'assurant qu'elles comprennent comment ces modèles prennent réellement des décisions et en garantissant la transparence des systèmes d'IA, la confiance et la responsabilité pour résoudre ce problème. Cet article explore diverses techniques d'intelligence artificielle explicable (XAI) pour illustrer leurs principes sous-jacents. Plusieurs raisons pour lesquelles l’IA explicable est cruciale Confiance et transparence : pour que les systèmes d’IA soient largement acceptés et fiables, les utilisateurs doivent comprendre comment les décisions sont prises

L'apprentissage automatique est une branche importante de l'intelligence artificielle qui donne aux ordinateurs la possibilité d'apprendre à partir de données et d'améliorer leurs capacités sans être explicitement programmés. L'apprentissage automatique a un large éventail d'applications dans divers domaines, de la reconnaissance d'images et du traitement du langage naturel aux systèmes de recommandation et à la détection des fraudes, et il change notre façon de vivre. Il existe de nombreuses méthodes et théories différentes dans le domaine de l'apprentissage automatique, parmi lesquelles les cinq méthodes les plus influentes sont appelées les « Cinq écoles d'apprentissage automatique ». Les cinq grandes écoles sont l’école symbolique, l’école connexionniste, l’école évolutionniste, l’école bayésienne et l’école analogique. 1. Le symbolisme, également connu sous le nom de symbolisme, met l'accent sur l'utilisation de symboles pour le raisonnement logique et l'expression des connaissances. Cette école de pensée estime que l'apprentissage est un processus de déduction inversée, à travers les connaissances existantes.

MetaFAIR s'est associé à Harvard pour fournir un nouveau cadre de recherche permettant d'optimiser le biais de données généré lors de l'apprentissage automatique à grande échelle. On sait que la formation de grands modèles de langage prend souvent des mois et utilise des centaines, voire des milliers de GPU. En prenant comme exemple le modèle LLaMA270B, sa formation nécessite un total de 1 720 320 heures GPU. La formation de grands modèles présente des défis systémiques uniques en raison de l’ampleur et de la complexité de ces charges de travail. Récemment, de nombreuses institutions ont signalé une instabilité dans le processus de formation lors de la formation des modèles d'IA générative SOTA. Elles apparaissent généralement sous la forme de pics de pertes. Par exemple, le modèle PaLM de Google a connu jusqu'à 20 pics de pertes au cours du processus de formation. Le biais numérique est à l'origine de cette imprécision de la formation,

" sept péchés capitaux" » Dissiper les rumeurs : selon des informations divulguées et des documents obtenus par Vox, la haute direction d'OpenAI, y compris Altman, était bien au courant de ces dispositions de récupération de capitaux propres et les a approuvées. De plus, OpenAI est confronté à un problème grave et urgent : la sécurité de l’IA. Les récents départs de cinq employés liés à la sécurité, dont deux de ses employés les plus en vue, et la dissolution de l'équipe « Super Alignment » ont une nouvelle fois mis les enjeux de sécurité d'OpenAI sur le devant de la scène. Le magazine Fortune a rapporté qu'OpenA
