


Pour aider l'intelligence artificielle à franchir une nouvelle étape, le projet open source d'apprentissage causal YLearn est lancé
Le 12 juillet 2022, la société Jiuzhang Yunji DataCanvas a publié une autre réalisation technologique open source révolutionnaire - le projet open source d'apprentissage causal YLearn, et a organisé avec succès une conférence de presse en ligne.
La conférence a pour thème "De la prédiction à la prise de décision, une IA compréhensible" et invite spécialement des experts dans le domaine de l'apprentissage causal et de l'intelligence artificielle : Jiuzhang Yunji DataCanvas, co-fondateur et CTOShang Mingdong, fondateur et président du CSDN, Jiang Tao, partenaire fondateur de GeekBang Venture Capital, Cui Peng, professeur associé permanent et directeur de doctorat du Département d'informatique de l'Université Tsinghua, et YLearn R&D team, ont discuté conjointement des derniers résultats de recherche sur l'apprentissage causal dans le monde universitaire. et l'industrie , favorisent conjointement le développement rapide de la science causale.
YLearn - la clé de l'IA qui ouvre la porte à une "prise de décision automatisée"
YLearn projet open source d'apprentissage causal, est la première boîte à outils d'algorithmes open source unique au monde qui gère le processus complet de l'apprentissage causal, et est le premier à résoudre le problème. Les cinq questions clés de l'apprentissage causal sont "la découverte causale, l'identification de la quantité causale, l'estimation de l'effet causal, l'inférence contrefactuelle et l'apprentissage stratégique". , nouveau et complet, avec une large gamme d'utilisations, et sera utilisé par les « décideurs » Le seuil est réduit au niveau le plus bas, aidant les gouvernements et les entreprises à améliorer efficacement leurs capacités de « prise de décision » automatisées. Le projet open source d'apprentissage causal YLearn est le troisième outil open source publié par la société Jiuzhang Yunji DataCanvas après la boîte à outils d'apprentissage automatique automatique DAT et la base de données d'analyse interactive en temps réel DingoDB. Depuis lors, le logiciel de base open source de Jiuzhang Yunji DataCanvas a encore élargi son territoire. La série d'outils de base open source intégrant des technologies d'IA de pointe telles que AutoML et l'apprentissage causal accélérera encore la diffusion de la valeur de l'intelligence des données au sein du gouvernement et. l'ensemble de l'industrie. En combinant des informations innovantes issues de domaines universitaires de pointe et de domaines d'application du marché, l'équipe R&D du projet open source Jiuzhang Yunji DataCanvas a découvert que, bien que les résultats de « prédiction » commerciale actuellement largement utilisés, basés sur l'apprentissage automatique, ont été efficaces pour améliorer les revenus des entreprises. C'est très évident, mais avec la demande croissante des gouvernements et des entreprises pour une « IA autonome » et une « prise de décision intelligente », les décideurs ont besoin d'une « raison » compréhensible qui puisse expliquer pourquoi une décision est prise. La présentation des « relations causales » est ainsi devenue une fonction indispensable à l’analyse des données et à la prise de décision intelligente, mais l’apprentissage automatique qui fournit uniquement une « corrélation » des données ne peut pas le faire. L'intégration de
avec la technologie « Causal Learning » deviendra la meilleure solution à ce problème, et le projet open source d'apprentissage causal YLearn est né.Le projet open source d'apprentissage causal YLearn (ci-après dénommé « YLearn ») possède également le gène « open source, flexible et automatique » du produit Jiuzhang Yunji DataCanvas. Basé sur la communauté open source, YLearn vise à combler le vide du marché qui manque d'une boîte à outils d'apprentissage causal complète et de bout en bout, et à travailler avec des contributeurs open source mondiaux pour créer un de bout en bout, le plus La boîte à outils d'algorithme d'apprentissage causal la plus complète et la plus systématique réduit directement le coût d'utilisation des « décideurs » du côté de l'outil.
Actuellement, YLearn se compose de CausalDiscovery, CausalModel, EstimatorModel, Policy, Interpreter et d'autres composants. Chaque composant prend en charge une utilisation indépendante et un packaging unifié. Grâce à ces composants flexibles, YLearn implémente des fonctions telles que l'utilisation de diagrammes de causalité pour représenter les relations causales dans des ensembles de données, l'identification des effets de causalité, des expressions de probabilité et divers modèles d'estimation, et continuera d'ajouter et d'améliorer les performances suite à des recherches de pointe. Afin d'abaisser davantage le seuil d'utilisation, en plus de rendre le processus d'utilisation clair, simple et facile à utiliser, YLearn intégrera également la technologie de base de Jiuzhang Yunji DataCanvas Company - l'apprentissage automatique automatique AutoML. Avec le support de la technologie AutoML, YLearn réalisera des fonctions « automatisées » avancées telles que l'ajustement automatique des paramètres, l'optimisation automatique et la génération automatique en un clic de plusieurs solutions de prise de décision correspondant au résultat « Y » ; réaliser une carte visuelle de prise de décision basée sur des relations causales, telles que la définition d'indicateurs opérationnels pour les opérations de l'entreprise, et déduire l'impact et les avantages de différentes décisions de manière interactive. Le projet open source d'apprentissage causal YLearn, qui fournit une analyse de causalité automatisée, fournira un soutien important aux décideurs pour comprendre la logique de la prise de décision par l'IA et améliorer la crédibilité de la prise de décision par l'IA. Il deviendra l'IA. clé pour ouvrir la porte à une « prise de décision automatisée » dans les gouvernements et les entreprises.Apprentissage causal : conduire l'intelligence artificielle vers une nouvelle étape
Le potentiel de l'apprentissage causal et son influence sur l'orientation future de la technologie de l'intelligence artificielle ont été reconnus par le monde universitaire et l'industrie. Judea Pearl, lauréate du prix Turing en 2011 et père des réseaux bayésiens, a mentionné un jour que « sans la capacité de raisonner sur les relations causales, le développement de l'IA sera fondamentalement limité ». Cui Peng, professeur agrégé permanent et directeur de doctorat au Département d'informatique de l'Université Tsinghua, a souligné lors de cette conférence que "les statistiques causales joueront un rôle important dans le fondement théorique de la nouvelle génération d'intelligence artificielle". La cause profonde des limites actuelles de l’intelligence artificielle est « de la connaître, mais de ne pas savoir pourquoi ». Parmi eux, le « ran » dans « le savoir » fait référence à la relation de « corrélation » entre les données, et « so-ran » fait référence à la relation « causale » entre les données. Après des années de recherche sur l'introduction des statistiques causales dans l'apprentissage automatique, l'équipe du professeur Cui a découvert que les statistiques causales présentaient des performances exceptionnelles pour résoudre les problèmes de stabilité, d'interprétabilité et d'équité des algorithmes de l'apprentissage automatique. AI » indique que « l’intelligence artificielle doit aller au-delà des prédictions basées sur la corrélation vers des solutions basées sur la causalité pour parvenir à de meilleures décisions et à une plus grande automatisation… L’IA causale est essentielle pour l’avenir ». Jiang Tao, fondateur et président de CSDN et partenaire fondateur de GeekBang Venture Capital, a déclaré : « L'heure est à l'open source en Chine. Ce n'est que lorsque la technologie deviendra plus populaire qu'il y aura un marché plus grand. YLearn rendra la technologie de l'IA plus sophistiquée et en profondeur dans diverses industries." Il y aura une énorme force motrice. Adhérant à la culture produit de la société Jiuzhang Yunji DataCanvas qui se concentre étroitement sur le concept d'innovation technologique de "l'intelligence des données" et "l'intégration et l'application de la technologie de l'IA à des scénarios commerciaux réels", l'équipe R&D du projet open source de Jiuzhang Yunji DataCanvas innove et itère les outils open source tout en absorbant constamment les besoins et les commentaires des applications pratiques dans divers scénarios du gouvernement et de l'industrie. Dans le même temps, la série de produits logiciels de base d'IA de Jiuzhang Yunji DataCanvas est continuellement intégrée et appliquée avec des développements indépendants. des outils open source, qui accéléreront également l'application des clients gouvernementaux et des entreprises. Profitez de la valeur commerciale apportée par l'application de la technologie de fusion IA .
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Dans les domaines de l’apprentissage automatique et de la science des données, l’interprétabilité des modèles a toujours été au centre des préoccupations des chercheurs et des praticiens. Avec l'application généralisée de modèles complexes tels que l'apprentissage profond et les méthodes d'ensemble, la compréhension du processus décisionnel du modèle est devenue particulièrement importante. Explainable AI|XAI contribue à renforcer la confiance dans les modèles d'apprentissage automatique en augmentant la transparence du modèle. L'amélioration de la transparence des modèles peut être obtenue grâce à des méthodes telles que l'utilisation généralisée de plusieurs modèles complexes, ainsi que les processus décisionnels utilisés pour expliquer les modèles. Ces méthodes incluent l'analyse de l'importance des caractéristiques, l'estimation de l'intervalle de prédiction du modèle, les algorithmes d'interprétabilité locale, etc. L'analyse de l'importance des fonctionnalités peut expliquer le processus de prise de décision du modèle en évaluant le degré d'influence du modèle sur les fonctionnalités d'entrée. Estimation de l’intervalle de prédiction du modèle

Cet article présentera comment identifier efficacement le surajustement et le sous-apprentissage dans les modèles d'apprentissage automatique grâce à des courbes d'apprentissage. Sous-ajustement et surajustement 1. Surajustement Si un modèle est surentraîné sur les données de sorte qu'il en tire du bruit, alors on dit que le modèle est en surajustement. Un modèle surajusté apprend chaque exemple si parfaitement qu'il classera mal un exemple inédit/inédit. Pour un modèle surajusté, nous obtiendrons un score d'ensemble d'entraînement parfait/presque parfait et un score d'ensemble/test de validation épouvantable. Légèrement modifié : "Cause du surajustement : utilisez un modèle complexe pour résoudre un problème simple et extraire le bruit des données. Parce qu'un petit ensemble de données en tant qu'ensemble d'entraînement peut ne pas représenter la représentation correcte de toutes les données."

Dans les années 1950, l’intelligence artificielle (IA) est née. C’est à ce moment-là que les chercheurs ont découvert que les machines pouvaient effectuer des tâches similaires à celles des humains, comme penser. Plus tard, dans les années 1960, le Département américain de la Défense a financé l’intelligence artificielle et créé des laboratoires pour poursuivre son développement. Les chercheurs trouvent des applications à l’intelligence artificielle dans de nombreux domaines, comme l’exploration spatiale et la survie dans des environnements extrêmes. L'exploration spatiale est l'étude de l'univers, qui couvre l'ensemble de l'univers au-delà de la terre. L’espace est classé comme environnement extrême car ses conditions sont différentes de celles de la Terre. Pour survivre dans l’espace, de nombreux facteurs doivent être pris en compte et des précautions doivent être prises. Les scientifiques et les chercheurs pensent qu'explorer l'espace et comprendre l'état actuel de tout peut aider à comprendre le fonctionnement de l'univers et à se préparer à d'éventuelles crises environnementales.

Les défis courants rencontrés par les algorithmes d'apprentissage automatique en C++ incluent la gestion de la mémoire, le multithread, l'optimisation des performances et la maintenabilité. Les solutions incluent l'utilisation de pointeurs intelligents, de bibliothèques de threads modernes, d'instructions SIMD et de bibliothèques tierces, ainsi que le respect des directives de style de codage et l'utilisation d'outils d'automatisation. Des cas pratiques montrent comment utiliser la bibliothèque Eigen pour implémenter des algorithmes de régression linéaire, gérer efficacement la mémoire et utiliser des opérations matricielles hautes performances.

Le FP8 et la précision de quantification inférieure en virgule flottante ne sont plus le « brevet » du H100 ! Lao Huang voulait que tout le monde utilise INT8/INT4, et l'équipe Microsoft DeepSpeed a commencé à exécuter FP6 sur A100 sans le soutien officiel de NVIDIA. Les résultats des tests montrent que la quantification FP6 de la nouvelle méthode TC-FPx sur A100 est proche ou parfois plus rapide que celle de INT4, et a une précision supérieure à celle de cette dernière. En plus de cela, il existe également une prise en charge de bout en bout des grands modèles, qui ont été open source et intégrés dans des cadres d'inférence d'apprentissage profond tels que DeepSpeed. Ce résultat a également un effet immédiat sur l'accélération des grands modèles : dans ce cadre, en utilisant une seule carte pour exécuter Llama, le débit est 2,65 fois supérieur à celui des cartes doubles. un

Traducteur | Revu par Li Rui | Chonglou Les modèles d'intelligence artificielle (IA) et d'apprentissage automatique (ML) deviennent aujourd'hui de plus en plus complexes, et le résultat produit par ces modèles est une boîte noire – impossible à expliquer aux parties prenantes. L'IA explicable (XAI) vise à résoudre ce problème en permettant aux parties prenantes de comprendre comment fonctionnent ces modèles, en s'assurant qu'elles comprennent comment ces modèles prennent réellement des décisions et en garantissant la transparence des systèmes d'IA, la confiance et la responsabilité pour résoudre ce problème. Cet article explore diverses techniques d'intelligence artificielle explicable (XAI) pour illustrer leurs principes sous-jacents. Plusieurs raisons pour lesquelles l’IA explicable est cruciale Confiance et transparence : pour que les systèmes d’IA soient largement acceptés et fiables, les utilisateurs doivent comprendre comment les décisions sont prises

L'apprentissage automatique est une branche importante de l'intelligence artificielle qui donne aux ordinateurs la possibilité d'apprendre à partir de données et d'améliorer leurs capacités sans être explicitement programmés. L'apprentissage automatique a un large éventail d'applications dans divers domaines, de la reconnaissance d'images et du traitement du langage naturel aux systèmes de recommandation et à la détection des fraudes, et il change notre façon de vivre. Il existe de nombreuses méthodes et théories différentes dans le domaine de l'apprentissage automatique, parmi lesquelles les cinq méthodes les plus influentes sont appelées les « Cinq écoles d'apprentissage automatique ». Les cinq grandes écoles sont l’école symbolique, l’école connexionniste, l’école évolutionniste, l’école bayésienne et l’école analogique. 1. Le symbolisme, également connu sous le nom de symbolisme, met l'accent sur l'utilisation de symboles pour le raisonnement logique et l'expression des connaissances. Cette école de pensée estime que l'apprentissage est un processus de déduction inversée, à travers les connaissances existantes.

MetaFAIR s'est associé à Harvard pour fournir un nouveau cadre de recherche permettant d'optimiser le biais de données généré lors de l'apprentissage automatique à grande échelle. On sait que la formation de grands modèles de langage prend souvent des mois et utilise des centaines, voire des milliers de GPU. En prenant comme exemple le modèle LLaMA270B, sa formation nécessite un total de 1 720 320 heures GPU. La formation de grands modèles présente des défis systémiques uniques en raison de l’ampleur et de la complexité de ces charges de travail. Récemment, de nombreuses institutions ont signalé une instabilité dans le processus de formation lors de la formation des modèles d'IA générative SOTA. Elles apparaissent généralement sous la forme de pics de pertes. Par exemple, le modèle PaLM de Google a connu jusqu'à 20 pics de pertes au cours du processus de formation. Le biais numérique est à l'origine de cette imprécision de la formation,
