


Avez-vous déjà commis ces erreurs fatales dans des projets d'IA ?
Traducteur | Bugatti
Reviewer | Sun Shujuan
Étant donné que les données sont au cœur de l'intelligence artificielle (IA), il n'est pas surprenant que les systèmes d'IA et d'apprentissage automatique (ML) aient besoin de suffisamment de données de haute qualité pour apprendre. De grandes quantités de données de haute qualité sont généralement nécessaires, en particulier pour les méthodes d’apprentissage supervisé, pour entraîner correctement un système d’IA ou de ML. La quantité de données requise dépend du modèle d’IA mis en œuvre, des algorithmes utilisés et d’autres facteurs tels que les données internes et les données tierces. Par exemple, les réseaux de neurones nécessitent de grandes quantités de données pour être entraînés, tandis que les arbres de décision ou les classificateurs bayésiens ne nécessitent pas autant de données pour obtenir des résultats de haute qualité.
Alors, vous pourriez penser que plus il y a de données, mieux c'est, n'est-ce pas ? S'il vous plaît, réfléchissez-y à nouveau. Les organisations disposant de grandes quantités de données (même des exaoctets de données) se rendent compte que disposer de plus de données ne résout pas le problème comme espéré. En effet, plus les données sont nombreuses, plus les questions se multiplient. Plus vous disposez de données, plus vous devez nettoyer et préparer de données, plus vous devez étiqueter et gérer de données, plus vous devez sécuriser, protéger, réduire les biais et autres mesures. Lorsque vous commencez à augmenter la quantité de données, les petits projets peuvent rapidement se transformer en grands projets. En fait, de grandes quantités de données tuent souvent les projets.
De toute évidence, l'étape manquante entre l'identification d'un problème commercial et l'organisation des données pour résoudre ce problème consiste à déterminer quelles données sont nécessaires et quelle quantité est réellement nécessaire. Vous avez besoin de suffisamment de données, mais n’en avez pas trop : ni plus, ni moins, juste ce qu’il faut. Malheureusement, les organisations se lancent souvent dans des projets d’IA sans comprendre les données. Les organisations doivent répondre à de nombreuses questions, notamment déterminer où se trouvent les données, quelle quantité de données elles possèdent déjà, dans quel état elles se trouvent, quelles caractéristiques des données sont les plus importantes, les utilisations internes et externes des données, les défis d'accès aux données, les exigences. pour améliorer les données existantes, ainsi que d’autres facteurs et questions clés. Sans répondre à ces questions, les projets d’IA risquent d’échouer, voire de se noyer dans un océan de données.
1. Mieux comprendre les données
Afin de comprendre la quantité de données dont vous avez besoin, vous devez d'abord comprendre où se trouvent les données dans la structure du projet d'IA. Un moyen visuel de nous aider à comprendre la valeur croissante que nous tirons des données est la « Pyramide DIKUW » (parfois appelée « Pyramide DIKW »), qui montre comment la base de données peut être transformée grâce à l'information, à la connaissance, à la compréhension et à la sagesse. une plus grande valeur.
Avec une base de données solide, vous pouvez obtenir des informations plus approfondies sur la couche d'informations suivante, ce qui peut vous aider à répondre à des questions fondamentales sur ces données. Une fois que vous avez établi des liens de base entre les données pour obtenir des informations, vous pouvez trouver des modèles dans ces informations et comprendre comment les éléments d'information se connectent entre eux pour obtenir des informations plus approfondies. Les organisations peuvent gagner plus de valeur en s'appuyant sur la couche de connaissances et en comprenant pourquoi ces modèles se produisent, aidant ainsi à comprendre les modèles sous-jacents. Enfin, vous pouvez tirer le meilleur parti des informations au niveau du renseignement en comprenant profondément la cause et l’effet des décisions en matière d’information.
La récente vague d'IA se concentre principalement sur la couche de connaissances, car l'apprentissage automatique fournit des informations permettant d'identifier des modèles au-dessus de la couche d'informations. Malheureusement, l’apprentissage automatique se heurte à un goulot d’étranglement au niveau de la compréhension, car trouver des modèles ne suffit pas pour faire des inférences. Nous disposons de l’apprentissage automatique, mais nous n’avons pas de raisonnement automatique pour comprendre pourquoi des modèles se produisent. Vous constatez cette limitation à chaque fois que vous interagissez avec un chatbot. Bien que le traitement du langage naturel (NLP) basé sur l'apprentissage automatique soit très efficace pour comprendre la parole humaine et déduire l'intention, il rencontre des limites lorsqu'il s'agit de comprendre et de raisonner. Par exemple, si vous demandez à un assistant vocal si vous souhaitez porter un imperméable demain, il ne comprend pas que vous demandez la météo. C'est aux humains de fournir cette information aux machines, car l'assistant vocal n'a aucune idée de ce qu'est réellement la pluie.
2. Restez conscient des données pour éviter les échecs
Le Big Data nous a appris à gérer de grandes quantités de données. Pas seulement la manière dont les données sont stockées, mais aussi la manière dont toutes ces données sont traitées, manipulées et analysées. Le machine learning ajoute encore plus de valeur en traitant les différents types de données non structurées, semi-structurées ou structurées que les organisations collectent. En effet, cette récente vague d’IA est en réalité une vague d’analyses basées sur le Big Data.
Mais c’est précisément pour cette raison que certaines organisations subissent un coup dur en matière d’IA. Plutôt que de gérer des projets d’IA dans une perspective centrée sur les données, ils se concentrent sur les aspects fonctionnels. Pour naviguer dans les projets d’IA et éviter des erreurs fatales, les organisations doivent mieux comprendre non seulement l’IA et l’apprentissage automatique, mais également les différents « V » du Big Data. Il ne s’agit pas seulement de la quantité de données disponibles, mais aussi de leur nature. Certains des V du Big Data incluent :
- Quantité : la quantité absolue de données volumineuses détenues.
- Vitesse : la vitesse à laquelle le Big Data évolue. Utiliser avec succès l’IA signifie appliquer l’IA aux données à haut débit.
- Variété : les données peuvent se présenter sous de nombreux formats différents, notamment des données structurées telles que des bases de données, des données semi-structurées telles que des factures et des données non structurées telles que des e-mails, des images et des fichiers vidéo. Les systèmes d’IA efficaces peuvent gérer cette diversité.
- Authenticité : cela fait référence à la qualité et à l'exactitude des données et à la confiance que vous accordez à ces données. Les déchets entrent et sortent, en particulier dans les systèmes d'IA basés sur les données. Par conséquent, les systèmes d’IA efficaces doivent être capables de gérer des qualités de données très variables.
Avec des décennies d'expérience dans la gestion de projets Big Data, les organisations qui réussissent dans le domaine de l'IA ont principalement réussi dans le Big Data. Les organisations qui ont vu des projets d’IA échouer abordent souvent les problèmes d’IA avec un état d’esprit de développement d’applications.
3. Des données erronées excessives et des données correctes insuffisantes tuent les projets d'IA
Bien que les projets d'IA soient démarrés correctement, le manque de données nécessaires, le manque de compréhension et les problèmes pratiques non résolus tuent les projets d'IA. Les organisations continuent d’avancer sans une véritable compréhension des données et de la qualité des données requises, ce qui crée de réels défis.
L'une des raisons pour lesquelles les organisations commettent cette erreur de données est qu'elles ne disposent d'aucune véritable méthodologie lorsqu'il s'agit de travailler sur des projets d'IA autre que l'utilisation de méthodologies agiles ou de développement d'applications. Pourtant, les organisations qui réussissent ont réalisé que l’utilisation d’une approche centrée sur les données implique la compréhension des données comme première étape d’une approche projet. L'approche CRISP-DM, qui existe depuis plus de 20 ans, considère la compréhension des données comme la prochaine étape après l'identification des besoins de l'entreprise. Basée sur CRISP-DM et combinée à des méthodes agiles, l’approche Cognitive Project Management with AI (CPMAI) nécessite une compréhension des données dans une deuxième phase. D’autres approches efficaces nécessitent également de comprendre les données dès le début du projet, car les projets d’IA sont, après tout, des projets de données. Comment construire un programme réussi sur les données si vous l’abordez sans comprendre les données ? C’est définitivement une erreur fatale que vous voulez éviter.
Lien original : https://www.forbes.com/sites/cognitiveworld/2022/08/20/are-you-making-these-deadly-mistakes-with-your-ai-projects/?sh= 352955946b54
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Lors de la conversion des chaînes en objets dans vue.js, JSON.Parse () est préféré pour les chaînes JSON standard. Pour les chaînes JSON non standard, la chaîne peut être traitée en utilisant des expressions régulières et réduisez les méthodes en fonction du format ou du codé décodé par URL. Sélectionnez la méthode appropriée en fonction du format de chaîne et faites attention aux problèmes de sécurité et d'encodage pour éviter les bogues.

L'article présente le fonctionnement de la base de données MySQL. Tout d'abord, vous devez installer un client MySQL, tel que MySQLWorkBench ou le client de ligne de commande. 1. Utilisez la commande MySQL-UROot-P pour vous connecter au serveur et connecter avec le mot de passe du compte racine; 2. Utilisez Createdatabase pour créer une base de données et utilisez Sélectionner une base de données; 3. Utilisez CreateTable pour créer une table, définissez des champs et des types de données; 4. Utilisez InsertInto pour insérer des données, remettre en question les données, mettre à jour les données par mise à jour et supprimer les données par Supprimer. Ce n'est qu'en maîtrisant ces étapes, en apprenant à faire face à des problèmes courants et à l'optimisation des performances de la base de données que vous pouvez utiliser efficacement MySQL.

Résumé: Il existe les méthodes suivantes pour convertir les tableaux de chaîne Vue.js en tableaux d'objets: Méthode de base: utilisez la fonction de carte pour convenir à des données formatées régulières. Gameplay avancé: l'utilisation d'expressions régulières peut gérer des formats complexes, mais ils doivent être soigneusement écrits et considérés. Optimisation des performances: Considérant la grande quantité de données, des opérations asynchrones ou des bibliothèques efficaces de traitement des données peuvent être utilisées. MEILLEUR PRATIQUE: Effacer le style de code, utilisez des noms de variables significatifs et des commentaires pour garder le code concis.

Il existe de nombreuses raisons pour lesquelles la startup MySQL échoue, et elle peut être diagnostiquée en vérifiant le journal des erreurs. Les causes courantes incluent les conflits de port (vérifier l'occupation du port et la configuration de modification), les problèmes d'autorisation (vérifier le service exécutant les autorisations des utilisateurs), les erreurs de fichier de configuration (vérifier les paramètres des paramètres), la corruption du répertoire de données (restaurer les données ou reconstruire l'espace de la table), les problèmes d'espace de la table InNODB (vérifier les fichiers IBDATA1), la défaillance du chargement du plug-in (vérification du journal des erreurs). Lors de la résolution de problèmes, vous devez les analyser en fonction du journal d'erreur, trouver la cause profonde du problème et développer l'habitude de sauvegarder régulièrement les données pour prévenir et résoudre des problèmes.

Afin de définir le délai d'expiration de Vue Axios, nous pouvons créer une instance AxiOS et spécifier l'option Timeout: dans les paramètres globaux: vue.prototype. $ Axios = axios.create ({timeout: 5000}); Dans une seule demande: ce. $ axios.get ('/ api / utilisateurs', {timeout: 10000}).

L'optimisation des performances MySQL doit commencer à partir de trois aspects: configuration d'installation, indexation et optimisation des requêtes, surveillance et réglage. 1. Après l'installation, vous devez ajuster le fichier my.cnf en fonction de la configuration du serveur, tel que le paramètre innodb_buffer_pool_size, et fermer query_cache_size; 2. Créez un index approprié pour éviter les index excessifs et optimiser les instructions de requête, telles que l'utilisation de la commande Explication pour analyser le plan d'exécution; 3. Utilisez le propre outil de surveillance de MySQL (ShowProcessList, Showstatus) pour surveiller la santé de la base de données, et sauvegarde régulièrement et organisez la base de données. Ce n'est qu'en optimisant en continu ces étapes que les performances de la base de données MySQL peuvent être améliorées.

Traiter efficacement 7 millions d'enregistrements et créer des cartes interactives avec la technologie géospatiale. Cet article explore comment traiter efficacement plus de 7 millions d'enregistrements en utilisant Laravel et MySQL et les convertir en visualisations de cartes interactives. Exigences initiales du projet de défi: extraire des informations précieuses en utilisant 7 millions d'enregistrements dans la base de données MySQL. Beaucoup de gens considèrent d'abord les langages de programmation, mais ignorent la base de données elle-même: peut-il répondre aux besoins? La migration des données ou l'ajustement structurel est-il requis? MySQL peut-il résister à une charge de données aussi importante? Analyse préliminaire: les filtres et les propriétés clés doivent être identifiés. Après analyse, il a été constaté que seuls quelques attributs étaient liés à la solution. Nous avons vérifié la faisabilité du filtre et établi certaines restrictions pour optimiser la recherche. Recherche de cartes basée sur la ville

Ingénieur backend à distance Emploi Vacant Société: Emplacement du cercle: Bureau à distance Type d'emploi: Salaire à temps plein: 130 000 $ - 140 000 $ Description du poste Participez à la recherche et au développement des applications mobiles Circle et des fonctionnalités publiques liées à l'API couvrant l'intégralité du cycle de vie de développement logiciel. Les principales responsabilités complètent indépendamment les travaux de développement basés sur RubyOnRails et collaborent avec l'équipe frontale React / Redux / Relay. Créez les fonctionnalités de base et les améliorations des applications Web et travaillez en étroite collaboration avec les concepteurs et le leadership tout au long du processus de conception fonctionnelle. Promouvoir les processus de développement positifs et hiérarchiser la vitesse d'itération. Nécessite plus de 6 ans de backend d'applications Web complexe
