Comprendre vos données : les éléments essentiels de l'analyse exploratoire des données.

WBOY
Libérer: 2024-08-10 06:56:02
original
785 Les gens l'ont consulté

Understanding Your Data: The Essentials of Exploratory Data Analysis.

INTRODUCTION

En tant que data scientists et analyste de données, il s'agit d'une étape initiale très importante et cruciale qui doit être effectuée. Après la collecte des données, les données sont sous forme brute et non traitées. Un data scientist, un analyste ou toute autre personne est incapable de comprendre la structure et le contenu de ces données. C'est là qu'EDA intervient ; analyser et visualiser les données pour comprendre leurs caractéristiques clés, découvrir des modèles et identifier les relations entre les variables.

Comprendre les données nécessite de comprendre les qualités et caractéristiques attendues des données. Les connaissances que vous avez sur les données, les besoins que les données satisferont, leur contenu et leur création. Examinons maintenant plus en profondeur l'EDA pour comprendre comment nous devons transformer les données en informations. Les informations sont des données qui ont été traitées, organisées, interprétées et structurées.

ANALYSE EXPLORATOIRE DES DONNÉES

Comme défini ci-dessus, l'EDA fait référence à l'analyse et à la visualisation de données pour comprendre leurs caractéristiques clés, découvrir des modèles et identifier les relations entre les variables. Il aide à déterminer la meilleure façon de manipuler les sources de données pour obtenir les réponses dont vous avez besoin, permettant ainsi aux scientifiques des données de découvrir plus facilement des modèles, de repérer des anomalies et de tester des hypothèses ou des suppositions. C'est une première étape importante dans l'analyse des données, c'est la base pour comprendre et interpréter des ensembles de données complexes.

TYPES D'EDA
Il s'agit de différentes méthodes et approches utilisées dans le processus d'analyse exploratoire des données. Voici trois principaux types d’EDA :

Analyse univariée : Il s'agit de la forme la plus simple que vous puissiez utiliser pour analyser des données. Elle explore chaque variable d'un ensemble de données. Implique d’examiner la plage de valeurs, ainsi que la tendance centrale des valeurs. Il décrit le modèle de réponse, chaque variable individuellement Par exemple, examiner l'âge des employés d'une entreprise.

Analyse bivariée : Dans cette analyse, deux variables sont observées. Il vise à déterminer s’il existe un lien statistique entre les deux variables et si oui, quelle est leur intensité. Bivarié permet aux chercheurs d'examiner la relation entre deux variables. Avant d’utiliser cette analyse, vous devez comprendre pourquoi elle est importante ;

 Bivariate analysis helps identify trends and patterns
 Helps identify cause and effect relationships.
 Helps researchers to make predictions.
 It also inform decision-making.
Copier après la connexion

Les techniques utilisées dans l'analyse bivariée comprennent les nuages ​​de points, la corrélation, la régression, les tests du chi carré, les tests t et l'analyse de variance qui peuvent être utilisées pour déterminer la relation entre deux variables.

Analyse multivariée : Cela implique l'étude statistique d'expériences dans lesquelles plusieurs mesures sont effectuées sur chaque unité expérimentale et pour lesquelles les relations entre les mesures multivariées et leur structure sont importantes pour le compréhension de l’expérience. Par exemple, combien d'heures par jour une personne passe sur Instagram.

Les techniques incluent les techniques de dépendance et les techniques d'interdépendance.

LES ESSENTIELS DE L'EDA

a. Collecte de données : La première étape lorsque l'on traite des données consiste d'abord à disposer des données souhaitées. Les données sont collectées à partir de diverses sources en fonction du sujet sur lequel vous travaillez, en utilisant des méthodes telles que le web scraping ou le téléchargement d'ensembles de données à partir de plateformes telles que Kaggle.

b. Comprendre vos données : Avant de procéder au nettoyage, vous devez d'abord comprendre les données que vous avez collectées. Essayez de comprendre le nombre de lignes et de colonnes avec lesquelles vous travaillerez, les informations de chaque colonne, les caractéristiques de vos données, les types de données et bien plus encore.

c. Nettoyage des données : Cette étape consiste à identifier et à corriger les erreurs, les incohérences, les doublons ou les entrées incomplètes dans les données. L'objectif principal de cette étape est d'améliorer la qualité et l'utilité des données, conduisant ainsi à des résultats plus fiables et plus précis. Le nettoyage des données implique plusieurs étapes ;
Comment nettoyer les données ;

      i)Handling missing values: by imputing them using mean, mode, median of the column, fill with a constant, forward-fill, backward-fill, interpolation or dropping them using the dropna() function.

      ii)Detecting outliers: you can detect outliers using the interquartile range, visualizing, using Z-Score or using One-Class SVM.

      iii)Handle duplicates: Drop duplicate records

      iv)Fix structural errors: Address issues with the layout and format of your data such as date formats or misaligned fields.

      v)Remove unnecessary values: Your dataset might contain irrelevant or redundant information that is unnecessary for your analysis. You can identify and remove any records or fields that won't contribute to the insights you are trying to derive. 
Copier après la connexion

d. Statistiques récapitulatives. Cette étape fournit un aperçu rapide des tendances centrales et de la répartition de l'ensemble de données, y compris la moyenne, la médiane, le mode, l'écart type, le minimum, le maximum en utilisant la méthode de description dans pandas ou numpy pour les fonctionnalités numériques. Pour les fonctionnalités catégorielles, nous pouvons utiliser des graphiques et des statistiques récapitulatives réelles.

e. Visualisation des données : Il s'agit de la pratique consistant à concevoir et à créer des représentations graphiques ou visuelles faciles à communiquer et à comprendre d'une grande quantité de données quantitatives et qualitatives complexes. Essayez d'identifier les tendances et les modèles dans l'ensemble de données, à l'aide de lignes, de barres, de nuages ​​de points et de boîtes à moustaches avec des outils comme matplotlib, seaborn ou tableau.

f. Data relationship. Identify the relationship between your data by performing correlation analysis to examine correlations between variables.

  • Analyze relationships between categorical variables. Use techniques like correlation matrices, heatmaps to visualize.

g. Test Hypothesis: Conduct tests like t-tests, chi-square tests, and ANOVA to determine statistical significance.

h. Communicate Your findings and Insights: This is the final step in carrying out EDA. This includes summarizing your evaluation, highlighting fundamental discoveries, and imparting your outcomes cleanly.

  • Clearly state the targets and scope of your analysis.
  • Use visualizations to display your findings.
  • Highlight critical insights, patterns, or anomalies you discovered in your EDA.
  • Discuss any barriers or caveats related to your analysis.

The next step after conducting Exploratory Data Analysis (EDA) in a data science project is feature engineering. This process involves transforming your features into a format that can be effectively understood and utilized by your model. Feature engineering builds on the insights gained from EDA to enhance the data, ensuring that it is in the best possible form for model training and performance. Let’s explore feature engineering in simple terms.

Feature Engineering.

This is the process of selecting, manipulating and transforming raw data into features that can be used in model creation. This process involves 4 main steps;

  1. Feature Creation:- Create new features from the existing features, using your domain knowledge or observing patterns in the data. This step helps to improve the model performance.

  2. Feature Transformation: This involves the transformation of your features into more suitable representation for your model. This is done to ensure that the model can effectively learn from the data. Transforming data involves 4 types;

     i) Normalization: Changing the shape of your distribution data. Map data to a bounded range using methods like Min-Max Normalization or Z-score Normalization.
    
     ii) Scaling. Rescale your features to have a similar scale  to make sure the model considers all features equally using methods like Min-Max Scaling, Standardization and  MaxAbs Scaling.
    
     iii) Encoding. Apply encoding to your categorical features to transform them to numerical features using methods like label encoding, One-hot encoding, Ordinal encoding or any other encoding according to the structure of your categorical columns.
    
     iv) Transformation. Transform the features using mathematical operations to change the distribution of features for example logarithmic, square root.
    
    Copier après la connexion
  3. Feature Extraction: Extract new features from the existing attributes. It is concerned with reducing the number of features in the model, such as using Principal Component Analysis(PCA).

  4. Feature Selection: Identify and select the most relevant features for further analysis. Use filter method( Evaluate features based on statistical metrics and select the most relevant ones), wrapper method(Use machine learning models to evaluate feature subsets and select the best combination based on model performance) or embedded method(Perform feature selection as part of model training e.g regularization techniques)

Tools Used for Performing EDA

-Let's look at the tools we can use to perform our analysis efficiently.

Python libraries

         i)   Pandas: Provides extensive functions for data manipulation and analysis.

         ii)  Matplotlib: Used for creating static, interactive, and animated visualizations.

         iii) Seaborn: Built on top of Matplotlib, providing a high-level interface for drawing attractive and informative capabilities.

         iv)  Plotly: Used for making interactive plots and offers more sophisticated visualization capabilities.
Copier après la connexion

R Packages

     i)  ggplot2: This is used for making complex plots from data 
      in a dataframe.

    ii)  dplyr: It helps in solving the most common data manipulation challenges.

   iii)  tidyr: This tool is used to tidy your dataset; Storing it in a consistent form that matches the semantics of the dataset with the way it is stored.
Copier après la connexion

Conclusion
Exploratory Data Analysis (EDA) forms the foundation of data science, offering insights and guiding informed decision-making. EDA empowers data scientists to uncover hidden truths and steer projects toward success. Always ensure to perform thorough EDA for effective model performance.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

source:dev.to
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal
À propos de nous Clause de non-responsabilité Sitemap
Site Web PHP chinois:Formation PHP en ligne sur le bien-être public,Aidez les apprenants PHP à grandir rapidement!