Nous savons que Pandas est la bibliothèque d'analyse et de manipulation de données la plus utilisée en Python. Il fournit de nombreuses fonctions et méthodes pour résoudre rapidement les problèmes de traitement des données lors de l'analyse des données.
Afin de mieux maîtriser l'utilisation des fonctions Python, j'ai pris comme exemple l'ensemble de données de désabonnement des clients pour partager les 30 fonctions et méthodes les plus couramment utilisées dans le processus d'analyse des données. Les données peuvent être téléchargées à la fin de l'article. .
Les données ressemblent à ceci :
import numpy as np import pandas as pd df = pd.read_csv("Churn_Modelling.csv") print(df.shape) df.columns
Sortie du résultat
(10000, 14) Index(['RowNumber', 'CustomerId', 'Surname', 'CreditScore', 'Geography','Gender', 'Age', 'Tenure', 'Balance', 'NumOfProducts', 'HasCrCard','IsActiveMember', 'EstimatedSalary', 'Exited'],dtype='object')
df.drop(['RowNumber', 'CustomerId', 'Surname', 'CreditScore'], axis=1, inplace=True) print(df[:2]) print(df.shape)
Sortie du résultat
Description : Le paramètre "axis" est défini sur 1 pour placer des colonnes et sur 0 pour placer des lignes. Définissez le paramètre "inplace=True" sur True pour enregistrer les modifications. Nous avons soustrait 4 colonnes, le nombre de colonnes a donc été réduit de 14 à 10.
GeographyGenderAgeTenureBalanceNumOfProductsHasCrCard 0FranceFemale 42 20.011 IsActiveMemberEstimatedSalaryExited 0 1101348.88 1 (10000, 10)
Nous lisons les données de colonnes partielles à partir du fichier csv. Le paramètre usecols peut être utilisé.
df_spec = pd.read_csv("Churn_Modelling.csv", usecols=['Gender', 'Age', 'Tenure', 'Balance']) df_spec.head()
Vous pouvez utiliser le paramètre nrows pour créer un bloc de données contenant les 5000 premières lignes du fichier csv. Vous pouvez également utiliser le paramètre skiprows pour sélectionner des lignes à partir de la fin du fichier. Skiprows=5000 signifie que nous sauterons les 5000 premières lignes lors de la lecture du fichier csv.
df_partial = pd.read_csv("Churn_Modelling.csv", nrows=5000) print(df_partial.shape)
Après avoir créé le bloc de données, nous aurons peut-être besoin d'un petit échantillon pour tester les données. Nous pouvons utiliser le paramètre n ou frac pour déterminer la taille de l'échantillon.
df= pd.read_csv("Churn_Modelling.csv", usecols=['Gender', 'Age', 'Tenure', 'Balance']) df_sample = df.sample(n=1000) df_sample2 = df.sample(frac=0.1)
La fonction isna détermine les valeurs manquantes dans un bloc de données. En utilisant isna avec la fonction somme, nous pouvons voir le nombre de valeurs manquantes dans chaque colonne.
df.isna().sum()
Utilisez loc et iloc pour ajouter les valeurs manquantes :
Nous créons d’abord 20 index aléatoires à sélectionner.
missing_index = np.random.randint(10000, size=20)
Nous utiliserons loc pour changer certaines valeurs en np.nan (valeurs manquantes).
df.loc[missing_index, ['Balance','Geography']] = np.nan
Il manque 20 valeurs dans les colonnes "Solde" et "Géographie". Faisons un autre exemple en utilisant iloc.
df.iloc[missing_index, -1] = np.nan
La fonction fillna est utilisée pour remplir les valeurs manquantes. Il offre de nombreuses options. Nous pouvons utiliser une valeur spécifique, une fonction agrégée telle que la moyenne, ou la valeur précédente ou suivante.
avg = df['Balance'].mean() df['Balance'].fillna(value=avg, inplace=True)
Le paramètre méthode de la fonction fillna peut être utilisé pour remplir les valeurs manquantes en fonction de la valeur précédente ou suivante dans la colonne (par exemple, method="ffill"). Cela peut être très utile pour les données séquentielles telles que les séries chronologiques.
Une autre façon de gérer les valeurs manquantes consiste à les supprimer. Le code suivant supprimera les lignes contenant les valeurs manquantes.
df.dropna(axis=0, how='any', inplace=True)
Dans certains cas, nous avons besoin d'observations (c'est-à-dire des lignes) qui correspondent à certaines conditions
france_churn = df[(df.Geography == 'France') & (df.Exited == 1)] france_churn.Geography.value_counts()
Les fonctions de requête offrent une méthode de livraison conditionnelle plus flexible. Nous pouvons les décrire à l'aide de chaînes.
df2 = df.query('80000 < Balance < 100000') df2 = df.query('80000 < Balance < 100000' df2 = df.query('80000 < Balance < 100000')
La condition peut avoir plusieurs valeurs. Dans ce cas, il est préférable d'utiliser la méthode isin au lieu d'écrire les valeurs individuellement.
df[df['Tenure'].isin([4,6,9,10])][:3]
La fonction Pandas Groupby est une fonction polyvalente et facile à utiliser qui vous aide à obtenir un aperçu de vos données. Cela facilite l’exploration des ensembles de données et révèle les relations sous-jacentes entre les variables.
Nous ferons plusieurs exemples de fonctions de rapport de groupe. Commençons simplement. Le code suivant regroupera les lignes en fonction de la combinaison Géographie, Genre puis donnera le flux moyen de chaque groupe
df[['Geography','Gender','Exited']].groupby(['Geography','Gender']).mean()
La fonction agg permet d'appliquer plusieurs fonctions d'agrégation sur le groupe, la liste des les fonctions sont comme le passage de paramètres.
df[['Geography','Gender','Exited']].groupby(['Geography','Gender']).agg(['mean','count'])
df_summary = df[['Geography','Exited','Balance']].groupby('Geography').agg({'Exited':'sum', 'Balance':'mean'}) df_summary.rename(columns={'Exited':'# of churned customers', 'Balance':'Average Balance of Customers'},inplace=True)
De plus, la "fonction NamedAgg" permet de renommer les colonnes de l'agrégat
import pandas as pd df_summary = df[['Geography','Exited','Balance']].groupby('Geography').agg(Number_of_churned_customers = pd.NamedAgg('Exited', 'sum'),Average_balance_of_customers = pd.NamedAgg('Balance', 'mean')) print(df_summary)
print(df_summary.reset_index())
16. Réinitialiser et supprimer l'index d'origine
df[['Geography','Exited','Balance']].sample(n=6).reset_index(drop=True)
17. Définir une colonne spécifique comme index
df_new.set_index('Geography')
18. Insérez une nouvelle colonne
group = np.random.randint(10, size=6) df_new['Group'] = group
df_new['Balance'] = df_new['Balance'].where(df_new['Group'] >= 6, 0)
20. Fonction de classement
df_new['rank'] = df_new['Balance'].rank(method='first', ascending=False).astype('int')
21. Nombre de valeurs uniques dans une colonne
df.Geography.nunique
22. Utilisation de la mémoire
df.memory_usage()
默认情况下,分类数据与对象数据类型一起存储。但是,它可能会导致不必要的内存使用,尤其是当分类变量具有较低的基数。
低基数意味着列与行数相比几乎没有唯一值。例如,地理列具有 3 个唯一值和 10000 行。
我们可以通过将其数据类型更改为"类别"来节省内存。
df['Geography'] = df['Geography'].astype('category')
替换函数可用于替换数据帧中的值。
df['Geography'].replace({0:'B1',1:'B2'})
pandas 不是一个数据可视化库,但它使得创建基本绘图变得非常简单。
我发现使用 Pandas 创建基本绘图更容易,而不是使用其他数据可视化库。
让我们创建平衡列的直方图。
pandas 可能会为浮点数显示过多的小数点。我们可以轻松地调整它。
df['Balance'].plot(kind='hist', figsize=(10,6), title='Customer Balance')
我们可以更改各种参数的默认显示选项,而不是每次手动调整显示选项。
pd.set_option("display.precision", 2)
可能要更改的一些其他选项包括:
pct_change用于计算序列中值的变化百分比。在计算时间序列或元素顺序数组中更改的百分比时,它很有用。
ser= pd.Series([2,4,5,6,72,4,6,72]) ser.pct_change()
我们可能需要根据文本数据(如客户名称)筛选观测值(行)。我已经在数据帧中添加了df_new名称。
df_new[df_new.Names.str.startswith('Mi')]
我们可能需要根据文本数据(如客户名称)筛选观测值(行)。我已经在数据帧中添加了df_new名称。
我们可以通过使用返回 Style 对象的 Style 属性来实现此目的,它提供了许多用于格式化和显示数据框的选项。例如,我们可以突出显示最小值或最大值。
它还允许应用自定义样式函数。
df_new.style.highlight_max(axis=0, color='darkgreen')
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!