Python Pandas data processing high-frequency operation example analysis

WBOY
Release: 2023-05-27 21:31:04
forward
980 people have browsed it

引入依赖

# 导入模块
import pymysql
import pandas as pd
import numpy as np
import time

# 数据库
from sqlalchemy import create_engine

# 可视化
import matplotlib.pyplot as plt
# 如果你的设备是配备Retina屏幕的mac,可以在jupyter notebook中,使用下面一行代码有效提高图像画质
%config InlineBackend.figure_format = 'retina'
# 解决 plt 中文显示的问题 mymac
plt.rcParams['font.sans-serif'] = ['Arial Unicode MS']
# 设置显示中文 需要先安装字体 aistudio
plt.rcParams['font.sans-serif'] = ['SimHei'] # 指定默认字体
plt.rcParams['axes.unicode_minus'] = False  # 用来正常显示负号
import seaborn as sns
# notebook渲染图片
%matplotlib inline
import pyecharts

# 忽略版本问题
import warnings
warnings.filterwarnings("ignore")
Copy after login
# 下载中文字体
!wget https://mydueros.cdn.bcebos.com/font/simhei.ttf 
# 将字体文件复制到 matplotlib'字体路径
!cp simhei.ttf /opt/conda/envs/python35-paddle120-env/Lib/python3,7/site-packages/matplotib/mpl-data/fonts.

# 一般只需要将字体文件复制到系统字体田录下即可,但是在 studio上该路径没有写权限,所以此方法不能用 
# !cp simhei. ttf /usr/share/fonts/

# 创建系统字体文件路径
!mkdir .fonts
# 复制文件到该路径
!cp simhei.ttf .fonts/
!rm -rf .cache/matplotlib
Copy after login

Python Pandas data processing high-frequency operation example analysis

算法相关依赖

# 数据归一化
from sklearn.preprocessing import MinMaxScaler

# kmeans聚类
from sklearn.cluster import KMeans
# DBSCAN聚类
from sklearn.cluster import DBSCAN
# 线性回归算法
from sklearn.linear_model import LinearRegression
# 逻辑回归算法
from sklearn.linear_model import LogisticRegression
# 高斯贝叶斯
from sklearn.naive_bayes import GaussianNB
# 划分训练/测试集
from sklearn.model_selection import train_test_split
# 准确度报告
from sklearn import metrics
# 矩阵报告和均方误差
from sklearn.metrics import classification_report, mean_squared_error
Copy after login

获取数据

from sqlalchemy import create_engine
engine = create_engine('mysql+pymysql://root:root@127.0.0.1:3306/ry?charset=utf8')

# 查询插入后相关表名及行数
result_query_sql = "use information_schema;"
engine.execute(result_query_sql)
result_query_sql = "SELECT table_name,table_rows FROM tables WHERE TABLE_NAME LIKE 'log%%' order by table_rows desc;"
df_result = pd.read_sql(result_query_sql, engine)
Copy after login

Python Pandas data processing high-frequency operation example analysis

生成df

# list转df
df_result = pd.DataFrame(pred,columns=['pred'])
df_result['actual'] = test_target
df_result

# df取子df
df_new = df_old[['col1','col2']]

# dict生成df
df_test = pd.DataFrame({<!-- -->&#39;A&#39;:[0.587221, 0.135673, 0.135673, 0.135673, 0.135673], 
                        &#39;B&#39;:[&#39;a&#39;, &#39;b&#39;, &#39;c&#39;, &#39;d&#39;, &#39;e&#39;],
                        &#39;C&#39;:[1, 2, 3, 4, 5]})

# 指定列名
data = pd.DataFrame(dataset.data, columns=dataset.feature_names)

# 使用numpy生成20个指定分布(如标准正态分布)的数
tem = np.random.normal(0, 1, 20)
df3 = pd.DataFrame(tem)

# 生成一个和df长度相同的随机数dataframe
df1 = pd.DataFrame(pd.Series(np.random.randint(1, 10, 135)))
Copy after login

重命名列

# 重命名列
data_scaled = data_scaled.rename(columns={<!-- -->&#39;本体油位&#39;: &#39;OILLV&#39;})
Copy after login

增加列

# df2df
df_jj2yyb[&#39;r_time&#39;] = pd.to_datetime(df_jj2yyb[&#39;cTime&#39;])

# 新增一列根据salary将数据分为3组
bins = [0,5000, 20000, 50000]
group_names = [&#39;低&#39;, &#39;中&#39;, &#39;高&#39;]
df[&#39;categories&#39;] = pd.cut(df[&#39;salary&#39;], bins, labels=group_names)
Copy after login

缺失值处理

# 检查数据中是否含有任何缺失值
df.isnull().values.any()

# 查看每列数据缺失值情况
df.isnull().sum()

# 提取某列含有空值的行
df[df[&#39;日期&#39;].isnull()]

# 输出每列缺失值具体行数
for i in df.columns:
    if df[i].count() != len(df):
        row = df[i][df[i].isnull().values].index.tolist()
        print(&#39;列名:"{}", 第{}行位置有缺失值&#39;.format(i,row))

# 众数填充
heart_df[&#39;Thal&#39;].fillna(heart_df[&#39;Thal&#39;].mode(dropna=True)[0], inplace=True)

# 连续值列的空值用平均值填充
dfcolumns = heart_df_encoded.columns.values.tolist()
for item in dfcolumns:
    if heart_df_encoded[item].dtype == &#39;float&#39;:
       heart_df_encoded[item].fillna(heart_df_encoded[item].median(), inplace=True)
Copy after login

独热编码

df_encoded = pd.get_dummies(df_data)
Copy after login

替换值

# 按列值替换
num_encode = {<!-- -->
    &#39;AHD&#39;: {<!-- -->&#39;No&#39;:0, "Yes":1},
}
heart_df.replace(num_encode,inplace=True)
Copy after login

删除列

df_jj2.drop([&#39;coll_time&#39;, &#39;polar&#39;, &#39;conn_type&#39;, &#39;phase&#39;, &#39;id&#39;, &#39;Unnamed: 0&#39;],axis=1,inplace=True)
Copy after login

数据筛选

# 取第33行数据
df.iloc[32]

# 某列以xxx字符串开头
df_jj2 = df_512.loc[df_512["transformer"].str.startswith(&#39;JJ2&#39;)]

df_jj2yya = df_jj2.loc[df_jj2["变压器编号"]==&#39;JJ2YYA&#39;]

# 提取第一列中不在第二列出现的数字
df[&#39;col1&#39;][~df[&#39;col1&#39;].isin(df[&#39;col2&#39;])]

# 查找两列值相等的行号
np.where(df.secondType == df.thirdType)

# 包含字符串
results = df[&#39;grammer&#39;].str.contains("Python")

# 提取列名
df.columns

# 查看某列唯一值(种类)
df[&#39;education&#39;].nunique()

# 删除重复数据
df.drop_duplicates(inplace=True)

# 某列等于某值
df[df.col_name==0.587221]
# df.col_name==0.587221 各行判断结果返回值(True/False)

# 查看某列唯一值及计数
df_jj2["变压器编号"].value_counts()

# 时间段筛选
df_jj2yyb_0501_0701 = df_jj2yyb[(df_jj2yyb[&#39;r_time&#39;] >=pd.to_datetime(&#39;20200501&#39;)) & (df_jj2yyb[&#39;r_time&#39;] <= pd.to_datetime(&#39;20200701&#39;))]

# 数值筛选
df[(df[&#39;popularity&#39;] > 3) & (df[&#39;popularity&#39;] < 7)]

# 某列字符串截取
df[&#39;Time&#39;].str[0:8]

# 随机取num行
ins_1 = df.sample(n=num)

# 数据去重
df.drop_duplicates([&#39;grammer&#39;])

# 按某列排序(降序)
df.sort_values("popularity",inplace=True, ascending=False)

# 取某列最大值所在行
df[df[&#39;popularity&#39;] == df[&#39;popularity&#39;].max()]

# 取某列最大num行
df.nlargest(num,&#39;col_name&#39;)
# 最大num列画横向柱形图
df.nlargest(10).plot(kind=&#39;barh&#39;)
Copy after login

Python Pandas data processing high-frequency operation example analysis

差值计算

# axis=0或index表示上下移动, periods表示移动的次数,为正时向下移,为负时向上移动。
print(df.diff( periods=1, axis=‘index‘))
print(df.diff( periods=-1, axis=0))
# axis=1或columns表示左右移动,periods表示移动的次数,为正时向右移,为负时向左移动。
print(df.diff( periods=1, axis=‘columns‘))
print(df.diff( periods=-1, axis=1))

# 变化率计算
data[&#39;收盘价(元)&#39;].pct_change()

# 以5个数据作为一个数据滑动窗口,在这个5个数据上取均值
df[&#39;收盘价(元)&#39;].rolling(5).mean()
Copy after login

数据修改

# 删除最后一行
df = df.drop(labels=df.shape[0]-1)

# 添加一行数据[&#39;Perl&#39;,6.6]
row = {<!-- -->&#39;grammer&#39;:&#39;Perl&#39;,&#39;popularity&#39;:6.6}
df = df.append(row,ignore_index=True)

# 某列小数转百分数
df.style.format({<!-- -->&#39;data&#39;: &#39;{0:.2%}&#39;.format})

# 反转行
df.iloc[::-1, :]

# 以两列制作数据透视
pd.pivot_table(df,values=["salary","score"],index="positionId")

# 同时对两列进行计算
df[["salary","score"]].agg([np.sum,np.mean,np.min])

# 对不同列执行不同的计算
df.agg({<!-- -->"salary":np.sum,"score":np.mean})
Copy after login

时间格式转换

# 时间戳转时间字符串
df_jj2[&#39;cTime&#39;] =df_jj2[&#39;coll_time&#39;].apply(lambda x: time.strftime("%Y-%m-%d %H:%M:%S", time.localtime(x)))

# 时间字符串转时间格式
df_jj2yyb[&#39;r_time&#39;] = pd.to_datetime(df_jj2yyb[&#39;cTime&#39;])

# 时间格式转时间戳
dtime = pd.to_datetime(df_jj2yyb[&#39;r_time&#39;])
v = (dtime.values - np.datetime64(&#39;1970-01-01T08:00:00Z&#39;)) / np.timedelta64(1, &#39;ms&#39;)
df_jj2yyb[&#39;timestamp&#39;] = v
Copy after login

设置索引列

df_jj2yyb_small_noise = df_jj2yyb_small_noise.set_index(&#39;timestamp&#39;)
Copy after login

折线图

fig, ax = plt.subplots()
df.plot(legend=True, ax=ax)
plt.legend(loc=1)
plt.show()
Copy after login

Python Pandas data processing high-frequency operation example analysis

plt.figure(figsize=(20, 6))
plt.plot(max_iter_list, accuracy, color=&#39;red&#39;, marker=&#39;o&#39;,
         markersize=10)
plt.title(&#39;Accuracy Vs max_iter Value&#39;)
plt.xlabel(&#39;max_iter Value&#39;)
plt.ylabel(&#39;Accuracy&#39;)
Copy after login

Python Pandas data processing high-frequency operation example analysis

散点图

plt.scatter(df[:, 0], df[:, 1], c="red", marker=&#39;o&#39;, label=&#39;lable0&#39;)   
plt.xlabel(&#39;x&#39;)  
plt.ylabel(&#39;y&#39;)  
plt.legend(loc=2)  
plt.show()
Copy after login

Python Pandas data processing high-frequency operation example analysis

柱状图

df = pd.Series(tree.feature_importances_, index=data.columns)
# 取某列最大Num行画横向柱形图
df.nlargest(10).plot(kind=&#39;barh&#39;)
Copy after login

Python Pandas data processing high-frequency operation example analysis

Python Pandas data processing high-frequency operation example analysis

热力图

df_corr = combine.corr()
plt.figure(figsize=(20,20))
g=sns.heatmap(df_corr,annot=True,cmap="RdYlGn")
Copy after login

Python Pandas data processing high-frequency operation example analysis

66个最常用的pandas数据分析函数

df #任何pandas DataFrame对象 
s #任何pandas series对象
Copy after login

从各种不同的来源和格式导入数据

pd.read_csv(filename) # 从CSV文件 
pd.read_table(filename) # 从分隔的文本文件(例如CSV)中 
pd.read_excel(filename) # 从Excel文件 
pd.read_sql(query, connection_object) # 从SQL表/数据库中读取 
pd.read_json(json_string) # 从JSON格式的字符串,URL或文件中读取。
pd.read_html(url) # 解析html URL,字符串或文件,并将表提取到数据帧列表 
pd.read_clipboard() # 获取剪贴板的内容并将其传递给 read_table() 
pd.DataFrame(dict) # 从字典中,列名称的键,列表中的数据的值
Copy after login

导出数据

df.to_csv(filename) # 写入CSV文件 
df.to_excel(filename) # 写入Excel文件 
df.to_sql(table_name, connection_object) # 写入SQL表 
df.to_json(filename) # 以JSON格式写入文件
Copy after login

创建测试对象

pd.DataFrame(np.random.rand(20,5))               # 5列20行随机浮点数 pd.Series(my_list)                               # 从一个可迭代的序列创建一个序列 my_list 
df.index = pd.date_range(&#39;1900/1/30&#39;, periods=df.shape[0]) # 添加日期索引
Copy after login

查看、检查数据

df.head(n)                       # DataFrame的前n行 
df.tail(n)                       # DataFrame的最后n行 
df.shape                         # 行数和列数 
df.info()                        # 索引,数据类型和内存信息 
df.describe()                    # 数值列的摘要统计信息 
s.value_counts(dropna=False)     # 查看唯一值和计数 
df.apply(pd.Series.value_counts) # 所有列的唯一值和计数
Copy after login

数据选取

使用这些命令选择数据的特定子集。
df[col]               # 返回带有标签col的列 
df[[col1, col2]]      # 返回列作为新的DataFrame 
s.iloc[0]             # 按位置选择 
s.loc[&#39;index_one&#39;]    # 按索引选择 
df.iloc[0,:]          # 第一行 
df.iloc[0,0]          # 第一栏的第一元素
Copy after login

数据清理

df.columns = [&#39;a&#39;,&#39;b&#39;,&#39;c&#39;]                  # 重命名列 
pd.isnull()                                 # 空值检查,返回Boolean Arrray 
pd.notnull()                                # 与pd.isnull() 相反 
df.dropna()                                 # 删除所有包含空值的行 
df.dropna(axis=1)                           # 删除所有包含空值的列 
df.dropna(axis=1,thresh=n)                  # 删除所有具有少于n个非null值的行 
df.fillna(x)                                # 将所有空值替换为x 
s.fillna(s.mean())                          # 用均值替换所有空值(均值可以用统计模块中的几乎所有函数替换 ) 
s.astype(float)                             # 将系列的数据类型转换为float 
s.replace(1,&#39;one&#39;)                          # 1 用 &#39;one&#39; 
s.replace([1,3],[&#39;one&#39;,&#39;three&#39;])            # 替换所有等于的值 替换为所有1 &#39;one&#39; ,并 3 用 &#39;three&#39; df.rename(columns=lambda x: x + 1)          # 列的重命名 
df.rename(columns={<!-- -->&#39;old_name&#39;: &#39;new_ name&#39;})# 选择性重命名 
df.set_index(&#39;column_one&#39;)                  # 更改索引 
df.rename(index=lambda x: x + 1)            # 大规模重命名索引
Copy after login

筛选,排序和分组依据

df[df[col] > 0.5]                      # 列 col 大于 0.5 df[(df[col] > 0.5) & (df[col] < 0.7)]  # 小于 0.7 大于0.5的行 
df.sort_values(col1)                   # 按col1升序对值进行排序 
df.sort_values(col2,ascending=False)   # 按col2 降序对值进行 排序 
df.sort_values([col1,col2],ascending=[True,False]) #按 col1 升序排序,然后 col2 按降序排序 
df.groupby(col)                        #从一个栏返回GROUPBY对象 
df.groupby([col1,col2]) # 返回来自多个列的groupby对象 
df.groupby(col1)[col2]                 # 返回中的值的平均值 col2,按中的值分组 col1 (平均值可以用统计模块中的几乎所有函数替换 ) 
df.pivot_table(index=col1,values=[col2,col3],aggfunc=mean) # 创建一个数据透视表组通过 col1 ,并计算平均值的 col2 和 col3 
df.groupby(col1).agg(np.mean)          # 在所有列中找到每个唯一col1 组的平均值 
df.apply(np.mean)                      #np.mean() 在每列上应用该函数 
df.apply(np.max,axis=1)                # np.max() 在每行上应用功能
Copy after login

数据合并

df1.append(df2)                   # 将df2添加 df1的末尾 (各列应相同) 
pd.concat([df1, df2],axis=1)      # 将 df1的列添加到df2的末尾 (行应相同) 
df1.join(df2,on=col1,how=&#39;inner&#39;) # SQL样式将列 df1 与 df2 行所在的列col 具有相同值的列连接起来。&#39;how&#39;可以是一个 &#39;left&#39;, &#39;right&#39;, &#39;outer&#39;, &#39;inner&#39;
Copy after login

数据统计

df.describe()    # 数值列的摘要统计信息 
df.mean()        # 返回均值的所有列 
df.corr()        # 返回DataFrame中各列之间的相关性 
df.count()       # 返回非空值的每个数据帧列中的数字 
df.max()         # 返回每列中的最高值 
df.min()         # 返回每一列中的最小值 
df.median()      # 返回每列的中位数 
df.std()         # 返回每列的标准偏差
Copy after login

16个函数,用于数据清洗

# 导入数据集
import pandas as pd

df ={<!-- -->&#39;姓名&#39;:[&#39; 黄同学&#39;,&#39;黄至尊&#39;,&#39;黄老邪 &#39;,&#39;陈大美&#39;,&#39;孙尚香&#39;],
     &#39;英文名&#39;:[&#39;Huang tong_xue&#39;,&#39;huang zhi_zun&#39;,&#39;Huang Lao_xie&#39;,&#39;Chen Da_mei&#39;,&#39;sun shang_xiang&#39;],
     &#39;性别&#39;:[&#39;男&#39;,&#39;women&#39;,&#39;men&#39;,&#39;女&#39;,&#39;男&#39;],
     &#39;身份证&#39;:[&#39;463895200003128433&#39;,&#39;429475199912122345&#39;,&#39;420934199110102311&#39;,&#39;431085200005230122&#39;,&#39;420953199509082345&#39;],
     &#39;身高&#39;:[&#39;mid:175_good&#39;,&#39;low:165_bad&#39;,&#39;low:159_bad&#39;,&#39;high:180_verygood&#39;,&#39;low:172_bad&#39;],
     &#39;家庭住址&#39;:[&#39;湖北广水&#39;,&#39;河南信阳&#39;,&#39;广西桂林&#39;,&#39;湖北孝感&#39;,&#39;广东广州&#39;],
     &#39;电话号码&#39;:[&#39;13434813546&#39;,&#39;19748672895&#39;,&#39;16728613064&#39;,&#39;14561586431&#39;,&#39;19384683910&#39;],
     &#39;收入&#39;:[&#39;1.1万&#39;,&#39;8.5千&#39;,&#39;0.9万&#39;,&#39;6.5千&#39;,&#39;2.0万&#39;]}
df = pd.DataFrame(df)
df
Copy after login

1.cat函数

用于字符串的拼接

df["姓名"].str.cat(df["家庭住址"],sep=&#39;-&#39;*3)
Copy after login

2.contains

判断某个字符串是否包含给定字符

df["家庭住址"].str.contains("广")
Copy after login

3.startswith/endswith

判断某个字符串是否以…开头/结尾

# 第一个行的“ 黄伟”是以空格开头的
df["姓名"].str.startswith("黄") 
df["英文名"].str.endswith("e")
Copy after login

4.count

计算给定字符在字符串中出现的次数

df["电话号码"].str.count("3")
Copy after login

5.get

获取指定位置的字符串

df["姓名"].str.get(-1)
df["身高"].str.split(":")
df["身高"].str.split(":").str.get(0)
Copy after login

6.len

计算字符串长度

df["性别"].str.len()
Copy after login

7.upper/lower

英文大小写转换

df["英文名"].str.upper()
df["英文名"].str.lower()
Copy after login

8.pad+side参数/center

在字符串的左边、右边或左右两边添加给定字符

df["家庭住址"].str.pad(10,fillchar="*")      # 相当于ljust()
df["家庭住址"].str.pad(10,side="right",fillchar="*")    # 相当于rjust()
df["家庭住址"].str.center(10,fillchar="*")
Copy after login

9.repeat

重复字符串几次

df["性别"].str.repeat(3)
Copy after login

10.slice_replace

使用给定的字符串,替换指定的位置的字符

df["电话号码"].str.slice_replace(4,8,"*"*4)
Copy after login

11.replace

将指定位置的字符,替换为给定的字符串

df["身高"].str.replace(":","-")
Copy after login

12.replace

将指定位置的字符,替换为给定的字符串(接受正则表达式)

replace中传入正则表达式,才叫好用;- 先不要管下面这个案例有没有用,你只需要知道,使用正则做数据清洗多好用;

df["收入"].str.replace("\d+\.\d+","正则")
Copy after login

13.split方法+expand参数

搭配join方法功能很强大

# 普通用法
df["身高"].str.split(":")
# split方法,搭配expand参数
df[["身高描述","final身高"]] = df["身高"].str.split(":",expand=True)
df
# split方法搭配join方法
df["身高"].str.split(":").str.join("?"*5)
Copy after login

14.strip/rstrip/lstrip

去除空白符、换行符

df["姓名"].str.len()
df["姓名"] = df["姓名"].str.strip()
df["姓名"].str.len()
Copy after login

15.findall

利用正则表达式,去字符串中匹配,返回查找结果的列表

findall使用正则表达式,做数据清洗,真的很香!

df["身高"]
df["身高"].str.findall("[a-zA-Z]+")
Copy after login

16.extract/extractall

接受正则表达式,抽取匹配的字符串(一定要加上括号)

df["身高"].str.extract("([a-zA-Z]+)")
# extractall提取得到复合索引
df["身高"].str.extractall("([a-zA-Z]+)")
# extract搭配expand参数
df["身高"].str.extract("([a-zA-Z]+).*?([a-zA-Z]+)",expand=True
Copy after login

The above is the detailed content of Python Pandas data processing high-frequency operation example analysis. For more information, please follow other related articles on the PHP Chinese website!

Related labels:
source:yisu.com
Statement of this Website
The content of this article is voluntarily contributed by netizens, and the copyright belongs to the original author. This site does not assume corresponding legal responsibility. If you find any content suspected of plagiarism or infringement, please contact admin@php.cn
Popular Tutorials
More>
Latest Downloads
More>
Web Effects
Website Source Code
Website Materials
Front End Template