最近我决定做一个快速的网页抓取和数据分析项目。因为我的大脑喜欢想出需要花费大量时间的大想法,所以我决定挑战自己,想出一些可以在几个小时内完成的简单事情。
这是我想到的:
由于我的本科学位最初是外语(法语和西班牙语),我认为网络抓取一些语言相关数据会很有趣。我想使用 BeautifulSoup 库,它可以解析静态 html,但无法处理需要 onclick 事件来显示整个数据集的动态网页(即,如果页面已分页,则单击下一页数据)。
我决定使用最常用语言的维基百科页面。
我想做以下事情:
我决定将项目分成这些步骤以分离关注点,但我也想避免通过重新运行脚本来发出多个不必要的请求以从维基百科获取 html。保存 html 文件,然后在单独的脚本中使用它意味着您不需要不断重新请求数据,因为您已经拥有了数据。
此项目的 github 存储库的链接是:https://github.com/gabrielrowan/Foreign-Languages-Analysis
首先,我检索并输出 html。使用 C# 和 C 后,我总是对 Python 代码如此简短和简洁感到新奇?
url = 'https://en.wikipedia.org/wiki/List_of_languages_by_number_of_native_speakers' response = requests.get(url) html = response.text with open("languages_html.txt", "w", encoding="utf-8") as file: file.write(html)
为了用 Beautiful soup 解析 html 并选择我感兴趣的表,我做了:
with open("languages_html.txt", "r", encoding="utf-8") as file: soup = BeautifulSoup(file, 'html.parser') # get table top_languages_table = soup.select_one('.wikitable.sortable.static-row-numbers')
然后,我获取了表标题文本来获取 pandas 数据框的列名称:
# get column names columns = top_languages_table.find_all("th") column_titles = [column.text.strip() for column in columns]
之后,我创建了数据框,设置列名称,检索每个表行并将每一行写入数据框:
# get table rows table_data = top_languages_table.find_all("tr") # define dataframe df = pd.DataFrame(columns=column_titles) # get table data for row in table_data[1:]: row_data = row.find_all('td') row_data_txt = [row.text.strip() for row in row_data] print(row_data_txt) df.loc[len(df)] = row_data_txt
注意 - 不使用 strip() 时,文本中有 n 个不需要的字符。
最后,我将数据帧写入 .csv。
事先,我从数据中提出了我想回答的这些问题:
虽然我不会通过代码来回答所有这些问题,但我会讨论涉及图表的两个问题。
首先,我创建了一个数据框,仅包含分支名称为“Romance”或“Germanic”的行
url = 'https://en.wikipedia.org/wiki/List_of_languages_by_number_of_native_speakers' response = requests.get(url) html = response.text with open("languages_html.txt", "w", encoding="utf-8") as file: file.write(html)
然后我指定了图表的 x 轴、y 轴和条形颜色:
with open("languages_html.txt", "r", encoding="utf-8") as file: soup = BeautifulSoup(file, 'html.parser') # get table top_languages_table = soup.select_one('.wikitable.sortable.static-row-numbers')
这创建了:
为了创建饼图,我检索了最常见的 3 个语系并将它们放入数据框中。
此代码组获取每个语系的母语人士总数,按降序排序,并提取前 3 个条目。
# get column names columns = top_languages_table.find_all("th") column_titles = [column.text.strip() for column in columns]
然后我将数据放入饼图中,指定“母语者”的 y 轴和图例,这为图表中显示的每个语言系列创建颜色编码标签。
# get table rows table_data = top_languages_table.find_all("tr") # define dataframe df = pd.DataFrame(columns=column_titles) # get table data for row in table_data[1:]: row_data = row.find_all('td') row_data_txt = [row.text.strip() for row in row_data] print(row_data_txt) df.loc[len(df)] = row_data_txt
其余问题的代码和回答可以在这里找到。我在笔记本中使用 Markdown 写下问题及其答案。
对于我的网络抓取和数据分析项目的下一次迭代,我想让事情变得更复杂:
尽管速度很快,但我很喜欢做这个项目。它提醒我,简短、可管理的项目对于让练习代表参与进来有多么有用?另外,从互联网提取数据并从中创建图表,即使数据集很小,也很有趣?
以上是网络抓取和分析外语数据的详细内容。更多信息请关注PHP中文网其他相关文章!