首页 后端开发 Python教程 使用 Beautiful Soup 在 Python 中进行网页抓取和解析 HTML

使用 Beautiful Soup 在 Python 中进行网页抓取和解析 HTML

Jan 10, 2025 pm 12:15 PM

利用 Python 和 Beautiful Soup 来发挥网页抓取的力量:一个 MIDI 音乐示例

互联网是一个信息宝库,但如果没有专用的 API,以编程方式访问它可能会很困难。 Python 的 Beautiful Soup 库提供了一个强大的解决方案,使您能够直接从网页中抓取和解析数据。

让我们通过抓取 MIDI 数据来训练 Magenta 神经网络来生成经典的任天堂风格音乐来探索这一点。 我们将从视频游戏音乐档案 (VGM) 中获取 MIDI 文件。

设置您的环境

确保您已安装 Python 3 和 pip。 在安装依赖项之前创建并激活虚拟环境至关重要:

pip install requests==2.22.0 beautifulsoup4==4.8.1
登录后复制
登录后复制

我们使用Beautiful Soup 4(Beautiful Soup 3不再维护)。

用请求和美丽的汤来抓取和解析

首先,让我们获取 HTML 并创建一个 BeautifulSoup 对象:

import requests
from bs4 import BeautifulSoup

vgm_url = 'https://www.vgmusic.com/music/console/nintendo/nes/'
html_text = requests.get(vgm_url).text
soup = BeautifulSoup(html_text, 'html.parser')
登录后复制

soup 对象允许 HTML 导航。 soup.title 给出页面标题; print(soup.get_text()) 显示所有文本。

掌握美汤的力量

find()find_all() 方法是必不可少的。 soup.find() 定位单个元素(例如,soup.find(id='banner_ad').text 获取横幅广告文字)。 soup.find_all() 迭代多个元素。 例如,这会打印所有超链接 URL:

for link in soup.find_all('a'):
    print(link.get('href'))
登录后复制

find_all() 接受正则表达式或标签属性等参数以进行精确过滤。 有关高级功能,请参阅 Beautiful Soup 文档。

导航和解析 HTML

在编写解析代码之前,请检查浏览器渲染的 HTML。 每个网页都是独一无二的;数据提取通常需要创造力和实验。

Web Scraping and Parsing HTML in Python with Beautiful Soup

我们的目标是下载独特的 MIDI 文件,不包括重复文件和混音文件。浏览器开发工具(右键单击“检查”)可帮助识别 HTML 元素以进行编程访问。

Web Scraping and Parsing HTML in Python with Beautiful Soup

让我们使用 find_all() 和正则表达式来过滤包含 MIDI 文件的链接(不包括名称中带括号的链接):

创建nes_midi_scraper.py:

import re
import requests
from bs4 import BeautifulSoup

vgm_url = 'https://www.vgmusic.com/music/console/nintendo/nes/'
html_text = requests.get(vgm_url).text
soup = BeautifulSoup(html_text, 'html.parser')

if __name__ == '__main__':
    attrs = {'href': re.compile(r'\.mid$')}
    tracks = soup.find_all('a', attrs=attrs, string=re.compile(r'^((?!\().)*$'))
    count = 0
    for track in tracks:
        print(track)
        count += 1
    print(len(tracks))
登录后复制

这会过滤 MIDI 文件、打印其链接标签并显示总数。 与python nes_midi_scraper.py一起奔跑。

下载 MIDI 文件

现在,让我们下载过滤后的 MIDI 文件。 将 download_track 函数添加到 nes_midi_scraper.py

pip install requests==2.22.0 beautifulsoup4==4.8.1
登录后复制
登录后复制

此功能下载每个曲目并使用唯一的文件名保存。从所需的保存目录运行脚本。 您应该下载大约 2230 个 MIDI 文件(取决于网站当前的内容)。

Web Scraping and Parsing HTML in Python with Beautiful Soup

探索网络的潜力

网络抓取为海量数据集打开了大门。请记住,网页更改可能会破坏您的代码;保持脚本更新。 使用 Mido(用于 MIDI 数据处理)和 Magenta(用于神经网络训练)等库来构建此基础。

以上是使用 Beautiful Soup 在 Python 中进行网页抓取和解析 HTML的详细内容。更多信息请关注PHP中文网其他相关文章!

本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover

AI Clothes Remover

用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool

Undress AI Tool

免费脱衣服图片

Clothoff.io

Clothoff.io

AI脱衣机

Video Face Swap

Video Face Swap

使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热工具

记事本++7.3.1

记事本++7.3.1

好用且免费的代码编辑器

SublimeText3汉化版

SublimeText3汉化版

中文版,非常好用

禅工作室 13.0.1

禅工作室 13.0.1

功能强大的PHP集成开发环境

Dreamweaver CS6

Dreamweaver CS6

视觉化网页开发工具

SublimeText3 Mac版

SublimeText3 Mac版

神级代码编辑软件(SublimeText3)

如何解决Linux终端中查看Python版本时遇到的权限问题? 如何解决Linux终端中查看Python版本时遇到的权限问题? Apr 01, 2025 pm 05:09 PM

Linux终端中查看Python版本时遇到权限问题的解决方法当你在Linux终端中尝试查看Python的版本时,输入python...

如何在使用 Fiddler Everywhere 进行中间人读取时避免被浏览器检测到? 如何在使用 Fiddler Everywhere 进行中间人读取时避免被浏览器检测到? Apr 02, 2025 am 07:15 AM

使用FiddlerEverywhere进行中间人读取时如何避免被检测到当你使用FiddlerEverywhere...

在Python中如何高效地将一个DataFrame的整列复制到另一个结构不同的DataFrame中? 在Python中如何高效地将一个DataFrame的整列复制到另一个结构不同的DataFrame中? Apr 01, 2025 pm 11:15 PM

在使用Python的pandas库时,如何在两个结构不同的DataFrame之间进行整列复制是一个常见的问题。假设我们有两个Dat...

Uvicorn是如何在没有serve_forever()的情况下持续监听HTTP请求的? Uvicorn是如何在没有serve_forever()的情况下持续监听HTTP请求的? Apr 01, 2025 pm 10:51 PM

Uvicorn是如何持续监听HTTP请求的?Uvicorn是一个基于ASGI的轻量级Web服务器,其核心功能之一便是监听HTTP请求并进�...

在Linux终端中使用python --version命令时如何解决权限问题? 在Linux终端中使用python --version命令时如何解决权限问题? Apr 02, 2025 am 06:36 AM

Linux终端中使用python...

如何在10小时内通过项目和问题驱动的方式教计算机小白编程基础? 如何在10小时内通过项目和问题驱动的方式教计算机小白编程基础? Apr 02, 2025 am 07:18 AM

如何在10小时内教计算机小白编程基础?如果你只有10个小时来教计算机小白一些编程知识,你会选择教些什么�...

如何绕过Investing.com的反爬虫机制获取新闻数据? 如何绕过Investing.com的反爬虫机制获取新闻数据? Apr 02, 2025 am 07:03 AM

攻克Investing.com的反爬虫策略许多人尝试爬取Investing.com(https://cn.investing.com/news/latest-news)的新闻数据时,常常�...

See all articles