Python beautifulsoup4 모듈을 사용하는 방법

王林
풀어 주다: 2023-05-11 22:31:04
앞으로
1079명이 탐색했습니다.

1. BeautifulSoup4의 보충 기본 지식

BeautifulSoup4은 주로 HTML과 XML을 구문 분석하는 데 사용되는 크롤러 지식 시스템에서 HTML 구문 분석이 더 많이 이루어집니다. 라이브러리 설치 명령은 다음과 같습니다.BeautifulSoup4 是一款 python 解析库,主要用于解析 HTML 和 XML,在爬虫知识体系中解析 HTML 会比较多一些,

该库安装命令如下:

pip install beautifulsoup4
로그인 후 복사

BeautifulSoup 在解析数据时,需依赖第三方解析器,常用解析器与优势如下所示:

  • python 标准库 html.parser:python 内置标准库,容错能力强;

  • lxml 解析器:速度快,容错能力强;

  • html5lib:容错性最强,解析方式与浏览器一致。

接下来用一段自定义的 HTML 代码来演示 beautifulsoup4 库的基本使用,测试代码如下:

<html>
  <head>
    <title>测试bs4模块脚本</title>
  </head>
  <body>
    <h2>橡皮擦的爬虫课</h2>
    <p>用一段自定义的 HTML 代码来演示</p>
  </body>
</html>
로그인 후 복사

使用 BeautifulSoup 对其进行简单的操作,包含实例化 BS 对象,输出页面标签等内容。

from bs4 import BeautifulSoup
text_str = """<html>
	<head>
		<title>测试bs4模块脚本</title>
	</head>
	<body>
		<h2>橡皮擦的爬虫课</h2>
		<p>用1段自定义的 HTML 代码来演示</p>
		<p>用2段自定义的 HTML 代码来演示</p>
	</body>
</html>
"""
# 实例化 Beautiful Soup 对象
soup = BeautifulSoup(text_str, "html.parser")
# 上述是将字符串格式化为 Beautiful Soup 对象,你可以从一个文件进行格式化
# soup = BeautifulSoup(open(&#39;test.html&#39;))
print(soup)
# 输入网页标题 title 标签
print(soup.title)
# 输入网页 head 标签
print(soup.head)

# 测试输入段落标签 p
print(soup.p) # 默认获取第一个
로그인 후 복사

我们可以通过 BeautifulSoup 对象,直接调用网页标签,这里存在一个问题,通过 BS 对象调用标签只能获取排在第一位置上的标签,如上述代码中,只获取到了一个 p 标签,如果想要获取更多内容,请继续阅读。

学习到这里,我们需要了解 BeautifulSoup 中的 4 个内置对象:

  • BeautifulSoup:基本对象,整个 HTML 对象,一般当做 Tag 对象看即可;

  • Tag:标签对象,标签就是网页中的各个节点,例如 title,head,p;

  • NavigableString:标签内部字符串;

  • Comment:注释对象,爬虫里面使用场景不多。

下述代码为你演示这几种对象出现的场景,注意代码中的相关注释:

from bs4 import BeautifulSoup
text_str = """<html>
	<head>
		<title>测试bs4模块脚本</title>
	</head>
	<body>
		<h2>橡皮擦的爬虫课</h2>
		<p>用1段自定义的 HTML 代码来演示</p>
		<p>用2段自定义的 HTML 代码来演示</p>
	</body>
</html>
"""
# 实例化 Beautiful Soup 对象
soup = BeautifulSoup(text_str, "html.parser")
# 上述是将字符串格式化为 Beautiful Soup 对象,你可以从一个文件进行格式化
# soup = BeautifulSoup(open(&#39;test.html&#39;))
print(soup)
print(type(soup))  # <class &#39;bs4.BeautifulSoup&#39;>
# 输入网页标题 title 标签
print(soup.title)
print(type(soup.title)) # <class &#39;bs4.element.Tag&#39;>
print(type(soup.title.string)) # <class &#39;bs4.element.NavigableString&#39;>
# 输入网页 head 标签
print(soup.head)
로그인 후 복사

对于 Tag 对象,有两个重要的属性,是 nameattrs

from bs4 import BeautifulSoup
text_str = """<html>
	<head>
		<title>测试bs4模块脚本</title>
	</head>
	<body>
		<h2>橡皮擦的爬虫课</h2>
		<p>用1段自定义的 HTML 代码来演示</p>
		<p>用2段自定义的 HTML 代码来演示</p>
		<a href="http://www.csdn.net" rel="external nofollow"  rel="external nofollow" >CSDN 网站</a>
	</body>
</html>
"""
# 实例化 Beautiful Soup 对象
soup = BeautifulSoup(text_str, "html.parser")
print(soup.name) # [document]
print(soup.title.name) # 获取标签名 title
print(soup.html.body.a) # 可以通过标签层级获取下层标签
print(soup.body.a) # html 作为一个特殊的根标签,可以省略
print(soup.p.a) # 无法获取到 a 标签
print(soup.a.attrs) # 获取属性
로그인 후 복사

上述代码演示了获取 name 属性和 attrs 属性的用法,其中 attrs 属性得到的是一个字典,可以通过键获取对应的值。

获取标签的属性值,在 BeautifulSoup 中,还可以使用如下方法:

print(soup.a["href"])
print(soup.a.get("href"))
로그인 후 복사

获取 NavigableString 对象 获取了网页标签之后,就要获取标签内文本了,通过下述代码进行。

print(soup.a.string)
로그인 후 복사

除此之外,你还可以使用 text 属性和 get_text() 方法获取标签内容。

print(soup.a.string)
print(soup.a.text)
print(soup.a.get_text())
로그인 후 복사

还可以获取标签内所有文本,使用 stringsstripped_strings 即可。

print(list(soup.body.strings)) # 获取到空格或者换行
print(list(soup.body.stripped_strings)) # 去除空格或者换行
로그인 후 복사

扩展标签/节点选择器之遍历文档树

直接子节点

标签(Tag)对象的直接子元素,可以使用 contentschildren 属性获取。

from bs4 import BeautifulSoup
text_str = """<html>
	<head>
		<title>测试bs4模块脚本</title>
	</head>
	<body>
		<div id="content">
			<h2>橡皮擦的爬虫课<span>最棒</span></h2>
            <p>用1段自定义的 HTML 代码来演示</p>
            <p>用2段自定义的 HTML 代码来演示</p>
            <a href="http://www.csdn.net" rel="external nofollow"  rel="external nofollow" >CSDN 网站</a>
		</div>
        <ul class="nav">
            <li>首页</li>
            <li>博客</li>
            <li>专栏课程</li>
        </ul>

	</body>
</html>
"""
# 实例化 Beautiful Soup 对象
soup = BeautifulSoup(text_str, "html.parser")
# contents 属性获取节点的直接子节点,以列表的形式返回内容
print(soup.div.contents) # 返回列表
# children 属性获取的也是节点的直接子节点,以生成器的类型返回
print(soup.div.children) # 返回 <list_iterator object at 0x00000111EE9B6340>
로그인 후 복사

请注意以上两个属性获取的都是直接子节点,例如 h2 标签内的后代标签 span ,不会单独获取到。

如果希望将所有的标签都获取到,使用 descendants 属性,它返回的是一个生成器,所有标签包括标签内的文本都会单独获取。

print(list(soup.div.descendants))
로그인 후 복사

其它节点的获取(了解即可,即查即用)

  • parentparents:直接父节点和所有父节点;

  • next_siblingnext_siblingsprevious_siblingprevious_siblings:分别表示下一个兄弟节点、下面所有兄弟节点、上一个兄弟节点、上面所有兄弟节点,由于换行符也是一个节点,所有在使用这几个属性时,要注意一下换行符;

  • next_elementnext_elementsprevious_elementprevious_elements:这几个属性分别表示上一个节点或者下一个节点,注意它们不分层次,而是针对所有节点,例如上述代码中 div 节点的下一个节点是 h2,而 div 节点的兄弟节点是 ul

文档树搜索相关函数

第一个要学习的函数就是 find_all() 函数,原型如下所示:

find_all(name,attrs,recursive,text,limit=None,**kwargs)
로그인 후 복사
  • name:该参数为 tag 标签的名字,例如 find_all(&#39;p&#39;) 是查找所有的 p

    print(soup.find_all(&#39;li&#39;)) # 获取所有的 li
    print(soup.find_all(attrs={&#39;class&#39;: &#39;nav&#39;})) # 传入 attrs 属性
    print(soup.find_all(re.compile("p"))) # 传递正则,实测效果不理想
    print(soup.find_all([&#39;a&#39;,&#39;p&#39;])) # 传递列表
    로그인 후 복사
    로그인 후 복사

    BeautifulSoup 데이터를 구문 분석할 때 타사 구문 분석기에 의존해야 합니다. 일반적으로 사용되는 구문 분석기와 그 장점은 다음과 같습니다. 다음:🎜< ul class=" list-paddingleft-2">
  • 🎜python 표준 라이브러리 html.parser: Python 내장 표준 라이브러리, 강력한 내결함성 🎜< /li>
  • 🎜 lxml 파서: 빠르고 내결함성 🎜
  • 🎜html5lib: 가장 내결함성이 뛰어나고 구문 분석 방법 브라우저와 일치합니다. 🎜
🎜 다음으로 사용자 정의 HTML 코드를 사용하여 beautifulsoup4 라이브러리의 기본 사용을 보여줍니다. 테스트 코드는 다음과 같습니다. 🎜
print(soup.body.div.find_all([&#39;a&#39;,&#39;p&#39;],recursive=False)) # 传递列表
로그인 후 복사
로그인 후 복사
🎜 BeautifulSoup< 사용 /code> BS 개체 인스턴스화, 페이지 태그 출력 등을 포함하여 간단한 작업을 수행합니다. 🎜<div class="code" style="position:relative; padding:0px; margin:0px;"><div class="code" style="position:relative; padding:0px; margin:0px;"><pre class="brush:py;">print(soup.find_all(text=&amp;#39;首页&amp;#39;)) # [&amp;#39;首页&amp;#39;] print(soup.find_all(text=re.compile(&quot;^首&quot;))) # [&amp;#39;首页&amp;#39;] print(soup.find_all(text=[&quot;首页&quot;,re.compile(&amp;#39;课&amp;#39;)])) # [&amp;#39;橡皮擦的爬虫课&amp;#39;, &amp;#39;首页&amp;#39;, &amp;#39;专栏课程&amp;#39;]</pre><div class="contentsignin">로그인 후 복사</div></div><div class="contentsignin">로그인 후 복사</div></div>🎜BeautifulSoup 개체를 통해 웹페이지 태그를 직접 호출할 수 있는데 여기에는 문제가 있습니다. BS 개체를 통해 태그를 호출하면 태그 순위가 1위만 나올 수 있습니다. 예를 들어 위 코드에서는 <code>p<가 하나만 있습니다. /code> 태그를 얻었습니다. 더 많은 콘텐츠를 얻으려면 계속 읽으십시오. 🎜🎜<strong>이것을 배운 후에는 BeautifulSoup에 내장된 4개의 객체를 이해해야 합니다: </strong>🎜<ul class=" list-paddingleft-2"><li>🎜<code>BeautifulSoup</code >: 기본 개체, 전체 HTML 개체는 일반적으로 태그 개체로 볼 수 있습니다. 🎜</li><li>🎜<code>태그: 태그 개체, 태그는 웹 페이지의 각 노드입니다. 예: 제목, 머리글, p ;🎜
  • 🎜NavigableString: 태그 내부 문자열 🎜
  • 🎜Comment: 주석 개체 , 크롤러의 사용 시나리오는 동일하지 않습니다. 🎜
  • 🎜다음 코드는 이러한 개체가 나타나는 시나리오를 보여줍니다. 코드의 관련 설명에 주의하세요. 🎜
    print(soup.find_all(class_ = &#39;nav&#39;))
    print(soup.find_all(class_ = &#39;nav li&#39;))
    로그인 후 복사
    로그인 후 복사
    🎜< Strong>태그 개체 에는 nameattrs라는 두 가지 중요한 속성이 있습니다.🎜
    print(soup.select(&#39;ul[class^="na"]&#39;))
    로그인 후 복사
    로그인 후 복사
    🎜위 코드는 name을 얻는 방법을 보여줍니다. 속성 및 attrs 속성의 사용. 여기서 attrs 속성은 사전을 가져오고 해당 값은 키로 얻을 수 있습니다. 🎜🎜태그의 속성 값을 가져옵니다. BeautifulSoup에서는 다음 방법을 사용할 수도 있습니다. 🎜
    print(soup.select(&#39;ul[class*="li"]&#39;))
    로그인 후 복사
    로그인 후 복사
    🎜NavigableString 개체 가져오기 웹페이지 태그를 가져온 후 다음 코드를 통해 태그의 텍스트를 가져와야 합니다. 🎜
    from bs4 import BeautifulSoup
    import requests
    import logging
    logging.basicConfig(level=logging.NOTSET)
    def get_html(url, headers) -> None:
        try:
            res = requests.get(url=url, headers=headers, timeout=3)
        except Exception as e:
            logging.debug("采集异常", e)
    
        if res is not None:
            html_str = res.text
            soup = BeautifulSoup(html_str, "html.parser")
            imgs = soup.find_all(attrs={&#39;class&#39;: &#39;lazy&#39;})
            print("获取到的数据量是", len(imgs))
            datas = []
            for item in imgs:
                name = item.get(&#39;alt&#39;)
                src = item["src"]
                logging.info(f"{name},{src}")
                # 获取拼接数据
                datas.append((name, src))
            save(datas, headers)
    def save(datas, headers) -> None:
        if datas is not None:
            for item in datas:
                try:
                    # 抓取图片
                    res = requests.get(url=item[1], headers=headers, timeout=5)
                except Exception as e:
                    logging.debug(e)
    
                if res is not None:
                    img_data = res.content
                    with open("./imgs/{}.jpg".format(item[0]), "wb+") as f:
                        f.write(img_data)
        else:
            return None
    if __name__ == &#39;__main__&#39;:
        headers = {
            "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/93.0.4577.82 Safari/537.36"
        }
        url_format = "http://www.9thws.com/#p{}"
        urls = [url_format.format(i) for i in range(1, 2)]
        get_html(urls[0], headers)
    로그인 후 복사
    로그인 후 복사
    🎜또한 text 속성과 get_text() 메서드를 사용하여 태그 콘텐츠를 가져올 수도 있습니다. 🎜rrreee🎜 stringsstripped_strings를 사용하여 태그의 모든 텍스트를 가져올 수도 있습니다. 🎜rrreee🎜문서 트리를 순회하는 확장된 태그/노드 선택기🎜🎜직접 하위 노드🎜🎜태그(태그) ​​객체의 직접 하위 요소, contents를 사용할 수 있으며 children 속성 획득. 🎜rrreee🎜위의 두 속성은 h2 태그 내의 하위 태그 span와 같은 직접 하위 노드를 획득하고 분리되지 않습니다. 🎜🎜모든 태그를 가져오려면 생성기를 반환하는 descendants 속성을 ​​사용하세요. 그러면 태그 내의 텍스트를 포함한 모든 태그가 별도로 가져옵니다. 🎜rrreee🎜다른 노드 획득(알고 확인하고 사용하세요)🎜
    • 🎜부모부모 code >: 직접 상위 노드 및 모든 상위 노드 🎜
    • 🎜next_sibling, next_siblings, previous_sibling, Previous_siblings : 다음 형제 노드, 아래의 모든 형제 노드, 이전 형제 노드 및 위의 모든 형제 노드를 나타냅니다. 개행 문자도 노드이므로 이러한 속성을 사용할 때는 개행 문자에 주의하세요.
    • 🎜next_element, next_elements, previous_element, previous_elements: 이러한 속성은 각각 이전을 나타냅니다. 노드 또는 다음 노드는 계층적이지 않고 모든 노드에 적용됩니다. 예를 들어 위 코드에서 div 노드의 다음 노드는 h2입니다. , div 노드의 형제 노드는 ul입니다. 🎜
    🎜문서 트리 검색 관련 함수🎜🎜첫 번째로 배울 함수는 find_all() 함수이고, 프로토타입은 다음과 같습니다. 표시:🎜rrreee
    • 🎜name: 이 매개변수는 태그 태그의 이름입니다(예: find_all). ('p' )는 모든 p 태그를 찾는 것이며 태그 이름 문자열, 정규 표현식 및 목록을 허용할 수 있습니다 🎜
    • attrs:传入的属性,该参数可以字典的形式传入,例如 attrs={&#39;class&#39;: &#39;nav&#39;},返回的结果是 tag 类型的列表;

    上述两个参数的用法示例如下:

    print(soup.find_all(&#39;li&#39;)) # 获取所有的 li
    print(soup.find_all(attrs={&#39;class&#39;: &#39;nav&#39;})) # 传入 attrs 属性
    print(soup.find_all(re.compile("p"))) # 传递正则,实测效果不理想
    print(soup.find_all([&#39;a&#39;,&#39;p&#39;])) # 传递列表
    로그인 후 복사
    로그인 후 복사
    • recursive:调用 find_all () 方法时,BeautifulSoup 会检索当前 tag 的所有子孙节点,如果只想搜索 tag 的直接子节点,可以使用参数 recursive=False,测试代码如下:

    print(soup.body.div.find_all([&#39;a&#39;,&#39;p&#39;],recursive=False)) # 传递列表
    로그인 후 복사
    로그인 후 복사
    • text:可以检索文档中的文本字符串内容,与 name 参数的可选值一样,text 参数接受标签名字符串、正则表达式、 列表;

    print(soup.find_all(text=&#39;首页&#39;)) # [&#39;首页&#39;]
    print(soup.find_all(text=re.compile("^首"))) # [&#39;首页&#39;]
    print(soup.find_all(text=["首页",re.compile(&#39;课&#39;)])) # [&#39;橡皮擦的爬虫课&#39;, &#39;首页&#39;, &#39;专栏课程&#39;]
    로그인 후 복사
    로그인 후 복사
    • limit:可以用来限制返回结果的数量;

    • kwargs:如果一个指定名字的参数不是搜索内置的参数名,搜索时会把该参数当作 tag 的属性来搜索。这里要按 class 属性搜索,因为 class 是 python 的保留字,需要写作 class_,按 class_ 查找时,只要一个 CSS 类名满足即可,如需多个 CSS 名称,填写顺序需要与标签一致。

    print(soup.find_all(class_ = &#39;nav&#39;))
    print(soup.find_all(class_ = &#39;nav li&#39;))
    로그인 후 복사
    로그인 후 복사

    还需要注意网页节点中,有些属性在搜索中不能作为kwargs参数使用,比如html5 中的 data-*属性,需要通过attrs参数进行匹配。

    find_all()方法用户基本一致的其它方法清单如下:

    • find():函数原型find( name , attrs , recursive , text , **kwargs ),返回一个匹配元素;

    • find_parents(),find_parent():函数原型 find_parent(self, name=None, attrs={}, **kwargs),返回当前节点的父级节点;

    • find_next_siblings(),find_next_sibling():函数原型 find_next_sibling(self, name=None, attrs={}, text=None, **kwargs),返回当前节点的下一兄弟节点;

    • find_previous_siblings(),find_previous_sibling():同上,返回当前的节点的上一兄弟节点;

    • find_all_next(),find_next(),find_all_previous () ,find_previous ():函数原型 find_all_next(self, name=None, attrs={}, text=None, limit=None, **kwargs),检索当前节点的后代节点。

    CSS 选择器 该小节的知识点与pyquery有点撞车,核心使用select()方法即可实现,返回数据是列表元组。

    • 通过标签名查找,soup.select("title")

    • 通过类名查找,soup.select(".nav")

    • 通过 id 名查找,soup.select("#content")

    • 通过组合查找,soup.select("div#content")

    • 通过属性查找,soup.select("div[id=&#39;content&#39;")soup.select("a[href]")

    在通过属性查找时,还有一些技巧可以使用,例如:

    • ^=:可以获取以 XX 开头的节点:

    print(soup.select(&#39;ul[class^="na"]&#39;))
    로그인 후 복사
    로그인 후 복사
    • *=:获取属性包含指定字符的节点:

    print(soup.select(&#39;ul[class*="li"]&#39;))
    로그인 후 복사
    로그인 후 복사

    二、爬虫案例

    BeautifulSoup 的基础知识掌握之后,在进行爬虫案例的编写,就非常简单了,本次要采集的目标网站 ,该目标网站有大量的艺术二维码,可以供设计大哥做参考。

    Python beautifulsoup4 모듈을 사용하는 방법

    下述应用到了 BeautifulSoup 模块的标签检索与属性检索,完整代码如下:

    from bs4 import BeautifulSoup
    import requests
    import logging
    logging.basicConfig(level=logging.NOTSET)
    def get_html(url, headers) -> None:
        try:
            res = requests.get(url=url, headers=headers, timeout=3)
        except Exception as e:
            logging.debug("采集异常", e)
    
        if res is not None:
            html_str = res.text
            soup = BeautifulSoup(html_str, "html.parser")
            imgs = soup.find_all(attrs={&#39;class&#39;: &#39;lazy&#39;})
            print("获取到的数据量是", len(imgs))
            datas = []
            for item in imgs:
                name = item.get(&#39;alt&#39;)
                src = item["src"]
                logging.info(f"{name},{src}")
                # 获取拼接数据
                datas.append((name, src))
            save(datas, headers)
    def save(datas, headers) -> None:
        if datas is not None:
            for item in datas:
                try:
                    # 抓取图片
                    res = requests.get(url=item[1], headers=headers, timeout=5)
                except Exception as e:
                    logging.debug(e)
    
                if res is not None:
                    img_data = res.content
                    with open("./imgs/{}.jpg".format(item[0]), "wb+") as f:
                        f.write(img_data)
        else:
            return None
    if __name__ == &#39;__main__&#39;:
        headers = {
            "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/93.0.4577.82 Safari/537.36"
        }
        url_format = "http://www.9thws.com/#p{}"
        urls = [url_format.format(i) for i in range(1, 2)]
        get_html(urls[0], headers)
    로그인 후 복사
    로그인 후 복사

    本次代码测试输出采用的 logging 模块实现,效果如下图所示。 测试仅采集了 1 页数据,如需扩大采集范围,只需要修改 main 函数内页码规则即可。 ==代码编写过程中,发现数据请求是类型是 POST,数据返回格式是 JSON,所以本案例仅作为 BeautifulSoup 的上手案例吧== 

    Python beautifulsoup4 모듈을 사용하는 방법

    위 내용은 Python beautifulsoup4 모듈을 사용하는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

    관련 라벨:
    원천:yisu.com
    본 웹사이트의 성명
    본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
    인기 튜토리얼
    더>
    최신 다운로드
    더>
    웹 효과
    웹사이트 소스 코드
    웹사이트 자료
    프론트엔드 템플릿