Heim > Backend-Entwicklung > Python-Tutorial > Vergleich von vier häufig verwendeten Methoden zur Lokalisierung von Elementen für Python-Crawler. Welche bevorzugen Sie?

Vergleich von vier häufig verwendeten Methoden zur Lokalisierung von Elementen für Python-Crawler. Welche bevorzugen Sie?

Freigeben: 2023-08-15 14:42:31
nach vorne
974 Leute haben es durchsucht


Bei der Verwendung dieses Python-Crawlers zum Sammeln von Daten ist ein sehr wichtiger Vorgang das „Extrahieren von Daten aus der angeforderten Webseite“. Der erste Schritt besteht darin, die gewünschten Daten richtig zu lokalisieren. In diesem Artikel werden die

häufig verwendeten Methoden zum Auffinden von Webseitenelementen

in mehreren Python-Crawlern verglichen, damit jeder sie lernen kann

    TraditionellBeautifulSoup operation
  1. BeautifulSoup 操作
  2. 基于 BeautifulSoup 的 CSS 选择器(与 PyQuery 类似)
  3. XPath
    based on BeautifulSoups CSS-Selektor (mit PyQuery ähnlich)
  4. <div class="code" style="position:relative; padding:0px; margin:0px;"><pre class="brush:php;toolbar:false;">http://bang.dangdang.com/books/bestsellers/01.00.00.00.00.00-24hours-0-0-1-1</pre><div class="contentsignin">Nach dem Login kopieren</div></div><figure data-tool="mdnice编辑器" style="margin-top: 10px;margin-bottom: 10px;display: flex;flex-direction: column;justify-content: center;align-items: center;"><img src="https://img.php.cn/upload/article/001/267/443/21d313e128464b6c1113677cb281678c-1.jpg"/ alt="Vergleich von vier häufig verwendeten Methoden zur Lokalisierung von Elementen für Python-Crawler. Welche bevorzugen Sie?" ></figure><p data-tool="mdnice编辑器" style="max-width:90%"> Nehmen wir als Beispiel den Titel der ersten 20 Bücher. Stellen Sie zunächst sicher, dass auf der Website keine Anti-Crawling-Maßnahmen eingerichtet sind und ob sie den zu analysierenden Inhalt direkt zurückgeben kann: </p><div class="code" style="position:relative; padding:0px; margin:0px;"><pre class="brush:php;toolbar:false;">import requests url = &amp;#39;http://bang.dangdang.com/books/bestsellers/01.00.00.00.00.00-24hours-0-0-1-1&amp;#39; response = requests.get(url).text print(response)</pre><div class="contentsignin">Nach dem Login kopieren</div></div><figure data-tool="mdnice编辑器" style="margin-top: 10px;margin-bottom: 10px;display: flex;flex-direction: column;justify-content: center;align-items: center;"><img src="https://img.php.cn/upload/article/001/267/443/21d313e128464b6c1113677cb281678c-2.png"/ alt="Vergleich von vier häufig verwendeten Methoden zur Lokalisierung von Elementen für Python-Crawler. Welche bevorzugen Sie?" ></figure><p data-tool="mdnice编辑器" style="max-width:90%">Nach sorgfältiger Prüfung wird festgestellt, dass alle erforderlichen Daten in der Rückgabe enthalten sind Inhalt, was darauf hinweist, dass keine Anti-Crawling-Maßnahmen in Betracht gezogen werden müssen </p><p data-tool="mdnice编辑器" style="padding-top: 8px;padding-bottom: 8px;line-height: 26px;font-size: 16px;">Überprüfen Sie die Webseitenelemente. Später stellen Sie fest, dass die bibliografischen Informationen in <code style="padding: 2px 4px;border-radius: 4px;margin" enthalten sind -right: 2px;margin-left: 2px;background-color: rgba(27, 31, 35, 0.05 );font-family: „Operator Mono“, Consolas, Monaco, Menlo, monospace;word-break: break-all ;color: rgb(255, 100, 65);font-size: 13px;">li</code > in, untergeordnet zu <code style="padding: 2px 4px;border-radius: 4px;margin-right: 2px ;Rand links: 2 Pixel; Hintergrundfarbe: RGBA (27, 31, 35, 0,05); Schriftfamilie: „Operator Mono“, Consolas, Monaco, Menlo, Monospace; Wortumbruch: Break-All; Farbe: RGB (255, 100, 65);font-size: 13px;">class ist bang_list clearfix bang_list_mode'sul in Vergleich von vier häufig verwendeten Methoden zur Lokalisierung von Elementen für Python-Crawler. Welche bevorzugen Sie?li 中,从属于 classbang_list clearfix bang_list_modeulVergleich von vier häufig verwendeten Methoden zur Lokalisierung von Elementen für Python-Crawler. Welche bevorzugen Sie?

    进一步审查也可以发现书名在的相应位置,这是多种解析方法的重要基础Vergleich von vier häufig verwendeten Methoden zur Lokalisierung von Elementen für Python-Crawler. Welche bevorzugen Sie?

    1. 传统 BeautifulSoup 操作

    经典的 BeautifulSoup 方法借助 from bs4 import BeautifulSoup,然后通过 soup = BeautifulSoup(html, "lxml") 将文本转换为特定规范的结构,利用 find

    Eine weitere Prüfung kann ebenfalls erfolgen offenbaren die entsprechende Position des Buchtitels, die eine wichtige Grundlage für verschiedene Analysemethoden darstellt. >

    1. Traditionelle BeautifulSoup-Operation

    Vergleich von vier häufig verwendeten Methoden zur Lokalisierung von Elementen für Python-Crawler. Welche bevorzugen Sie?Die klassische BeautifulSoup-Methode verwendet aus bs4 importieren Sie BeautifulSoup und übergeben Sie dann soup = BeautifulSoup(html, "lxml") Konvertieren Sie Text in eine bestimmte Standardstruktur, indem Sie find Methodenreihe Analyse, der Code lautet wie folgt:
    import requests
    from bs4 import BeautifulSoup
    
    url = &#39;http://bang.dangdang.com/books/bestsellers/01.00.00.00.00.00-24hours-0-0-1-1&#39;
    response = requests.get(url).text
    
    def bs_for_parse(response):
        soup = BeautifulSoup(response, "lxml")
        li_list = soup.find(&#39;ul&#39;, class_=&#39;bang_list clearfix bang_list_mode&#39;).find_all(&#39;li&#39;) # 锁定ul后获取20个li
        for li in li_list:
            title = li.find(&#39;div&#39;, class_=&#39;name&#39;).find(&#39;a&#39;)[&#39;title&#39;] # 逐个解析获取书名
            print(title)
    
    if __name__ == &#39;__main__&#39;:
        bs_for_parse(response)
    Nach dem Login kopieren

    🎜🎜 20 Buchtitel erfolgreich erhalten. Einige davon sind lang und können über reguläre Ausdrücke oder andere Zeichenfolgenmethoden verarbeitet werden. In diesem Artikel werden sie nicht im Detail vorgestellt

    2. 基于 BeautifulSoup 的 CSS 选择器

    这种方法实际上就是 PyQuery 中 CSS 选择器在其他模块的迁移使用,用法是类似的。关于 CSS 选择器详细语法可以参考:http://www.w3school.com.cn/cssref/css_selectors.asp由于是基于 BeautifulSoup 所以导入的模块以及文本结构转换都是一致的:

    import requests
    from bs4 import BeautifulSoup
    
    url = &#39;http://bang.dangdang.com/books/bestsellers/01.00.00.00.00.00-24hours-0-0-1-1&#39;
    response = requests.get(url).text
            
    def css_for_parse(response):
        soup = BeautifulSoup(response, "lxml") 
        print(soup)
    
    if __name__ == &#39;__main__&#39;:
        css_for_parse(response)
    Nach dem Login kopieren

    然后就是通过 soup.select 辅以特定的 CSS 语法获取特定内容,基础依旧是对元素的认真审查分析:

    import requests
    from bs4 import BeautifulSoup
    from lxml import html
    
    url = &#39;http://bang.dangdang.com/books/bestsellers/01.00.00.00.00.00-24hours-0-0-1-1&#39;
    response = requests.get(url).text
            
    def css_for_parse(response):
        soup = BeautifulSoup(response, "lxml")
        li_list = soup.select(&#39;ul.bang_list.clearfix.bang_list_mode > li&#39;)
        for li in li_list:
            title = li.select(&#39;div.name > a&#39;)[0][&#39;title&#39;]
            print(title)
    
    if __name__ == &#39;__main__&#39;:
        css_for_parse(response)
    Nach dem Login kopieren

    3. XPath

    XPath 即为 XML 路径语言,它是一种用来确定 XML 文档中某部分位置的计算机语言,如果使用 Chrome 浏览器建议安装 XPath Helper 插件,会大大提高写 XPath 的效率。

    之前的爬虫文章基本都是基于 XPath,大家相对比较熟悉因此代码直接给出:

    import requests
    from lxml import html
    
    url = &#39;http://bang.dangdang.com/books/bestsellers/01.00.00.00.00.00-24hours-0-0-1-1&#39;
    response = requests.get(url).text
    
    def xpath_for_parse(response):
        selector = html.fromstring(response)
        books = selector.xpath("//ul[@class=&#39;bang_list clearfix bang_list_mode&#39;]/li")
        for book in books:
            title = book.xpath(&#39;div[@class="name"]/a/@title&#39;)[0]
            print(title)
    
    if __name__ == &#39;__main__&#39;:
        xpath_for_parse(response)
    Nach dem Login kopieren

    4. 正则表达式

    如果对 HTML 语言不熟悉,那么之前的几种解析方法都会比较吃力。这里也提供一种万能解析大法:正则表达式,只需要关注文本本身有什么特殊构造文法,即可用特定规则获取相应内容。依赖的模块是 re

    首先重新观察直接返回的内容中,需要的文字前后有什么特殊:

    import requests
    import re
    
    url = &#39;http://bang.dangdang.com/books/bestsellers/01.00.00.00.00.00-24hours-0-0-1-1&#39;
    response = requests.get(url).text
    print(response)
    Nach dem Login kopieren
    Vergleich von vier häufig verwendeten Methoden zur Lokalisierung von Elementen für Python-Crawler. Welche bevorzugen Sie?

    Vergleich von vier häufig verwendeten Methoden zur Lokalisierung von Elementen für Python-Crawler. Welche bevorzugen Sie?观察几个数目相信就有答案了:<div class="name"><a href="http://product.dangdang.com/xxxxxxxx.html" target="_blank" title="xxxxxxx"> 书名就藏在上面的字符串中,蕴含的网址链接中末尾的数字会随着书名而改变。

    分析到这里正则表达式就可以写出来了:

    import requests
    import re
    
    url = &#39;http://bang.dangdang.com/books/bestsellers/01.00.00.00.00.00-24hours-0-0-1-1&#39;
    response = requests.get(url).text
    
    def re_for_parse(response):
        reg = &#39;<div class="name"><a href="http://product.dangdang.com/\d+.html" target="_blank" title="(.*?)">&#39;
        for title in re.findall(reg, response):
            print(title)
    
    if __name__ == &#39;__main__&#39;:
        re_for_parse(response)
    Nach dem Login kopieren

    可以发现正则写法是最简单的,但是需要对于正则规则非常熟练。所谓正则大法好!

    当然,不论哪种方法都有它所适用的场景,在真实操作中我们也需要在分析网页结构来判断如何高效的定位元素,最后附上本文介绍的四种方法的完整代码,大家可以自行操作一下来加深体会

    import requests
    from bs4 import BeautifulSoup
    from lxml import html
    import re
    
    url = &#39;http://bang.dangdang.com/books/bestsellers/01.00.00.00.00.00-24hours-0-0-1-1&#39;
    response = requests.get(url).text
    
    def bs_for_parse(response):
        soup = BeautifulSoup(response, "lxml")
        li_list = soup.find(&#39;ul&#39;, class_=&#39;bang_list clearfix bang_list_mode&#39;).find_all(&#39;li&#39;)
        for li in li_list:
            title = li.find(&#39;div&#39;, class_=&#39;name&#39;).find(&#39;a&#39;)[&#39;title&#39;]
            print(title)
    
    def css_for_parse(response):
        soup = BeautifulSoup(response, "lxml")
        li_list = soup.select(&#39;ul.bang_list.clearfix.bang_list_mode > li&#39;)
        for li in li_list:
            title = li.select(&#39;div.name > a&#39;)[0][&#39;title&#39;]
            print(title)
    
    def xpath_for_parse(response):
        selector = html.fromstring(response)
        books = selector.xpath("//ul[@class=&#39;bang_list clearfix bang_list_mode&#39;]/li")
        for book in books:
            title = book.xpath(&#39;div[@class="name"]/a/@title&#39;)[0]
            print(title)
    
    def re_for_parse(response):
        reg = &#39;<div class="name"><a href="http://product.dangdang.com/\d+.html" target="_blank" title="(.*?)">&#39;
        for title in re.findall(reg, response):
            print(title)
    
    if __name__ == &#39;__main__&#39;:
        # bs_for_parse(response)
        # css_for_parse(response)
        # xpath_for_parse(response)
        re_for_parse(response)
    Nach dem Login kopieren

Das obige ist der detaillierte Inhalt vonVergleich von vier häufig verwendeten Methoden zur Lokalisierung von Elementen für Python-Crawler. Welche bevorzugen Sie?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:Python当打之年
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage