Python 크롤러 프레임워크의 스크랩 예제에 대한 자세한 설명

高洛峰
풀어 주다: 2016-10-18 10:25:45
원래의
2409명이 탐색했습니다.

프로젝트 생성

Scrapy는 프로젝트를 생성하는 도구를 제공합니다. 일부 파일은 생성된 프로젝트에 미리 설정되어 있으며 사용자는 이러한 파일에 자신의 코드를 추가해야 합니다.

명령줄을 열고 실행: scrapy startproject tutorial 생성된 프로젝트는 다음

tutorial/

scrapy.cfg

과 유사한 구조를 갖습니다. tutorial/

__init__.py

items.py

Pipelines.py

settings.py

spiders/

__init__.py

                 … >

name 속성은 매우 중요하며, 서로 다른 스파이더는 동일한 이름을 사용할 수 없습니다.

start_urls는 스파이더가 웹 페이지를 크롤링하는 시작점이며, 여러 URL 포함

파싱 방법은 스파이더가 하나를 가져오기 위한 것입니다. 콜백은 나중에 웹페이지에서 기본적으로 호출되므로 자신만의 방법을 정의하는 데 이 이름을 사용하지 마세요.
from scrapy.spider import BaseSpider
class DmozSpider(BaseSpider):
    name = "dmoz"
    allowed_domains = ["dmoz.org"]
    start_urls = [
        "http://www.dmoz.org/Computers/Programming/Languages/Python/Books/",
        "http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/"
    ]
    def parse(self, response):
        filename = response.url.split("/")[-2]
        open(filename, 'wb').write(response.body)
로그인 후 복사

스파이더는 URL의 콘텐츠를 가져오면 구문 분석 메서드를 호출하고 응답 매개변수에 전달합니다. 응답에는 캡처된 웹페이지의 콘텐츠가 포함되어 있습니다. 캡처된 웹페이지의 데이터가 내부에서 구문 분석됩니다. 위의 코드는 단순히 웹 페이지 콘텐츠를 파일에 저장합니다.

크롤링 시작

명령줄을 열고 생성된 프로젝트 루트 디렉토리 tutorial/을 입력하고 scrapy 크롤링 dmoz를 실행할 수 있습니다. dmoz는 거미.


웹 콘텐츠 구문 분석

scrapy는 HtmlXPathSelector


<🎜를 사용해야 하는 웹 페이지의 데이터를 구문 분석하는 편리한 방법을 제공합니다. > HtmlXPathSelector는 Xpath를 사용하여 데이터를 구문 분석합니다.

//ul/li는 모든 ul 태그 아래에서 li 태그를 선택하는 것을 의미합니다.

a/@href는 모든 a 태그의 href 속성을 선택하는 것을 의미합니다.

from scrapy.spider import BaseSpider
from scrapy.selector import HtmlXPathSelector
class DmozSpider(BaseSpider):
    name = "dmoz"
    allowed_domains = ["dmoz.org"]
    start_urls = [
        "http://www.dmoz.org/Computers/Programming/Languages/Python/Books/",
        "http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/"
    ]
    def parse(self, response):
        hxs = HtmlXPathSelector(response)
        sites = hxs.select(&#39;//ul/li&#39;)
        for site in sites:
            title = site.select(&#39;a/text()&#39;).extract()
            link = site.select(&#39;a/@href&#39;).extract()
            desc = site.select(&#39;text()&#39;).extract()
            print title, link, desc
로그인 후 복사
a/text()는 태그 텍스트를 선택한다는 의미입니다

a[@href="abc"]는 href 속성이 abc인 모든 태그를 선택한다는 의미입니다

데이터를 구문 분석할 수 있습니다. 저장 scrapy가 사용할 수 있는 개체에, scrapy를 사용하면 데이터를 파일에 직접 저장할 필요 없이 이러한 개체를 저장할 수 있습니다. 저장하려는 데이터를 설명하는 데 사용되는 몇 가지 클래스를 items.py에 추가해야 합니다.

명령줄에서 scrapy를 실행할 때 scrapy가 구문 분석을 사용하도록 두 개의 매개변수를 추가할 수 있습니다. 메소드 반환된 항목은 json 파일로 출력됩니다.

scrapy creep dmoz -o items.json -t json

items.json은 프로젝트의 루트 디렉터리에 배치됩니다

from scrapy.item import Item, Field
class DmozItem(Item):
   title = Field()
   link = Field()
   desc = Field()
然后在spider的parse方法中,我们把解析出来的数据保存在DomzItem对象中。
from scrapy.spider import BaseSpider
from scrapy.selector import HtmlXPathSelector
from tutorial.items import DmozItem
class DmozSpider(BaseSpider):
   name = "dmoz"
   allowed_domains = ["dmoz.org"]
   start_urls = [
       "http://www.dmoz.org/Computers/Programming/Languages/Python/Books/",
       "http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/"
   ]
   def parse(self, response):
       hxs = HtmlXPathSelector(response)
       sites = hxs.select(&#39;//ul/li&#39;)
       items = []
       for site in sites:
           item = DmozItem()
           item[&#39;title&#39;] = site.select(&#39;a/text()&#39;).extract()
           item[&#39;link&#39;] = site.select(&#39;a/@href&#39;).extract()
           item[&#39;desc&#39;] = site.select(&#39;text()&#39;).extract()
           items.append(item)
       return items
로그인 후 복사

scrapy가 웹페이지의 모든 링크를 자동으로 크롤링하도록 허용

위의 예에서 scrapy는 start_urls에 있는 두 URL의 콘텐츠만 크롤링하지만 일반적으로 우리가 원하는 것은 자동으로 스크랩됩니다. 웹 페이지의 모든 링크를 검색한 다음 해당 링크의 콘텐츠를 크롤링합니다. 이를 달성하기 위해 구문 분석 메소드에서 필요한 링크를 추출한 다음 일부 Request 객체를 구성하고 반환하면 Scrapy가 자동으로 이러한 링크를 크롤링합니다. 코드는 유사합니다.


parse는 요청 목록을 반환하는 기본 콜백입니다. Scrapy는 웹 페이지가 캡처될 때마다 자동으로 웹 페이지를 크롤링하고,parse_item이 호출됩니다. 또한 목록을 반환하며, scrapy는 이 목록을 기반으로 웹페이지를 크롤링하고, 가져온 후 pars_details

를 호출하여 이러한 종류의 작업을 더 쉽게 하기 위해 scrapy는 우리가 사용할 수 있는 또 다른 스파이더 기본 클래스를 제공합니다. 이를 편리하게 구현하려면 CrawlSpider

를 사용해야 합니다. BaseSpider와 비교하여 이 속성은 여러 규칙을 포함할 수 있는 목록입니다. 크롤링해야 할 링크와 크롤링하지 않아도 되는 링크를 설명합니다. 이것은 규칙 클래스 http://doc.scrapy.org/en/latest/topics/spiders.html#scrapy.contrib.spiders.Rule
class MySpider(BaseSpider):
    name = &#39;myspider&#39;
    start_urls = (
        &#39;http://example.com/page1&#39;,
        &#39;http://example.com/page2&#39;,
        )
    def parse(self, response):
        # collect `item_urls`
        for item_url in item_urls:
            yield Request(url=item_url, callback=self.parse_item)
    def parse_item(self, response):
        item = MyItem()
        # populate `item` fields
        yield Request(url=item_details_url, meta={&#39;item&#39;: item},
            callback=self.parse_details)
    def parse_details(self, response):
        item = response.meta[&#39;item&#39;]
        # populate more `item` fields
        return item
로그인 후 복사

에 대한 문서입니다. 이 규칙은 언제 콜백을 가질 수 있는지 여부를 결정합니다. 콜백이 없으면 scrapy는

pipelines.py 사용

from scrapy.contrib.linkextractors.sgml import SgmlLinkExtractor
class MininovaSpider(CrawlSpider):
    name = &#39;mininova.org&#39;
    allowed_domains = [&#39;mininova.org&#39;]
    start_urls = [&#39;http://www.mininova.org/today&#39;]
    rules = [Rule(SgmlLinkExtractor(allow=[&#39;/tor/\d+&#39;])),
             Rule(SgmlLinkExtractor(allow=[&#39;/abc/\d+&#39;]), &#39;parse_torrent&#39;)]
    def parse_torrent(self, response):
        x = HtmlXPathSelector(response)
        torrent = TorrentItem()
        torrent[&#39;url&#39;] = response.url
        torrent[&#39;name&#39;] = x.select("//h1/text()").extract()
        torrent[&#39;description&#39;] = x.select("//div[@id=&#39;description&#39;]").extract()
        torrent[&#39;size&#39;] = x.select("//div[@id=&#39;info-left&#39;]/p[2]/text()[2]").extract()
        return torrent
로그인 후 복사
pipelines.py에서 일부 클래스를 추가하여 원하지 않는 항목을 필터링할 수 있습니다. 항목이 데이터베이스에 저장됩니다.

항목이 요구 사항을 충족하지 않으면 예외가 발생하고 항목이 json 파일로 출력되지 않습니다.

파이프라인을 사용하려면 settings.py도 수정해야 합니다

라인 추가

from scrapy.exceptions import DropItem
class FilterWordsPipeline(object):
    """A pipeline for filtering out items which contain certain words in their
    description"""
    # put all words in lowercase
    words_to_filter = [&#39;politics&#39;, &#39;religion&#39;]
    def process_item(self, item, spider):
        for word in self.words_to_filter:
            if word in unicode(item[&#39;description&#39;]).lower():
                raise DropItem("Contains forbidden word: %s" % word)
        else:
            return item
로그인 후 복사
ITEM_PIPELINES = ['dirbot.pipelines.FilterWordsPipeline']

이제 scrapy 크롤링 dmoz -o items.json -t json을 실행하세요. 요구 사항을 충족하지 않는 항목은 필터링됩니다.

원천:php.cn
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿
회사 소개 부인 성명 Sitemap
PHP 중국어 웹사이트:공공복지 온라인 PHP 교육,PHP 학습자의 빠른 성장을 도와주세요!