스크래피를 활용해 효율적인 크롤러 프로그램을 구축하는 방법
정보화 시대가 도래하면서 인터넷상의 데이터 양은 계속해서 늘어나고, 많은 양의 데이터를 획득하려는 수요도 늘어나고 있습니다. 그리고 크롤러는 이러한 요구에 대한 최고의 솔루션 중 하나가 되었습니다. 뛰어난 Python 크롤러 프레임워크인 Scrapy는 효율적이고 안정적이며 사용하기 쉬우며 다양한 분야에서 널리 사용되고 있습니다. 이 기사에서는 Scrapy를 사용하여 효율적인 크롤러 프로그램을 구축하는 방법을 소개하고 코드 예제를 제공합니다.
Scrapy의 크롤러 프로그램은 주로 다음 구성 요소로 구성됩니다.
Scrapy에서 크롤러 프로그램을 작성하려면 새로운 크롤러 프로젝트를 만들어야 합니다. 명령줄에서 다음 명령을 실행하세요:
scrapy startproject myspider
그러면 일부 기본 파일과 폴더가 포함된 "myspider"라는 프로젝트 폴더가 생성됩니다. 이 폴더로 이동하여 새 크롤러를 생성할 수 있습니다.
cd myspider scrapy genspider example example.com
이렇게 하면 "example.com" 웹사이트에서 데이터를 크롤링하는 데 사용되는 "example"이라는 크롤러가 생성됩니다. 생성된 "example_spider.py" 파일에 특정 크롤러 로직을 작성할 수 있습니다.
다음은 웹사이트의 뉴스 헤드라인과 링크를 스크랩하는 간단한 예입니다.
import scrapy class ExampleSpider(scrapy.Spider): name = 'example' allowed_domains = ['example.com'] start_urls = ['http://www.example.com/news'] def parse(self, response): for news in response.xpath('//div[@class="news-item"]'): yield { 'title': news.xpath('.//h2/text()').get(), 'link': news.xpath('.//a/@href').get(), } next_page = response.xpath('//a[@class="next-page"]/@href').get() if next_page: yield response.follow(next_page, self.parse)
위 코드에서는 세 가지 속성을 포함하는 "ExampleSpider"라는 크롤러 클래스를 정의합니다. name은 크롤러의 이름을 나타내고, allowed_domains는 웹 사이트를 크롤링하도록 허용된 도메인 이름을 나타내고, start_urls는 시작 URL을 나타냅니다. . 그런 다음 웹 페이지 콘텐츠를 구문 분석하고, 뉴스 제목과 링크를 추출하고, Yield를 사용하여 결과를 반환하는 구문 분석 메서드를 다시 작성했습니다.
Scrapy에서는 프로젝트 파이프라인을 통해 크롤링된 데이터를 파이프라인할 수 있습니다. 데이터는 데이터베이스에 저장되거나, 파일에 기록되거나, 나중에 처리될 수 있습니다.
프로젝트 폴더에서 "settings.py" 파일을 열고, 그 안에서 ITEM_PIPELINES 구성 항목을 찾아 주석 처리를 해제하세요. 그런 다음 다음 코드를 추가합니다.
ITEM_PIPELINES = { 'myspider.pipelines.MyPipeline': 300, }
이렇게 하면 사용자 정의 파이프라인 클래스 "my spider.pipelines.MyPipeline"이 활성화되고 우선 순위가 지정됩니다(숫자가 낮을수록 우선 순위가 높아짐).
다음으로 데이터를 처리하기 위한 파이프라인 클래스를 만들어야 합니다. 프로젝트 폴더에 "pipelines.py"라는 파일을 만들고 다음 코드를 추가합니다.
import json class MyPipeline: def open_spider(self, spider): self.file = open('news.json', 'w') def close_spider(self, spider): self.file.close() def process_item(self, item, spider): line = json.dumps(dict(item)) + " " self.file.write(line) return item
이 예에서는 open_spider , close_spider 및 process_item이라는 세 가지 메서드를 사용하여 "MyPipeline"이라는 파이프라인 클래스를 정의합니다. open_spider 메소드에서는 데이터를 저장할 파일을 엽니다. close_spider 메소드에서는 파일을 닫습니다. process_item 메소드에서는 데이터를 JSON 형식으로 변환하여 파일에 씁니다.
크롤러 프로그램 및 프로젝트 파이프라인 작성을 마친 후 명령줄에서 다음 명령을 실행하여 크롤러 프로그램을 실행할 수 있습니다.
scrapy crawl example
이렇게 하면 "example"이라는 크롤러가 시작되고 시작됩니다. 크롤링 데이터를 가져옵니다. 크롤링된 데이터는 파이프라인 클래스에서 정의한 대로 처리됩니다.
위는 Scrapy를 사용하여 효율적인 크롤러 프로그램을 구축하기 위한 기본 프로세스와 샘플 코드입니다. 물론 Scrapy는 특정 요구 사항에 따라 조정 및 확장할 수 있는 다른 많은 기능과 옵션도 제공합니다. 이 기사가 독자들이 Scrapy를 더 잘 이해하고 사용하며 효율적인 크롤러 프로그램을 구축하는 데 도움이 되기를 바랍니다.
위 내용은 Scrapy를 사용하여 효율적인 크롤러 프로그램을 구축하는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!