インターネットの発展に伴い、さまざまな情報のデジタル化が進み、Webサイト上の大量のデータの重要性がますます高まっています。データをクロールすると、分析と処理がより便利になります。 Scrapy フレームワークは一般的に使用されるクローラー ツールの 1 つです。この記事では、Scrapy クローラーを使用して中国社会科学院の文書データベース データをクロールする方法を紹介します。
1.scrapy をインストールする
Scrapy は、Web サイトをクロールしてデータを抽出するために使用できる、Python ベースのオープンソース Web クローラー フレームワークです。始める前に、まずscrapyをインストールする必要があります。インストール コマンドは次のとおりです:
pip install scrapy
2. クローラー コードを作成します
次に、Scrapy プロジェクトを作成し、クローラー コードを作成する必要があります。まず、ターミナルを使用して新しい Scrapy プロジェクトを作成します:
scrapy startproject cssrc
次に、プロジェクト ディレクトリに入り、新しいスパイダーを作成します:
cd cssrc scrapy genspider cssrc_spider cssrc.ac.cn
スパイダー ファイルで、いくつかのパラメーターを設定する必要があります。具体的には、クロールする URL を定義する start_urls パラメータと、Web サイトの応答データを処理する解析関数を設定する必要があります。設定は次のとおりです。
# -*- coding: utf-8 -*- import scrapy class CssrcSpiderSpider(scrapy.Spider): name = 'cssrc_spider' allowed_domains = ['cssrc.ac.cn'] start_urls = ['http://www.cssrc.ac.cn'] def parse(self, response): pass
基本設定が完了したら、Web サイト上のデータを抽出するコードを記述する必要があります。具体的には、対象のデータがどこにあるのかを見つけてコードで抽出する必要があります。この例では、文献ライブラリの特定のページを見つけて、対応するデータを抽出する必要があります。コードは次のとおりです:
# -*- coding: utf-8 -*- import scrapy class CssrcSpiderSpider(scrapy.Spider): name = 'cssrc_spider' allowed_domains = ['cssrc.ac.cn'] start_urls = ['http://www.cssrc.ac.cn'] def parse(self, response): url = 'http://cssrc.ac.cn/report-v1/search.jsp' # 文献库页面网址 yield scrapy.Request(url, callback=self.parse_search) # 发送请求 def parse_search(self, response): # 发送post请求并得到响应 yield scrapy.FormRequest.from_response( response, formdata={ '__search_source__': 'T', # 搜索类型为文献 'fldsort': '0', # 按相关度排序 'Title': '', # 标题 'Author': '', # 第一作者 'Author2': '', # 第二作者 'Organ': '', # 机构 'Keyword': '', # 关键词 'Cls': '', # 分类号 '___action___': 'search' # 请求类型为搜索 }, callback=self.parse_result # 处理搜索结果的函数 ) def parse_result(self, response): # 通过xpath找到结果列表中的各个元素,并提取其中的文献信息 result_list = response.xpath('//div[@class="info_content"]/div') for res in result_list: title = res.xpath('a[@class="title"]/text()').extract_first().strip() # 文献标题 authors = res.xpath('div[@class="yiyu"]/text()').extract_first().strip() # 作者 date = res.xpath('div[@class="date"]/text()').extract_first().strip() # 出版日期 url = res.xpath('a[@class="title"]/@href').extract_first() # 文献详情页的url yield { 'title': title, 'authors': authors, 'date': date, 'url': url }
3. クローラーの実行
コードを記述した後、コマンドを使用してクローラーを実行し、データを取得できます。具体的には、次のコマンドを使用して Scrapy プログラムを実行します。
scrapy crawl cssrc_spider -o cssrc.json
このうち、cssrc_spider
は前に設定したスパイダー名で、cssrc.json
は出力データファイル名。コマンドを実行すると、プログラムが自動的に実行され、データが出力されます。
4. 概要
この記事では、Scrapy フレームワークを使用して中国社会科学院の文書データベース データをクロールする方法を紹介します。この記事を通じて、クローラーの基本原理と、クロールに Scrapy フレームワークを使用する方法を理解できます。同時に、xpathによるデータの抽出方法や、正規表現やエンコード処理技術を利用して中国語の文字化けなどの問題を解決する方法も学びました。この記事があなたのお役に立ち、他の Web サイトにクローラーを実装する際の参考になれば幸いです。
以上が卑劣なクローラーの実践: 中国社会科学院の文書データベース データをクロールするにはどうすればよいですか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。