Web クローラー (Web スパイダー、Web ロボット、FOAF コミュニティでは一般に Web ページ チェイサーとも呼ばれます) は、特定のルールに自動的に従う Web クローラーの一種です。 World Wide Web から情報をクロールするプログラムまたはスクリプト。さあ、これを一緒に学びましょう。
1.Scrapy
Scrapy は、Web サイトのデータをクロールし、構造化データを抽出するために作成されたアプリケーション フレームワークです。データマイニング、情報処理、履歴データの保存などの一連のプログラムで使用できます。 。このフレームワークを使用すると、Amazon の商品情報などのデータを簡単にクロールできます。
プロジェクトアドレス: https://scrapy.org/
2.PySpider
pyspider はPython で実装された強力な Web クローラー システムです。スクリプトを作成し、機能をスケジュールし、ブラウザー インターフェイス上でリアルタイムでクロール結果を表示できます。バックエンドは一般的に使用されるデータベースを使用してクロール結果を保存し、タイミングも設定できます。タスクとタスクの優先順位など。
プロジェクトアドレス: https://github.com/binux/pyspider
3.Crawley
Crawley は、対応する Web サイトのコンテンツを高速にクロールでき、リレーショナルおよび非リレーショナル データベースをサポートし、データを JSON、XML などにエクスポートできます。
# プロジェクト アドレス: http://project.crawley-cloud.com/4.Portia
Portia は、プログラミングの知識がなくても Web サイトをクロールできるオープンソースのビジュアル クローラー ツールです。興味のあるページに注釈を付けるだけで、Portia が同様のページからデータを抽出するスパイダーを作成します。 プロジェクトアドレス: https://github.com/scrapinghub/portia5.Newspaper
新聞は、ニュース、記事の抽出、内容分析に使用できます。マルチスレッドの使用、10 を超える言語のサポートなど。#プロジェクトアドレス: https://github.com/codelucas/newspaper
6.美しいスープBeautiful Soup は、HTML または XML ファイルからデータを抽出できる Python ライブラリです。お気に入りのコンバータを通じて、ドキュメントのナビゲーション、検索、および変更の通常の方法を実現できます。Beautiful Soup を使用すると、数時間、さらには数日の作業時間を節約できます。
プロジェクトアドレス: https://www.crummy.com/software/BeautifulSoup/bs4/doc/
7.GrabGrab は、Web スクレイパーを構築するための Python フレームワークです。 Grab を使用すると、単純な 5 行のスクリプトから数百万の Web ページを処理する複雑な非同期 Web サイト スクレイパーまで、さまざまな複雑さの Web スクレイパーを構築できます。 Grab は、ネットワーク リクエストを実行し、HTML ドキュメントの DOM ツリーと対話するなど、受信したコンテンツを処理するための API を提供します。
プロジェクトアドレス: http://docs.grablib.org/en/latest/#grab-spider-user-manual
8 .ColaCola は分散クローラー フレームワークであり、ユーザーは分散操作の詳細を意識することなく、いくつかの特定の関数を記述するだけで済みます。タスクは複数のマシンに自動的に分散され、プロセス全体がユーザーに透過的に行われます。
プロジェクト アドレス: https://github.com/chineking/cola
お読みいただきありがとうございます。多くのメリットがあることを願っています。
転載先: https://www.toutiao.com/i6560240315519730190/
推奨チュートリアル: "
python チュートリアル以上が史上最も効率的な Python クローラー フレームワーク (推奨)の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。