ホームページ バックエンド開発 Python チュートリアル Scrapy がプロキシ IP、ユーザー エージェント、Cookie を使用してクローラ対策戦略を回避する方法

Scrapy がプロキシ IP、ユーザー エージェント、Cookie を使用してクローラ対策戦略を回避する方法

Jun 23, 2023 pm 01:22 PM
cookies プロキシIP user agent

Web クローラーの開発に伴い、データが悪意を持ってクロールされるのを防ぐために、ますます多くの Web サイトやサーバーがクローラー対策戦略を採用し始めています。これらの戦略には、IP ブロック、ユーザー エージェント検出、Cookie 検証などが含まれます。対応する対応戦略がなければ、当社のクローラーは簡単に悪意のあるものとして分類され、禁止されてしまう可能性があります。したがって、この状況を回避するには、Scrapy フレームワークのクローラー プログラムにプロキシ IP、ユーザー エージェント、Cookie などのポリシーを適用する必要があります。この記事では、これら3つの戦略を適用する方法を詳しく紹介します。

  1. プロキシ IP

プロキシ IP は実際の IP アドレスを効果的に変更するため、サーバーがクローラ プログラムを検出できなくなります。同時に、プロキシ IP を使用すると、複数の IP をクロールする機会も得られるため、頻繁なリクエストによって単一の IP がブロックされる状況を回避できます。

Scrapy では、ミドルウェアを使用してプロキシ IP を設定できます。まず、settings.py で関連する設定を行う必要があります。例:

DOWNLOADER_MIDDLEWARES = {
    'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': None,
    'scrapy.downloadermiddlewares.retry.RetryMiddleware': None,
    'scrapy_proxies.RandomProxy': 100,
    'scrapy.downloadermiddlewares.httpproxy.HttpProxyMiddleware': 110,
}
ログイン後にコピー

上記の設定では、scrapy_proxies ライブラリを使用してプロキシ IP 設定を実装します。このうち、100が優先度を表し、値が小さいほど優先度が高くなります。この設定の後、リクエスト プロセス中に、Scrapy はプロキシ IP プールから IP アドレスをランダムに選択してリクエストを行います。

もちろん、プロキシ IP ソースをカスタマイズすることもできます。たとえば、無料のプロキシ IP Web サイトが提供する API を使用して、プロキシ IP を取得できます。コード例は次のとおりです。

class GetProxy(object):
    def __init__(self, proxy_url):
        self.proxy_url = proxy_url

    def get_proxy_ip(self):
        response = requests.get(self.proxy_url)
        if response.status_code == 200:
            json_data = json.loads(response.text)
            proxy = json_data.get('proxy')
            return proxy
        else:
            return None


class RandomProxyMiddleware(object):
    def __init__(self):
        self.proxy_url = 'http://api.xdaili.cn/xdaili-api//greatRecharge/getGreatIp?spiderId=e2f1f0cc6c5e4ef19f884ea6095deda9&orderno=YZ20211298122hJ9cz&returnType=2&count=1'
        self.get_proxy = GetProxy(self.proxy_url)

    def process_request(self, request, spider):
        proxy = self.get_proxy.get_proxy_ip()
        if proxy:
            request.meta['proxy'] = 'http://' + proxy
ログイン後にコピー

上記のコードでは、RandomProxyMiddleware クラスを定義し、Requests ライブラリを使用してプロキシ IP を取得します。リクエストヘッダーにプロキシIPを追加することで、プロキシIPを設定できます。

  1. ユーザー エージェント

ユーザー エージェントは識別リクエスト ヘッダーの一部であり、リクエストを開始したデバイス、オペレーティング システム、ブラウザなどの情報が含まれています。多くのサーバーはリクエストを処理するときに、リクエスト ヘッダー内のユーザー エージェント情報を使用してリクエストがクローラーかどうかを判断し、それによってアンチクローラー処理を実行します。

同様に、Scrapy ではミドルウェアを使用してユーザー エージェント設定を実装できます。例:

class RandomUserAgent(object):
    def __init__(self):
        self.user_agents = ['Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3']
                  
    def process_request(self, request, spider):
        user_agent = random.choice(self.user_agents)
        request.headers.setdefault('User-Agent', user_agent)
ログイン後にコピー

上記のコードでは、RandomUserAgent クラスを定義し、リクエスト ヘッダー内のユーザー エージェント情報としてユーザー エージェントをランダムに選択します。こうすることで、たとえクローラーが大量のリクエストを送信したとしても、サーバーによって悪意のあるクローラーとみなされることを回避できます。

  1. Cookies

Cookie は、リクエストに応答するときに、応答ヘッダーの Set-Cookie フィールドを通じてサーバーによって返されるデータの一部です。ブラウザがサーバーへのリクエストを再度開始すると、以前の Cookie 情報がリクエスト ヘッダーに含まれ、ログイン検証やその他の操作が行われます。

同様に、Scrapy ではミドルウェアを介して Cookie を設定することもできます。例:

class RandomCookies(object):
    def __init__(self):
        self.cookies = {
            'example_cookie': 'example_value'
        }
                  
    def process_request(self, request, spider):
        cookie = random.choice(self.cookies)
        request.cookies = cookie
ログイン後にコピー

上記のコードでは、RandomCookies クラスを定義し、リクエスト ヘッダーの Cookie 情報として Cookie をランダムに選択します。このように、リクエストプロセス中に Cookie を設定することでログイン検証操作を実装できます。

概要

データ クロールに Scrapy を使用するプロセスでは、クローラー対策戦略のアイデアや手法を避けることが非常に重要です。この記事では、Scrapy のミドルウェアを介してプロキシ IP、ユーザー エージェント、Cookie およびその他のポリシーを設定し、クローラー プログラムをより隠蔽し安全にする方法について詳しく説明します。

以上がScrapy がプロキシ IP、ユーザー エージェント、Cookie を使用してクローラ対策戦略を回避する方法の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

LinuxターミナルでPythonバージョンを表示するときに発生する権限の問題を解決する方法は? LinuxターミナルでPythonバージョンを表示するときに発生する権限の問題を解決する方法は? Apr 01, 2025 pm 05:09 PM

LinuxターミナルでPythonバージョンを表示する際の許可の問題の解決策PythonターミナルでPythonバージョンを表示しようとするとき、Pythonを入力してください...

プロジェクトの基本と問題駆動型の方法で10時間以内にコンピューター初心者プログラミングの基本を教える方法は? プロジェクトの基本と問題駆動型の方法で10時間以内にコンピューター初心者プログラミングの基本を教える方法は? Apr 02, 2025 am 07:18 AM

10時間以内にコンピューター初心者プログラミングの基本を教える方法は?コンピューター初心者にプログラミングの知識を教えるのに10時間しかない場合、何を教えることを選びますか...

あるデータフレームの列全体を、Python内の異なる構造を持つ別のデータフレームに効率的にコピーする方法は? あるデータフレームの列全体を、Python内の異なる構造を持つ別のデータフレームに効率的にコピーする方法は? Apr 01, 2025 pm 11:15 PM

PythonのPandasライブラリを使用する場合、異なる構造を持つ2つのデータフレーム間で列全体をコピーする方法は一般的な問題です。 2つのデータがあるとします...

中間の読書にどこでもfiddlerを使用するときにブラウザによって検出されないようにするにはどうすればよいですか? 中間の読書にどこでもfiddlerを使用するときにブラウザによって検出されないようにするにはどうすればよいですか? Apr 02, 2025 am 07:15 AM

fiddlereveryversings for the-middleの測定値を使用するときに検出されないようにする方法

正規表現とは何ですか? 正規表現とは何ですか? Mar 20, 2025 pm 06:25 PM

正規表現は、プログラミングにおけるパターンマッチングとテキスト操作のための強力なツールであり、さまざまなアプリケーションにわたるテキスト処理の効率を高めます。

uvicornは、serving_forever()なしでhttpリクエストをどのように継続的に聞いていますか? uvicornは、serving_forever()なしでhttpリクエストをどのように継続的に聞いていますか? Apr 01, 2025 pm 10:51 PM

UvicornはどのようにしてHTTPリクエストを継続的に聞きますか? Uvicornは、ASGIに基づく軽量のWebサーバーです。そのコア機能の1つは、HTTPリクエストを聞いて続行することです...

文字列を介してオブジェクトを動的に作成し、Pythonでメソッドを呼び出す方法は? 文字列を介してオブジェクトを動的に作成し、Pythonでメソッドを呼び出す方法は? Apr 01, 2025 pm 11:18 PM

Pythonでは、文字列を介してオブジェクトを動的に作成し、そのメソッドを呼び出す方法は?これは一般的なプログラミング要件です。特に構成または実行する必要がある場合は...

人気のあるPythonライブラリとその用途は何ですか? 人気のあるPythonライブラリとその用途は何ですか? Mar 21, 2025 pm 06:46 PM

この記事では、numpy、pandas、matplotlib、scikit-learn、tensorflow、django、flask、and requestsなどの人気のあるPythonライブラリについて説明し、科学的コンピューティング、データ分析、視覚化、機械学習、Web開発、Hの使用について説明します。

See all articles