この記事は主に403アクセス禁止エラーを解決するためのPythonクローラーに関する関連情報を紹介します。必要な友達はそれを参照してください
Pythonクローラーは403アクセス禁止エラーを解決します
Pythonでクローラーを書くとき、html.getcode( ) 403 禁止アクセスの問題が発生した場合、これは Web サイト上の自動クローラーの禁止です。この問題を解決するには、Python モジュール urllib2 モジュールを使用する必要があります。urllib2 モジュールは、高度なクローラー モジュールです。たとえば、接続 url=http://blog.csdn.NET/qysh123 の場合、この接続には 403 アクセスが禁止されている可能性があります
この問題を解決するには、次の手順が必要です:
<span style="font-size:18px;">req = urllib2.Request(url) req.add_header("User-Agent","Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36") req.add_header("GET",url) req.add_header("Host","blog.csdn.net") req.add_header("Referer","http://blog.csdn.net/")</span>
ユーザー- エージェントが閲覧中 サーバーの固有の
属性は、ブラウザを通じてソースコードを表示することで表示でき、その後、
html=urllib2.urlopen(req) print html.read()
は403禁止アクセスの問題を起こすことなく、すべてのWebページのコードをダウンロードできます。
上記の問題については、将来の呼び出しの便宜のために
関数 にカプセル化できます。具体的なコードは次のとおりです。 これらの問題を解決すると、403アクセス情報が表示されなくなり、スムーズにアクセスできるようになります。 1. 特別な推奨事項: 「php Programmer Toolbox」V0.1 バージョンのダウンロード2. 3.データサイエンスにおけるPythonの応用に関するチュートリアル 以上がPythonクローラーの403エラーの解決策の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。#-*-coding:utf-8-*-
import urllib2
import random
url="http://blog.csdn.net/qysh123/article/details/44564943"
my_headers=["Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36",
"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_9_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/35.0.1916.153 Safari/537.36",
"Mozilla/5.0 (Windows NT 6.1; WOW64; rv:30.0) Gecko/20100101 Firefox/30.0"
"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_9_2) AppleWebKit/537.75.14 (KHTML, like Gecko) Version/7.0.3 Safari/537.75.14",
"Mozilla/5.0 (compatible; MSIE 10.0; Windows NT 6.2; Win64; x64; Trident/6.0)"
]
def get_content(url,headers):
'''''
@获取403禁止访问的网页
'''
randdom_header=random.choice(headers)
req=urllib2.Request(url)
req.add_header("User-Agent",randdom_header)
req.add_header("Host","blog.csdn.net")
req.add_header("Referer","http://blog.csdn.net/")
req.add_header("GET",url)
content=urllib2.urlopen(req).read()
return content
print get_content(url,my_headers)
もちろん、アクセス頻度が速すぎる場合、一部の Web サイトは依然としてフィルタリングされますが、この問題を解決するには、プロキシ IP 方式を使用する必要があります。 。 。具体的に自分で解決してください
[関連する推奨事項]