我想用递归的方式查询一个网页下面的所有后续页面 /index.php /index_2.php 这样。
pages = set()
def searchAllPages(url, name):
'''获得所有页面链接'''
global pages
ObjUrl = BaseUrl + url
regular_str = r"\/%s\/index_*[0-9]*\.php" % name
time.sleep(1)
try:
r = requests.get(ObjUrl)
except (requests.ConnectionError, requests.HTTPError) as e:
return
else:
bsObj = BeautifulSoup(r.text,'lxml')
links = bsObj.find_all('a', href=re.compile(regular_str))
links = [i.attrs['href'] for i in links]
for link in links:
if link not in pages:
# 新页面
pages.add(link)
searchAllPages(link, name)
运行后报错 提示
equests.exceptions.ChunkedEncodingError: ("Connection broken: ConnectionResetError(10054, '远程主机强迫关闭了一个现有的连接。', None, 10054, None)", ConnectionResetError(10054, '远程主机强迫关闭了一个现有的连接。', None, 10054, None))
请问这个问题是如何引起的?
我该如何解决?
已经在多处搜索这个问题的原因。始终没找到符合我的答案。
但不是每次都失败的样子。。
找到一个比较符合我想法的答案,就是可能我的访问量和速度太频繁,被对面认为是攻击而关闭。
请问还有没 其他更合理的解释?
相手のサーバーがクロール防止を行っている可能性がありますので、リクエストにヘッダーを手動で追加してみてください。
特定の URL アドレスが指定されていないため、テストするのは困難です~
これをマルチスレッドに書き換えて、キューを使用してクロールする必要がある URL を管理してみることができます。
ヘッダーを追加して、再度アクセスしてみてください。
ご回答ありがとうございます。ヘッダーを追加した後、3、4 回実行しましたが、エラーは報告されませんでした。
いいね!