python用requests递归查询页面 报错 ChunkedEncodingError
大家讲道理
大家讲道理 2017-04-18 09:43:00
0
4
899

我想用递归的方式查询一个网页下面的所有后续页面 /index.php /index_2.php 这样。

pages = set()
def searchAllPages(url, name):
    '''获得所有页面链接'''
    global pages
    ObjUrl = BaseUrl + url
    regular_str = r"\/%s\/index_*[0-9]*\.php" % name
    
    time.sleep(1)
    try:
        r = requests.get(ObjUrl)
    except (requests.ConnectionError, requests.HTTPError) as e:
        return
    else:
        bsObj = BeautifulSoup(r.text,'lxml')
    

    links = bsObj.find_all('a', href=re.compile(regular_str))
    links = [i.attrs['href'] for i in links]
    for link in links:
        if link not in pages:
            # 新页面
            pages.add(link)
            searchAllPages(link, name)
     

运行后报错 提示

equests.exceptions.ChunkedEncodingError: ("Connection broken: ConnectionResetError(10054, '远程主机强迫关闭了一个现有的连接。', None, 10054, None)", ConnectionResetError(10054, '远程主机强迫关闭了一个现有的连接。', None, 10054, None))

请问这个问题是如何引起的?
我该如何解决?

已经在多处搜索这个问题的原因。始终没找到符合我的答案。

但不是每次都失败的样子。。
找到一个比较符合我想法的答案,就是可能我的访问量和速度太频繁,被对面认为是攻击而关闭。
请问还有没 其他更合理的解释?

大家讲道理
大家讲道理

光阴似箭催人老,日月如移越少年。

membalas semua(4)
PHPzhong

Mungkin pelayan pihak lain telah melakukan anti-merangkak. Cuba tambahkan pengepala secara manual pada permintaan

小葫芦

Anda tidak memberikan alamat Url tertentu, jadi sukar untuk diuji~

Anda boleh cuba menulis semula ke dalam berbilang benang dan menggunakan baris gilir untuk mengurus URL yang perlu dirangkak.

小葫芦

Anda boleh menambah pengepala dan cuba mengakses sekali lagi.

阿神

Terima kasih atas jawapan selepas menambah pengepala, saya menjalankannya 3 atau 4 kali dan tiada ralat dilaporkan
Suka!

Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan
Tentang kita Penafian Sitemap
Laman web PHP Cina:Latihan PHP dalam talian kebajikan awam,Bantu pelajar PHP berkembang dengan cepat!