Webcrawler – wie man mit Anfragen im Multiprozess von Python kooperiert
阿神
阿神 2017-06-22 11:52:30
0
2
776

Dies ist der Code für die sequentielle Ausführung eines einzelnen Prozesses:

import requests,time,os,random

def img_down(url):
    with open("{}".format(str(random.random())+os.path.basename(url)),"wb") as fob:
        fob.write(requests.get(url).content)

urllist=[]
with open("urllist.txt","r+") as u:
    for a in u.readlines():
        urllist.append(a.strip())

s=time.clock()
for i in range(len(urllist)):
    img_down(urllist[i])
e=time.clock()

print ("time: %d" % (e-s))

Dies ist der Code für mehrere Prozesse:

from multiprocessing import Pool
import requests,os,time,random

def img_down(url):
    with open("{}".format(str(random.random())+os.path.basename(url)),"wb") as fob:
        fob.write(requests.get(url).content)

if __name__=="__main__":
    urllist=[]
    with open("urllist.txt","r+") as urlfob:
        for s in urlfob.readlines():
            urllist.append(s.strip())

    s=time.clock()
    p=Pool()
    for i in range(len(urllist)):
        p.apply_async(img_down,args=(urllist[i],))
    p.close()
    p.join()
    e=time.clock()
    
    print ("time: {}".format(e-s))

Aber es gibt fast keinen Unterschied zwischen der Zeit, die in einem Einzelprozess und in mehreren Prozessen verbracht wird. Das Problem besteht wahrscheinlich darin, dass Anforderungen E/A blockieren. Wie sollte der Code geändert werden, um den Zweck von Mehrprozessen zu erreichen?
Danke!

阿神
阿神

闭关修行中......

Antworte allen(2)
phpcn_u1582

写文件的瓶颈在磁盘IO,并不在CPU,你并行并没有多大作用,你可以试试不要写入文件再对比时间

刘奇

Pool 不带参数的话 是采用
os.cpu_count() or 1
如果是单核CPU,或者采集不到数量 就只有1个进程而已。

应该是这个原因。

Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage