아래 편집자는 Python멀티 스레딩크롤러 연습_부끄러운 백과사전 단락 크롤링의 예에 대한 기사를 공유할 것입니다. 이 기사는 좋은 참고 가치가 있으며 모든 사람에게 도움이 되기를 바랍니다. Python에 관심 있는 친구들은 편집자를 따라가서 살펴보세요
멀티 스레드 크롤러: 즉, 프로그램의 특정 프로그램 세그먼트가 병렬로 실행됩니다.
멀티 스레드를 올바르게 설정하면 크롤러를 더 효율적으로 만들 수 있습니다.
부끄러운 일 백과사전 단락 일반 크롤러 및 멀티스레드 크롤러
이 URL 링크를 분석하면 다음으로 연결됩니다.
https://www.qiushibaike.com/8hr/page/페이지 번호/
Multi -스레디드 크롤러도 JAVA와 똑같습니다. 멀티스레딩도 거의 똑같습니다. 그냥 코드로 가세요
''' #此处代码为普通爬虫 import urllib.request import urllib.error import re headers = ("User-Agent","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36") opener = urllib.request.build_opener() opener.addheaders = [headers] urllib.request.install_opener(opener) for i in range(1,2): url = "https://www.qiushibaike.com/8hr/page/"+str(i)+"/" pagedata = urllib.request.urlopen(url).read().decode("utf-8","ignore") pattern = '<p class="content">.*?<span>(.*?)</span>(.*?)</p>' datalist = re.compile(pattern,re.S).findall(pagedata) for j in range(0,len(datalist)): print("第"+str(i)+"页第"+str(j)+"个段子内容是:") print(datalist[j]) ''' ''' #此处为多线程介绍代码 import threading #导入多线程包 class A(threading.Thread): #创建一个多线程A def init(self): #必须包含的两个方法之一:初始化线程 threading.Thread.init(self) def run(self): #必须包含的两个方法之一:线程运行方法 for i in range(0,11): print("我是线程A") class B(threading.Thread): #创建一个多线程A def init(self): #必须包含的两个方法之一:初始化线程 threading.Thread.init(self) def run(self): #必须包含的两个方法之一:线程运行方法 for i in range(0,11): print("我是线程B") t1 = A() #线程实例化 t1.start() #线程运行 t2 = B() t2.start() ''' #此处为修改后的多线程爬虫 #使用多线程进行奇偶页的爬取 import urllib.request import urllib.error import re import threading headers = ("User-Agent","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36") opener = urllib.request.build_opener() opener.addheaders = [headers] urllib.request.install_opener(opener) class one(threading.Thread): #爬取奇数页内容 def init(self): threading.Thread.init(self) def run(self): for i in range(1,12,2): url = "https://www.qiushibaike.com/8hr/page/"+str(i)+"/" pagedata = urllib.request.urlopen(url).read().decode("utf-8","ignore") pattern = '<p class="content">.*?<span>(.*?)</span>(.*?)</p>' datalist = re.compile(pattern,re.S).findall(pagedata) for j in range(0,len(datalist)): print("第"+str(i)+"页第"+str(j)+"段子内容为:") print(datalist[j]) class two(threading.Thread): #爬取奇数页内容 def init(self): threading.Thread.init(self) def run(self): for i in range(2,12,2): url = "https://www.qiushibaike.com/8hr/page/"+str(i)+"/" pagedata = urllib.request.urlopen(url).read().decode("utf-8","ignore") pattern = '<p class="content">.*?<span>(.*?)</span>(.*?)</p>' datalist = re.compile(pattern,re.S).findall(pagedata) for j in range(0,len(datalist)): print("第"+str(i)+"页第"+str(j)+"段子内容为:") print(datalist[j]) t1 = one() t2 = two() t1.start() t2.start()
위의 Python 멀티스레드 크롤러 연습에 관한 글_크롤링 창피한 것 백과사전 문단이 전부 내용입니다. 편집자가 공유한 내용으로 여러분에게 참고 자료가 되기를 바랍니다. 또한 모든 사람이 PHP 중국어 웹사이트를 지원하기를 바랍니다.
관련 추천:
Python 데이터 구조 및 알고리즘 공통 할당 정렬 방법 예시 [버킷 정렬 및 기수 정렬]_python
Python의 xlwt에서 Excel 셀 글꼴 및 서식 지정 방법을 설정하는 방법
파이썬 언어를 사용하여 바이두 음성 인식 기능을 구현한 예
위 내용은 Python 멀티스레드 크롤러 연습_백과사전에 나오는 창피한 것들을 크롤링하는 예_python의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!