python抓取网页图片并放到指定文件夹
python抓取网站图片并放到指定文件夹
复制代码 代码如下:
# -*- coding=utf-8 -*-
import urllib2
import urllib
import socket
import os
import re
def Docment():
print u'把文件存在E:\Python\图(请输入数字或字母)'
h=raw_input()
path=u'E:\Python\图'+str(h)
if not os.path.exists(path):
os.makedirs(path)
return path
def getallurl(html):
reg=r"a href='(.*?\.htm)'"
allurl= re.compile(reg)
allList = re.findall(allurl,html)
return allList
def getHTML(url):
url=url
req_header = {'User-Agent':'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6'}
req_timeout = 20
html='cuowu'
try:
req = urllib2.Request(url,None,req_header)
resp = urllib2.urlopen(req,None,req_timeout)
html = resp.read()
except urllib2.URLError as e:
print e.message
except socket.timeout as e:
getHTML(url,fu)
return html
def getImg(html,path):
reg = r'img class=IMG_show border=0 src=(.*?\.jpg)'
imgre= re.compile(reg)
imgList = re.findall(imgre, html)
if imgList:
print 'ghasghg',path
for imgurl in imgList:
print imgurl
content2=urllib2.urlopen(imgurl).read()
with open(path+'/'+imgurl[-7:],'wb') as code:
code.write(content2)
else:
return 0
def getallurl(html):
reg=r"a href='(.*?\.htm)'"
allurl= re.compile(reg)
allList = re.findall(allurl,html)
return allList
j=1
i=0
print u'请输入网址:'
ul=raw_input()
print u'开始下载'
print u'第'+str(j)+u'页'
html=getHTML(ul)
allList=getallurl(html)
path=Docment()
getImg(html,path)
while i for lis in allList:
l=lis[i]
url=r'http://www.umei.cc/p/gaoqing/rihan/'+lis
i=i+1
j=j+1
html=getHTML(url)
getImg(html,path)
print u'第'+str(j)+u'页'
else:
print u'下载完毕'
# -*- coding=utf-8 -*-
import urllib2
import urllib
import socket
import os
import re
def Docment():
print u'把文件存在E:\Python\图(请输入数字或字母)'
h=raw_input()
path=u'E:\Python\图'+str(h)
if not os.path.exists(path):
os.makedirs(path)
return path
def getallurl(html):
reg=r"a href='(.*?\.htm)'"
allurl= re.compile(reg)
allList = re.findall(allurl,html)
return allList
def getHTML(url):
url=url
req_header = {'User-Agent':'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6'}
req_timeout = 20
html='cuowu'
try:
req = urllib2.Request(url,None,req_header)
resp = urllib2.urlopen(req,None,req_timeout)
html = resp.read()
except urllib2.URLError as e:
print e.message
except socket.timeout as e:
getHTML(url,fu)
return html
def getImg(html,path):
reg = r'img class=IMG_show border=0 src=(.*?\.jpg)'
imgre= re.compile(reg)
imgList = re.findall(imgre, html)
if imgList:
print 'ghasghg',path
for imgurl in imgList:
print imgurl
content2=urllib2.urlopen(imgurl).read()
with open(path+'/'+imgurl[-7:],'wb') as code:
code.write(content2)
else:
return 0
def getallurl(html):
reg=r"a href='(.*?\.htm)'"
allurl= re.compile(reg)
allList = re.findall(allurl,html)
return allList
j=1
i=0
print u'请输入网址:'
ul=raw_input()
print u'开始下载'
print u'第'+str(j)+u'页'
html=getHTML(ul)
allList=getallurl(html)
path=Docment()
getImg(html,path)
while i
l=lis[i]
url=r'http://www.umei.cc/p/gaoqing/rihan/'+lis
i=i+1
j=j+1
html=getHTML(url)
getImg(html,path)
print u'第'+str(j)+u'页'
else:
print u'下载完毕'
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章
Windows 11 KB5054979中的新功能以及如何解決更新問題
3 週前
By DDD
如何修復KB5055523無法在Windows 11中安裝?
2 週前
By DDD
Inzoi:如何申請學校和大學
4 週前
By DDD
如何修復KB5055518無法在Windows 10中安裝?
2 週前
By DDD
Roblox:Dead Rails - 如何召喚和擊敗Nikola Tesla
1 個月前
By 尊渡假赌尊渡假赌尊渡假赌

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

Linux終端中查看Python版本時遇到權限問題的解決方法當你在Linux終端中嘗試查看Python的版本時,輸入python...

使用FiddlerEverywhere進行中間人讀取時如何避免被檢測到當你使用FiddlerEverywhere...

在使用Python的pandas庫時,如何在兩個結構不同的DataFrame之間進行整列複製是一個常見的問題。假設我們有兩個Dat...

Uvicorn是如何持續監聽HTTP請求的? Uvicorn是一個基於ASGI的輕量級Web服務器,其核心功能之一便是監聽HTTP請求並進�...

如何在10小時內教計算機小白編程基礎?如果你只有10個小時來教計算機小白一些編程知識,你會選擇教些什麼�...

攻克Investing.com的反爬蟲策略許多人嘗試爬取Investing.com(https://cn.investing.com/news/latest-news)的新聞數據時,常常�...
