La valeur de hachage se trouve à la position dans l'image ci-dessus.
Cette photo est une réponse
#coding=utf-8 demandes d'importation depuis bs4 import BeautifulSoup
get_url="http://www.szhec.gov.cn/pages/szepb/kqzl/TGzfwHjKqzlzs.jsp?FLAG=FIRSTFW"#获取hash值 post_url="http://www.szhec.gov.cn/pages/szepb/kqzl/TGzfwHjKqzlzs.jsp" #Obtenir les heures de qualité de l'air html=requests.get(get_url) #Utilisez beautiful pour analyser la page Web et obtenir la valeur de hachage html_soup=BeautifulSoup(html.text,"html.parser") hash=html_soup.select("input[name=hash]") hash=hash [0].get('value') #Construct data data={
} #À ce stade, les informations sur les délais de contrôle qualité ont été correctement obtenues tqHtml=requests.post(post_url,data=data) print tqHtml.text
Cliquez avec le bouton droit pour inspecter l'élément, afficher le réseau, sélectionner une recherche temporelle et afficher l'adresse API ajax appelée :
Suite : J'ai probablement essayé ce code, mais le programme n'a ni signalé d'erreur ni produit de résultats. Qu'est-ce qui ne va pas? demandes d'importation importer xlwt depuis bs4 importer BeautifulSoup importer datetime importer tqdm
liste de dates def (début, fin) :
start_date = datetime.datetime(*start)
end_date = datetime.datetime(*end)
result = []
curr_date = start_date
while curr_date != end_date:
result.append("%04d-%02d-%02d-%02d" % (curr_date.year, curr_date.month, curr_date.day,curr_date.hour))
return result
def get_html() :
global h
s = requests.session()
url = 'http://www.szhec.gov.cn/pages/szepb/kqzl/TGzfwHjKqzlzs.jsp'
headers = {
'User-Agent':'Mozilla/5.0 (iPhone; U; CPU iPhone OS 4_0_1 like Mac OS X; ja-jp) AppleWebKit/532.9 (KHTML, like Gecko) Version/4.0.5 Mobile/8A306 Safari/6531.22.7',
'Referer':'http://www.szhec.gov.cn/pages/szepb/kqzl/TGzfwHjKqzlzs.jsp',
'Host':'www.szhec.gov.cn',
'Cookie':'JSESSIONID=1F7389E70413F613C3A166D8F5A963C4',
'Connection':'keep-alive',
'Accept-Language':'zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3',
'Accept-Encoding':'gzip, deflate',
'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8'
}
r = s.post(url, data=dt, headers=headers)
h = r.content.decode('utf-8')
def get_excel() :
book = xlwt.Workbook(encoding = 'utf-8',style_compression=0)
sheet = book.add_sheet('data',cell_overwrite_ok = True)
global dt
j = 0
for each in datelist((2016, 3, 1,0), (2016, 3, 31,23)):
dt = {'cdateEnd':each,'pageNo1':'1','pageNo2':''}
get_html()
soup = BeautifulSoup(h, "html.parser")
#j = 0
for tabb in soup.find_all('tr'):
i=0;
for tdd in tabb.find_all('td'):
#print (tdd.get_text()+",",)
sheet.write(j,i,tdd.get_text())
i = i+1
j=j+1
book.save(r'.\re'+each+'.xls')
Demande en utilisant requêtes.post
URL de l'image ci-dessus
La valeur de hachage se trouve à la position dans l'image ci-dessus.
Cette photo est une réponse
#coding=utf-8
demandes d'importation
depuis bs4 import BeautifulSoup
get_url="http://www.szhec.gov.cn/pages/szepb/kqzl/TGzfwHjKqzlzs.jsp?FLAG=FIRSTFW"#获取hash值
post_url="http://www.szhec.gov.cn/pages/szepb/kqzl/TGzfwHjKqzlzs.jsp" #Obtenir les heures de qualité de l'air
html=requests.get(get_url)
#Utilisez beautiful pour analyser la page Web et obtenir la valeur de hachage
html_soup=BeautifulSoup(html.text,"html.parser")
hash=html_soup.select("input[name=hash]")
hash=hash [0].get('value')
#Construct data
data={
}
#À ce stade, les informations sur les délais de contrôle qualité ont été correctement obtenues
tqHtml=requests.post(post_url,data=data)
print tqHtml.text
Cliquez avec le bouton droit pour inspecter l'élément, afficher le réseau, sélectionner une recherche temporelle et afficher l'adresse API ajax appelée :
Suite :
J'ai probablement essayé ce code, mais le programme n'a ni signalé d'erreur ni produit de résultats. Qu'est-ce qui ne va pas?
demandes d'importation
importer xlwt
depuis bs4 importer BeautifulSoup
importer datetime
importer tqdm
liste de dates def (début, fin) :
def get_html() :
def get_excel() :
get_excel()