Parlez-moi de ma méthode, j'ai exploré les données. J'utilise Firebug. Après l'avoir ouvert, j'ai trouvé le chemin suivant : https://www.yilan.io/article/recommended Après avoir regardé le contenu à publier, j'ai besoin de cet ensemble de données {"skip ":0," limite :20}. Commencez à écrire le code ci-dessous :
import urllib2
import urllib
import gzip
from StringIO import StringIO
import json
api = 'https://www.yilan.io/article/recommended'
data = {"skip":0,"limit":20}
headers = { 'Accept': 'application/json, text/plain, */*',
'Accept-Encoding': 'gzip, deflate',
'Accept-Language': 'zh-CN,zh',
'Connection': 'keep-alive',
'Cookie': 'XSRF-TOKEN=APc3KgEq-6wavGArI6rLf6tPW69j7H_Qm2s0; user=%7B%22_id%22%3A%22%22%2C%22role%22%3A%7B%22title%22%3A%22anon%22%2C%22bitMask%22%3A1610612736%7D%7D; Metrix-sid=s%3AjDAFvFGo3C0BJzR7cTXBXHl6VM493Gp0.C1svjUqfnY3NhUluURMDdaL3HEpUX8rpSj9%2F9yhKnEI',
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.12; rv:51.0) Gecko/20100101 Firefox/51.0',
'X-XSRF-TOKEN': 'APc3KgEq-6wavGArI6rLf6tPW69j7H_Qm2s0'
}
url_data = urllib.urlencode(data)
request = urllib2.Request(api, data=url_data,headers=headers)
content = urllib2.urlopen(request).read()
contents = StringIO(content)
f = gzip.GzipFile(mode='rb', fileobj=contents).read()
b = json.loads(f)
print b
Les résultats en cours d'exécution sont les suivants :
Ensuite, extrayez simplement le contenu souhaité. Vous pouvez modifier la valeur de la limite pour modifier la quantité de contenu à obtenir en une seule fois. Le site Web peut vérifier les données que vous avez publiées en arrière-plan. S'il y a une erreur, cela provoquera un 404, c'est pourquoi le chemin n'est pas accessible directement.
Le paramètre HTTP HEADERS est probablement incorrect. Je n'arrive pas à comprendre comment le configurer spécifiquement. Vous pouvez créer un ensemble de HEADERS qui simule un navigateur classique ou suivre la requête dans le navigateur.
Parlez-moi de ma méthode, j'ai exploré les données. J'utilise Firebug. Après l'avoir ouvert, j'ai trouvé le chemin suivant :

https://www.yilan.io/article/recommended
Après avoir regardé le contenu à publier, j'ai besoin de cet ensemble de données {"skip ":0," limite :20}. Commencez à écrire le code ci-dessous :
Les résultats en cours d'exécution sont les suivants :
Ensuite, extrayez simplement le contenu souhaité. Vous pouvez modifier la valeur de la limite pour modifier la quantité de contenu à obtenir en une seule fois.
Le site Web peut vérifier les données que vous avez publiées en arrière-plan. S'il y a une erreur, cela provoquera un 404, c'est pourquoi le chemin n'est pas accessible directement.
Le paramètre HTTP HEADERS est probablement incorrect. Je n'arrive pas à comprendre comment le configurer spécifiquement. Vous pouvez créer un ensemble de HEADERS qui simule un navigateur classique ou suivre la requête dans le navigateur.