Maison > développement back-end > Tutoriel Python > Utilisation approfondie de Scrapy : Comment explorer les données HTML, XML et JSON ?

Utilisation approfondie de Scrapy : Comment explorer les données HTML, XML et JSON ?

WBOY
Libérer: 2023-06-22 17:58:40
original
1875 Les gens l'ont consulté

Scrapy est un puissant framework de robot d'exploration Python qui peut nous aider à obtenir des données sur Internet de manière rapide et flexible. Dans le processus d'exploration proprement dit, nous rencontrons souvent divers formats de données tels que HTML, XML et JSON. Dans cet article, nous présenterons comment utiliser Scrapy pour explorer respectivement ces trois formats de données.

1. Explorer les données HTML

  1. Créer un projet Scrapy

Tout d'abord, nous devons créer un projet Scrapy. Ouvrez la ligne de commande et entrez la commande suivante :

scrapy startproject myproject
Copier après la connexion
Copier après la connexion
Copier après la connexion

Cette commande créera un projet Scrapy appelé monprojet dans le dossier actuel.

  1. Définissez l'URL de départ

Ensuite, nous devons définir l'URL de départ. Dans le répertoire myproject/spiders, créez un fichier nommé spider.py, éditez le fichier et entrez le code suivant :

import scrapy

class MySpider(scrapy.Spider):
    name = 'myspider'
    start_urls = ['http://example.com']

    def parse(self, response):
        pass
Copier après la connexion

Le code importe d'abord la bibliothèque Scrapy, puis définit une classe de robot MySpider et configure une araignée nommée myspider. nom et définissez une URL de départ sur http://example.com. Enfin, une méthode d'analyse est définie. La méthode d'analyse sera appelée par Scrapy par défaut pour traiter les données de réponse.

  1. Analyser les données de réponse

Ensuite, nous devons analyser les données de réponse. Continuez à éditer le fichier myproject/spiders/spider.py et ajoutez le code suivant :

import scrapy

class MySpider(scrapy.Spider):
    name = 'myspider'
    start_urls = ['http://example.com']

    def parse(self, response):
        title = response.xpath('//title/text()').get()
        yield {'title': title}
Copier après la connexion

Dans le code, nous utilisons la méthode Response.xpath() pour obtenir le titre dans la page HTML. Utilisez rendement pour renvoyer des données de type dictionnaire, y compris le titre que nous avons obtenu.

  1. Exécutez le robot d'exploration

Enfin, nous devons exécuter le robot d'exploration Scrapy. Entrez la commande suivante sur la ligne de commande :

scrapy crawl myspider -o output.json
Copier après la connexion
Copier après la connexion
Copier après la connexion

Cette commande affichera les données dans le fichier output.json.

2. Explorer les données XML

  1. Créer un projet Scrapy

De même, nous devons d'abord créer un projet Scrapy. Ouvrez la ligne de commande et entrez la commande suivante :

scrapy startproject myproject
Copier après la connexion
Copier après la connexion
Copier après la connexion

Cette commande créera un projet Scrapy appelé monprojet dans le dossier actuel.

  1. Définissez l'URL de départ

Dans le répertoire myproject/spiders, créez un fichier nommé spider.py, éditez le fichier et entrez le code suivant :

import scrapy

class MySpider(scrapy.Spider):
    name = 'myspider'
    start_urls = ['http://example.com/xml']

    def parse(self, response):
        pass
Copier après la connexion

Dans le code, nous définissons un nom d'araignée nommé myspider , et définissez une URL de départ sur http://example.com/xml.

  1. Analyser les données de réponse

Continuez à éditer le fichier myproject/spiders/spider.py et ajoutez le code suivant :

import scrapy

class MySpider(scrapy.Spider):
    name = 'myspider'
    start_urls = ['http://example.com/xml']

    def parse(self, response):
        for item in response.xpath('//item'):
            yield {
                'title': item.xpath('title/text()').get(),
                'link': item.xpath('link/text()').get(),
                'desc': item.xpath('desc/text()').get(),
            }
Copier après la connexion

Dans le code, nous utilisons la méthode Response.xpath() pour obtenir les données dans le Page XML. Utilisez une boucle for pour parcourir la balise item, obtenez les données texte dans les trois balises title, link et desc, et utilisez rendement pour renvoyer les données de type dictionnaire.

  1. Exécutez le robot d'exploration

Enfin, nous devons également exécuter le robot d'exploration Scrapy. Entrez la commande suivante sur la ligne de commande :

scrapy crawl myspider -o output.json
Copier après la connexion
Copier après la connexion
Copier après la connexion

Cette commande affichera les données dans le fichier output.json.

3. Explorer les données JSON

  1. Créer un projet Scrapy

De même, nous devons créer un projet Scrapy. Ouvrez la ligne de commande et entrez la commande suivante :

scrapy startproject myproject
Copier après la connexion
Copier après la connexion
Copier après la connexion

Cette commande créera un projet Scrapy appelé monprojet dans le dossier actuel.

  1. Définissez l'URL de départ

Dans le répertoire myproject/spiders, créez un fichier nommé spider.py, éditez le fichier et entrez le code suivant :

import scrapy

class MySpider(scrapy.Spider):
    name = 'myspider'
    start_urls = ['http://example.com/json']

    def parse(self, response):
        pass
Copier après la connexion

Dans le code, nous définissons un nom d'araignée nommé myspider , et définissez une URL de départ sur http://example.com/json.

  1. Analyser les données de réponse

Continuez à éditer le fichier myproject/spiders/spider.py et ajoutez le code suivant :

import scrapy
import json

class MySpider(scrapy.Spider):
    name = 'myspider'
    start_urls = ['http://example.com/json']

    def parse(self, response):
        data = json.loads(response.body)
        for item in data['items']:
            yield {
                'title': item['title'],
                'link': item['link'],
                'desc': item['desc'],
            }
Copier après la connexion

Dans le code, nous utilisons la méthode json.loads() pour analyser les données en JSON format. Utilisez une boucle for pour parcourir le tableau d'éléments, obtenez les trois attributs de titre, de lien et de desc de chaque élément et utilisez rendement pour renvoyer des données de type dictionnaire.

  1. Exécutez le robot d'exploration

Enfin, vous devez également exécuter le robot d'exploration Scrapy. Entrez la commande suivante sur la ligne de commande :

scrapy crawl myspider -o output.json
Copier après la connexion
Copier après la connexion
Copier après la connexion

Cette commande affichera les données dans le fichier output.json.

4. Résumé

Dans cet article, nous avons présenté comment utiliser Scrapy pour explorer respectivement les données HTML, XML et JSON. Grâce aux exemples ci-dessus, vous pouvez comprendre l'utilisation de base de Scrapy et vous pouvez également apprendre en profondeur une utilisation plus avancée si nécessaire. J'espère que cela pourra vous aider avec la technologie des robots d'exploration.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:php.cn
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal