Table des matières
Accédez au code complet sur Google Colab
Pourquoi choisir Crawl4AI et Pydantic ?
Pourquoi cibler Tokopedia ?
Qu'est-ce qui distingue cette approche ?
Configuration de votre environnement de développement
Définir des modèles de données avec Pydantic
Le processus de grattage
1. Exploration des listes de produits
2. Récupération des détails du produit
Combiner les étapes
Exécuter le Scraper
Conseils de pro
Prochaines étapes
Conclusion
Liens importants :
Crawl4AI
Pydantique
Remarque : Le code complet est disponible dans le notebook Colab. N'hésitez pas à l'expérimenter et à l'adapter à vos besoins spécifiques.
Maison développement back-end Tutoriel Python Création d'un grattoir Web de commerce électronique asynchrone avec Pydantic, Crawl et Gemini

Création d'un grattoir Web de commerce électronique asynchrone avec Pydantic, Crawl et Gemini

Jan 12, 2025 am 06:25 AM

Building an Async E-Commerce Web Scraper with Pydantic, Crawl & Gemini

En bref : Ce guide montre la création d'un scraper de commerce électronique à l'aide de l'extraction basée sur l'IA de crawl4ai et des modèles de données Pydantic. Le scraper récupère de manière asynchrone à la fois les listes de produits (noms, prix) et les informations détaillées sur les produits (spécifications, avis).

Accédez au code complet sur Google Colab


Vous en avez assez des complexités du web scraping traditionnel pour l'analyse des données de commerce électronique ? Ce didacticiel simplifie le processus à l'aide d'outils Python modernes. Nous exploiterons crawl4ai pour une extraction intelligente des données et Pydantic pour une modélisation et une validation robustes des données.

Pourquoi choisir Crawl4AI et Pydantic ?

  • crawl4ai : rationalise l'exploration et le scraping du Web à l'aide de méthodes d'extraction basées sur l'IA.
  • Pydantic : Fournit la validation des données et la gestion des schémas, garantissant des données récupérées structurées et précises.

Pourquoi cibler Tokopedia ?

Tokopedia, une importante plateforme de commerce électronique indonésienne, nous sert d'exemple. (Remarque : l'auteur est indonésien et utilisateur de la plateforme, mais non affilié.) Les principes s'appliquent à d'autres sites de commerce électronique. Cette approche de scraping est bénéfique pour les développeurs intéressés par l'analyse du commerce électronique, les études de marché ou la collecte automatisée de données.

Qu'est-ce qui distingue cette approche ?

Au lieu de nous appuyer sur des sélecteurs CSS complexes ou XPath, nous utilisons l'extraction basée sur LLM de crawl4ai. Cela offre :

  • Résilience améliorée aux changements de structure du site Web.
  • Sortie de données plus propre et plus structurée.
  • Réduction des frais de maintenance.

Configuration de votre environnement de développement

Commencez par installer les packages nécessaires :

%pip install -U crawl4ai
%pip install nest_asyncio
%pip install pydantic
Copier après la connexion
Copier après la connexion

Pour l'exécution de code asynchrone dans les notebooks, nous utiliserons également nest_asyncio :

import crawl4ai
import asyncio
import nest_asyncio
nest_asyncio.apply()
Copier après la connexion

Définir des modèles de données avec Pydantic

Nous utilisons Pydantic pour définir la structure de données attendue. Voici les modèles :

from pydantic import BaseModel, Field
from typing import List, Optional

class TokopediaListingItem(BaseModel):
    product_name: str = Field(..., description="Product name from listing.")
    product_url: str = Field(..., description="URL to product detail page.")
    price: str = Field(None, description="Price displayed in listing.")
    store_name: str = Field(None, description="Store name from listing.")
    rating: str = Field(None, description="Rating (1-5 scale) from listing.")
    image_url: str = Field(None, description="Primary image URL from listing.")

class TokopediaProductDetail(BaseModel):
    product_name: str = Field(..., description="Product name from detail page.")
    all_images: List[str] = Field(default_factory=list, description="List of all product image URLs.")
    specs: str = Field(None, description="Technical specifications or short info.")
    description: str = Field(None, description="Long product description.")
    variants: List[str] = Field(default_factory=list, description="List of variants or color options.")
    satisfaction_percentage: Optional[str] = Field(None, description="Customer satisfaction percentage.")
    total_ratings: Optional[str] = Field(None, description="Total number of ratings.")
    total_reviews: Optional[str] = Field(None, description="Total number of reviews.")
    stock: Optional[str] = Field(None, description="Stock availability.")
Copier après la connexion

Ces modèles servent de modèles, garantissant la validation des données et fournissant une documentation claire.

Le processus de grattage

Le grattoir fonctionne en deux phases :

1. Exploration des listes de produits

Tout d'abord, nous récupérons les pages de résultats de recherche :

async def crawl_tokopedia_listings(query: str = "mouse-wireless", max_pages: int = 1):
    # ... (Code remains the same) ...
Copier après la connexion

2. Récupération des détails du produit

Ensuite, pour chaque URL de produit, nous récupérons des informations détaillées :

async def crawl_tokopedia_detail(product_url: str):
    # ... (Code remains the same) ...
Copier après la connexion

Combiner les étapes

Enfin, nous intégrons les deux phases :

async def run_full_scrape(query="mouse-wireless", max_pages=2, limit=15):
    # ... (Code remains the same) ...
Copier après la connexion

Exécuter le Scraper

Voici comment exécuter le scraper :

%pip install -U crawl4ai
%pip install nest_asyncio
%pip install pydantic
Copier après la connexion
Copier après la connexion

Conseils de pro

  1. Limitation de débit : Respectez les serveurs de Tokopedia ; introduire des délais entre les demandes de scraping à grande échelle.
  2. Mise en cache : Activer la mise en cache de crawl4ai pendant le développement (cache_mode=CacheMode.ENABLED).
  3. Gestion des erreurs : Implémentez des mécanismes complets de gestion des erreurs et de nouvelles tentatives pour une utilisation en production.
  4. Clés API : Stockez les clés API Gemini en toute sécurité dans des variables d'environnement, et non directement dans le code.

Prochaines étapes

Ce grattoir peut être étendu à :

  • Stockez les données dans une base de données.
  • Surveillez les changements de prix au fil du temps.
  • Analyser les tendances et les modèles de produits.
  • Comparez les prix dans plusieurs magasins.

Conclusion

L'extraction basée sur LLM de crawl4ai améliore considérablement la maintenabilité du web scraping par rapport aux méthodes traditionnelles. L'intégration avec Pydantic garantit l'exactitude et la structure des données.

Respectez toujours les robots.txt et les conditions d'utilisation d'un site Web avant de le supprimer.


Liens importants :

Crawl4AI

Pydantique


Remarque : Le code complet est disponible dans le notebook Colab. N'hésitez pas à l'expérimenter et à l'adapter à vos besoins spécifiques.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

<🎜>: Grow A Garden - Guide de mutation complet
3 Il y a quelques semaines By DDD
<🎜>: Bubble Gum Simulator Infinity - Comment obtenir et utiliser les clés royales
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Whispers of the Witch Tree - Comment déverrouiller le grappin
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Système de fusion, expliqué
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Tutoriel Java
1667
14
Tutoriel PHP
1273
29
Tutoriel C#
1255
24
Python: jeux, GUIS, et plus Python: jeux, GUIS, et plus Apr 13, 2025 am 12:14 AM

Python excelle dans les jeux et le développement de l'interface graphique. 1) Le développement de jeux utilise Pygame, fournissant des fonctions de dessin, audio et d'autres fonctions, qui conviennent à la création de jeux 2D. 2) Le développement de l'interface graphique peut choisir Tkinter ou Pyqt. Tkinter est simple et facile à utiliser, PYQT a des fonctions riches et convient au développement professionnel.

Python vs C: courbes d'apprentissage et facilité d'utilisation Python vs C: courbes d'apprentissage et facilité d'utilisation Apr 19, 2025 am 12:20 AM

Python est plus facile à apprendre et à utiliser, tandis que C est plus puissant mais complexe. 1. La syntaxe Python est concise et adaptée aux débutants. Le typage dynamique et la gestion automatique de la mémoire le rendent facile à utiliser, mais peuvent entraîner des erreurs d'exécution. 2.C fournit des fonctionnalités de contrôle de bas niveau et avancées, adaptées aux applications haute performance, mais a un seuil d'apprentissage élevé et nécessite une gestion manuelle de la mémoire et de la sécurité.

Python et temps: tirer le meilleur parti de votre temps d'étude Python et temps: tirer le meilleur parti de votre temps d'étude Apr 14, 2025 am 12:02 AM

Pour maximiser l'efficacité de l'apprentissage de Python dans un temps limité, vous pouvez utiliser les modules DateTime, Time et Schedule de Python. 1. Le module DateTime est utilisé pour enregistrer et planifier le temps d'apprentissage. 2. Le module de temps aide à définir l'étude et le temps de repos. 3. Le module de planification organise automatiquement des tâches d'apprentissage hebdomadaires.

Python vs. C: Explorer les performances et l'efficacité Python vs. C: Explorer les performances et l'efficacité Apr 18, 2025 am 12:20 AM

Python est meilleur que C dans l'efficacité du développement, mais C est plus élevé dans les performances d'exécution. 1. La syntaxe concise de Python et les bibliothèques riches améliorent l'efficacité du développement. Les caractéristiques de type compilation et le contrôle du matériel de CC améliorent les performances d'exécution. Lorsque vous faites un choix, vous devez peser la vitesse de développement et l'efficacité de l'exécution en fonction des besoins du projet.

Quelle partie fait partie de la bibliothèque standard Python: listes ou tableaux? Quelle partie fait partie de la bibliothèque standard Python: listes ou tableaux? Apr 27, 2025 am 12:03 AM

PythonlistSaReparmentofthestandardLibrary, tandis que les coloccules de colocède, tandis que les colocculations pour la base de la Parlementaire, des coloments de forage polyvalent, tandis que la fonctionnalité de la fonctionnalité nettement adressée.

Python: automatisation, script et gestion des tâches Python: automatisation, script et gestion des tâches Apr 16, 2025 am 12:14 AM

Python excelle dans l'automatisation, les scripts et la gestion des tâches. 1) Automatisation: La sauvegarde du fichier est réalisée via des bibliothèques standard telles que le système d'exploitation et la fermeture. 2) Écriture de script: utilisez la bibliothèque PSUTIL pour surveiller les ressources système. 3) Gestion des tâches: utilisez la bibliothèque de planification pour planifier les tâches. La facilité d'utilisation de Python et la prise en charge de la bibliothèque riche en font l'outil préféré dans ces domaines.

Apprendre Python: 2 heures d'étude quotidienne est-elle suffisante? Apprendre Python: 2 heures d'étude quotidienne est-elle suffisante? Apr 18, 2025 am 12:22 AM

Est-ce suffisant pour apprendre Python pendant deux heures par jour? Cela dépend de vos objectifs et de vos méthodes d'apprentissage. 1) Élaborer un plan d'apprentissage clair, 2) Sélectionnez les ressources et méthodes d'apprentissage appropriées, 3) la pratique et l'examen et la consolidation de la pratique pratique et de l'examen et de la consolidation, et vous pouvez progressivement maîtriser les connaissances de base et les fonctions avancées de Python au cours de cette période.

Python vs C: Comprendre les principales différences Python vs C: Comprendre les principales différences Apr 21, 2025 am 12:18 AM

Python et C ont chacun leurs propres avantages, et le choix doit être basé sur les exigences du projet. 1) Python convient au développement rapide et au traitement des données en raison de sa syntaxe concise et de son typage dynamique. 2) C convient à des performances élevées et à une programmation système en raison de son typage statique et de sa gestion de la mémoire manuelle.

See all articles