目次
Google Colab で完全なコードにアクセスします
Crawl4AI と Pydantic を選ぶ理由
なぜ Tokopedia をターゲットにするのですか?
このアプローチの特徴は何ですか?
開発環境のセットアップ
Pydantic を使用したデータ モデルの定義
スクレイピングプロセス
1.商品リストをクロール
2.製品詳細を取得しています
ステージの結合
スクレーパーの実行
プロのヒント
次のステップ
結論
重要なリンク:
クロール4AI
ピダンティック
注: 完全なコードは Colab ノートブックで入手できます。 自由に実験して、特定のニーズに合わせて調整してください。
ホームページ バックエンド開発 Python チュートリアル Pydantic、Crawl、Gemini を使用した非同期電子商取引 Web スクレイパーの構築

Pydantic、Crawl、Gemini を使用した非同期電子商取引 Web スクレイパーの構築

Jan 12, 2025 am 06:25 AM

Building an Async E-Commerce Web Scraper with Pydantic, Crawl & Gemini

要約: このガイドでは、crawl4ai の AI を活用した抽出と Pydantic データ モデルを使用して、e コマース スクレーパーを構築する方法を説明します。 スクレイパーは、製品リスト (名前、価格) と詳細な製品情報 (仕様、レビュー) の両方を非同期的に取得します。

Google Colab で完全なコードにアクセスします


電子商取引データ分析のための従来の Web スクレイピングの複雑さにうんざりしていませんか?このチュートリアルでは、最新の Python ツールを使用してプロセスを簡素化します。インテリジェントなデータ抽出には crawl4ai を、堅牢なデータ モデリングと検証には Pydantic を活用します。

Crawl4AI と Pydantic を選ぶ理由

  • crawl4ai: AI 主導の抽出方法を使用して、Web のクローリングとスクレイピングを合理化します。
  • Pydantic: データ検証とスキーマ管理を提供し、構造化された正確なスクレイピング データを保証します。

なぜ Tokopedia をターゲットにするのですか?

インドネシアの大手電子商取引プラットフォームである Tokopedia が例として挙げられます。 (注: 著者はインドネシア人であり、プラットフォームのユーザーですが、提携はしていません。) この原則は他の電子商取引サイトにも適用されます。 このスクレイピング アプローチは、e コマース分析、市場調査、自動データ収集に興味のある開発者にとって有益です。

このアプローチの特徴は何ですか?

複雑な CSS セレクターや XPath に依存する代わりに、crawl4ai の LLM ベースの抽出を利用します。これにより以下が提供されます:

  • Web サイト構造の変更に対する復元力の強化
  • よりクリーンで構造化されたデータ出力。
  • メンテナンスのオーバーヘッドを削減します。

開発環境のセットアップ

必要なパッケージをインストールすることから始めます:

%pip install -U crawl4ai
%pip install nest_asyncio
%pip install pydantic
ログイン後にコピー
ログイン後にコピー

ノートブックでの非同期コード実行の場合は、nest_asyncio:

も使用します。
import crawl4ai
import asyncio
import nest_asyncio
nest_asyncio.apply()
ログイン後にコピー

Pydantic を使用したデータ モデルの定義

私たちは Pydantic を使用して、予想されるデータ構造を定義します。 モデルは次のとおりです:

from pydantic import BaseModel, Field
from typing import List, Optional

class TokopediaListingItem(BaseModel):
    product_name: str = Field(..., description="Product name from listing.")
    product_url: str = Field(..., description="URL to product detail page.")
    price: str = Field(None, description="Price displayed in listing.")
    store_name: str = Field(None, description="Store name from listing.")
    rating: str = Field(None, description="Rating (1-5 scale) from listing.")
    image_url: str = Field(None, description="Primary image URL from listing.")

class TokopediaProductDetail(BaseModel):
    product_name: str = Field(..., description="Product name from detail page.")
    all_images: List[str] = Field(default_factory=list, description="List of all product image URLs.")
    specs: str = Field(None, description="Technical specifications or short info.")
    description: str = Field(None, description="Long product description.")
    variants: List[str] = Field(default_factory=list, description="List of variants or color options.")
    satisfaction_percentage: Optional[str] = Field(None, description="Customer satisfaction percentage.")
    total_ratings: Optional[str] = Field(None, description="Total number of ratings.")
    total_reviews: Optional[str] = Field(None, description="Total number of reviews.")
    stock: Optional[str] = Field(None, description="Stock availability.")
ログイン後にコピー

これらのモデルはテンプレートとして機能し、データ検証を確実にし、明確なドキュメントを提供します。

スクレイピングプロセス

スクレーパーは 2 つのフェーズで動作します:

1.商品リストをクロール

まず、検索結果ページを取得します。

async def crawl_tokopedia_listings(query: str = "mouse-wireless", max_pages: int = 1):
    # ... (Code remains the same) ...
ログイン後にコピー

2.製品詳細を取得しています

次に、製品 URL ごとに詳細情報を取得します。

async def crawl_tokopedia_detail(product_url: str):
    # ... (Code remains the same) ...
ログイン後にコピー

ステージの結合

最後に、両方のフェーズを統合します。

async def run_full_scrape(query="mouse-wireless", max_pages=2, limit=15):
    # ... (Code remains the same) ...
ログイン後にコピー

スクレーパーの実行

スクレイパーを実行する方法は次のとおりです:

%pip install -U crawl4ai
%pip install nest_asyncio
%pip install pydantic
ログイン後にコピー
ログイン後にコピー

プロのヒント

  1. レート制限: Tokopedia のサーバーを尊重します。大規模なスクレイピングのリクエスト間に遅延が発生します。
  2. キャッシュ: 開発中に roll4ai のキャッシュを有効にします (cache_mode=CacheMode.ENABLED)。
  3. エラー処理: 運用環境で使用するための包括的なエラー処理および再試行メカニズムを実装します。
  4. API キー: Gemini API キーはコード内に直接ではなく、環境変数に安全に保存します。

次のステップ

このスクレーパーは次のように拡張できます:

  • データをデータベースに保存します。
  • モニター価格は時間の経過とともに変化します。
  • 製品の傾向とパターンを分析します。
  • 複数の店舗の価格を比較します。

結論

crawl4ai の LLM ベースの抽出により、従来の方法と比較して Web スクレイピングの保守性が大幅に向上します。 Pydantic との統合により、データの正確性と構造が保証されます。

スクレイピングする前に、必ず Web サイトの robots.txt と利用規約を遵守してください。


重要なリンク:

クロール4AI

ピダンティック


注: 完全なコードは Colab ノートブックで入手できます。 自由に実験して、特定のニーズに合わせて調整してください。

以上がPydantic、Crawl、Gemini を使用した非同期電子商取引 Web スクレイパーの構築の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

Python vs. C:曲線と使いやすさの学習 Python vs. C:曲線と使いやすさの学習 Apr 19, 2025 am 12:20 AM

Pythonは学習と使用が簡単ですが、Cはより強力ですが複雑です。 1。Python構文は簡潔で初心者に適しています。動的なタイピングと自動メモリ管理により、使いやすくなりますが、ランタイムエラーを引き起こす可能性があります。 2.Cは、高性能アプリケーションに適した低レベルの制御と高度な機能を提供しますが、学習しきい値が高く、手動メモリとタイプの安全管理が必要です。

Pythonの学習:2時間の毎日の研究で十分ですか? Pythonの学習:2時間の毎日の研究で十分ですか? Apr 18, 2025 am 12:22 AM

Pythonを1日2時間学ぶだけで十分ですか?それはあなたの目標と学習方法に依存します。 1)明確な学習計画を策定し、2)適切な学習リソースと方法を選択します。3)実践的な実践とレビューとレビューと統合を練習および統合し、統合すると、この期間中にPythonの基本的な知識と高度な機能を徐々に習得できます。

Python vs. C:パフォーマンスと効率の探索 Python vs. C:パフォーマンスと効率の探索 Apr 18, 2025 am 12:20 AM

Pythonは開発効率でCよりも優れていますが、Cは実行パフォーマンスが高くなっています。 1。Pythonの簡潔な構文とリッチライブラリは、開発効率を向上させます。 2.Cのコンピレーションタイプの特性とハードウェア制御により、実行パフォーマンスが向上します。選択を行うときは、プロジェクトのニーズに基づいて開発速度と実行効率を比較検討する必要があります。

Python vs. C:重要な違​​いを理解します Python vs. C:重要な違​​いを理解します Apr 21, 2025 am 12:18 AM

PythonとCにはそれぞれ独自の利点があり、選択はプロジェクトの要件に基づいている必要があります。 1)Pythonは、簡潔な構文と動的タイピングのため、迅速な開発とデータ処理に適しています。 2)Cは、静的なタイピングと手動メモリ管理により、高性能およびシステムプログラミングに適しています。

Python Standard Libraryの一部はどれですか:リストまたは配列はどれですか? Python Standard Libraryの一部はどれですか:リストまたは配列はどれですか? Apr 27, 2025 am 12:03 AM

PythonListSarePartOfThestAndardarenot.liestareBuilting-in、versatile、forStoringCollectionsのpythonlistarepart。

Python:自動化、スクリプト、およびタスク管理 Python:自動化、スクリプト、およびタスク管理 Apr 16, 2025 am 12:14 AM

Pythonは、自動化、スクリプト、およびタスク管理に優れています。 1)自動化:OSやShutilなどの標準ライブラリを介してファイルバックアップが実現されます。 2)スクリプトの書き込み:Psutilライブラリを使用してシステムリソースを監視します。 3)タスク管理:スケジュールライブラリを使用してタスクをスケジュールします。 Pythonの使いやすさと豊富なライブラリサポートにより、これらの分野で優先ツールになります。

科学コンピューティングのためのPython:詳細な外観 科学コンピューティングのためのPython:詳細な外観 Apr 19, 2025 am 12:15 AM

科学コンピューティングにおけるPythonのアプリケーションには、データ分析、機械学習、数値シミュレーション、視覚化が含まれます。 1.numpyは、効率的な多次元配列と数学的関数を提供します。 2。ScipyはNumpy機能を拡張し、最適化と線形代数ツールを提供します。 3. Pandasは、データ処理と分析に使用されます。 4.matplotlibは、さまざまなグラフと視覚的な結果を生成するために使用されます。

Web開発用のPython:主要なアプリケーション Web開発用のPython:主要なアプリケーション Apr 18, 2025 am 12:20 AM

Web開発におけるPythonの主要なアプリケーションには、DjangoおよびFlaskフレームワークの使用、API開発、データ分析と視覚化、機械学習とAI、およびパフォーマンスの最適化が含まれます。 1。DjangoandFlask Framework:Djangoは、複雑な用途の迅速な発展に適しており、Flaskは小規模または高度にカスタマイズされたプロジェクトに適しています。 2。API開発:フラスコまたはdjangorestFrameworkを使用して、Restfulapiを構築します。 3。データ分析と視覚化:Pythonを使用してデータを処理し、Webインターフェイスを介して表示します。 4。機械学習とAI:Pythonは、インテリジェントWebアプリケーションを構築するために使用されます。 5。パフォーマンスの最適化:非同期プログラミング、キャッシュ、コードを通じて最適化

See all articles