백엔드 개발 파이썬 튜토리얼 스크랩 후 검증: Pydantic 검증을 사용한 데이터 스크랩

스크랩 후 검증: Pydantic 검증을 사용한 데이터 스크랩

Nov 22, 2024 am 07:40 AM

참고: chatGPT/LLM의 출력이 아닙니다

데이터 스크래핑은 공개 웹 소스에서 데이터를 수집하는 프로세스이며 대부분 자동화된 방식으로 스크립트를 사용하여 수행됩니다. 자동화로 인해 수집된 데이터에는 오류가 있는 경우가 많아 걸러내고 정리하여 사용해야 하는 경우가 많습니다. 그러나 스크래핑 중에 스크래핑된 데이터의 유효성을 검사할 수 있다면 더 좋을 것입니다.

데이터 유효성 검사 요구 사항을 고려할 때 Scrapy와 같은 대부분의 스크래핑 프레임워크에는 데이터 유효성 검사에 사용할 수 있는 패턴이 내장되어 있습니다. 그러나 데이터 스크래핑 프로세스 중에는 requestsbeautifulsoup과 같은 범용 모듈을 사용하여 스크래핑하는 경우가 많습니다. 이러한 경우 수집된 데이터의 유효성을 검사하기가 어렵기 때문에 이 블로그 게시물에서는 Pydantic을 사용한 유효성 검사를 통해 데이터 스크래핑에 대한 간단한 접근 방식을 설명합니다.
https://docs.pydantic.dev/latest/
Pydantic은 데이터 검증 Python 모듈입니다. 이는 인기 있는 API 모듈인 FastAPI의 백본이기도 합니다. Pydantic과 마찬가지로 데이터 스크래핑 중 유효성 검사에 사용할 수 있는 다른 Python 모듈도 있습니다. 그러나 이 블로그에서는 pydantic을 탐색하고 여기에 대체 패키지 링크가 있습니다(학습 연습으로 다른 모듈로 pydantic을 변경해 볼 수 있습니다)

  • Cerberus는 가볍고 확장 가능한 Python용 데이터 검증 라이브러리입니다. https://pypi.org/project/Cerberus/

긁어내기 계획:

이번 블로그에서는 명언 사이트의 명언을 스크랩해 드립니다.
요청과 beautifulsoup을 사용하여 데이터를 가져옵니다. pydantic 데이터 클래스를 생성하여 스크랩된 각 데이터의 유효성을 검사합니다. 필터링되고 유효성이 검사된 데이터를 json 파일에 저장합니다.

더 나은 정리와 이해를 위해 각 단계는 메인 섹션에서 사용할 수 있는 Python 방식으로 구현되었습니다.

기본 가져오기

import requests # for web request
from bs4 import BeautifulSoup # cleaning html content

# pydantic for validation

from pydantic import BaseModel, field_validator, ValidationError

import json

로그인 후 복사
로그인 후 복사

1. 대상 사이트 및 견적 받기

인용문 스크랩은 http://quotes.toscrape.com/)을 이용하고 있습니다. 각 인용문에는 quote_text, 작성자 및 태그의 세 가지 필드가 있습니다. 예:

Scrape but Validate: Data scraping with Pydantic Validation

아래 방법은 특정 URL에 대한 HTML 콘텐츠를 가져오는 일반적인 스크립트입니다.

def get_html_content(page_url: str) -> str:
    page_content =""
    # Send a GET request to the website
    response = requests.get(url)
    # Check if the request was successful (status code 200)
    if response.status_code == 200:
        page_content = response.content
    else:
        page_content = f'Failed to retrieve the webpage. Status code: {response.status_code}'
    return page_content

로그인 후 복사
로그인 후 복사

2. 스크래핑에서 견적 데이터 가져오기

요청과 beautifulsoup를 사용하여 지정된 URL에서 데이터를 스크랩합니다. 프로세스는 세 부분으로 나뉩니다. 1) 웹에서 HTML 콘텐츠 가져오기 2) 각 대상 필드에 대해 원하는 HTML 태그 추출 3) 각 태그에서 값 가져오기

import requests # for web request
from bs4 import BeautifulSoup # cleaning html content

# pydantic for validation

from pydantic import BaseModel, field_validator, ValidationError

import json

로그인 후 복사
로그인 후 복사
def get_html_content(page_url: str) -> str:
    page_content =""
    # Send a GET request to the website
    response = requests.get(url)
    # Check if the request was successful (status code 200)
    if response.status_code == 200:
        page_content = response.content
    else:
        page_content = f'Failed to retrieve the webpage. Status code: {response.status_code}'
    return page_content

로그인 후 복사
로그인 후 복사

아래 스크립트는 각 인용문의 div에서 데이터 포인트를 가져옵니다.

def get_tags(tags):
    tags =[tag.get_text() for tag in tags.find_all('a')]
    return tags

로그인 후 복사

3. Pydantic 데이터 클래스를 생성하고 각 견적에 대한 데이터 유효성을 검사합니다.

견적의 각 필드별로 pydantic 클래스를 생성하고 데이터 스크래핑 중 데이터 검증을 위해 동일한 클래스를 사용합니다.

pydantic 모델 인용문

아래는 quote_text, 작성자 및 태그와 같은 세 가지 필드가 있는 BaseModel에서 확장된 Quote 클래스입니다. 이 3가지 중 quote_text와 작성자는 문자열(str) 형식이고, 태그는 목록 형식입니다.

두 가지 유효성 검사기 메서드(데코레이터 포함)가 있습니다.

1) tagged_more_than_two () : 태그가 2개 이상인지 확인합니다. (예를 들어 여기에는 어떤 규칙이라도 적용할 수 있습니다)

2.) check_quote_text(): 이 메소드는 인용문에서 ""를 제거하고 텍스트를 테스트합니다.

def get_quotes_div(html_content:str) -> str :    
    # Parse the page content with BeautifulSoup
    soup = BeautifulSoup(html_content, 'html.parser')

    # Find all the quotes on the page
    quotes = soup.find_all('div', class_='quote')

    return quotes
로그인 후 복사

데이터 가져오기 및 유효성 검사

pydantic을 사용하면 데이터 유효성 검사가 매우 쉽습니다. 예를 들어 아래 코드에서는 스크랩한 데이터를 pydantic 클래스 Quote에 전달합니다.

    # Loop through each quote and extract the text and author
    for quote in quotes_div:
        quote_text = quote.find('span', class_='text').get_text()
        author = quote.find('small', class_='author').get_text()
        tags = get_tags(quote.find('div', class_='tags'))

        # yied data to a dictonary 
        quote_temp ={'quote_text': quote_text,
                'author': author,
                'tags':tags
        }
로그인 후 복사
class Quote(BaseModel):
    quote_text:str
    author:str
    tags: list

    @field_validator('tags')
    @classmethod
    def tags_more_than_two(cls, tags_list:list) -> list:
        if len(tags_list) <=2:
            raise ValueError("There should be more than two tags.")
        return tags_list

    @field_validator('quote_text')
    @classmethod    
    def check_quote_text(cls, quote_text:str) -> str:
        return quote_text.removeprefix('“').removesuffix('”')
로그인 후 복사

4. 데이터 저장

데이터가 검증되면 json 파일에 저장됩니다. (Python 사전을 json 파일로 변환하는 범용 메소드가 작성되었습니다.)

quote_data = Quote(**quote_temp)
로그인 후 복사

모두 합치기

스크래핑의 각 부분을 이해했다면 이제 모두 모아서 스크래핑을 실행하여 데이터를 수집할 수 있습니다.

def get_quotes_data(quotes_div: list) -> list:
    quotes_data = []

    # Loop through each quote and extract the text and author
    for quote in quotes_div:
        quote_text = quote.find('span', class_='text').get_text()
        author = quote.find('small', class_='author').get_text()
        tags = get_tags(quote.find('div', class_='tags'))

        # yied data to a dictonary 
        quote_temp ={'quote_text': quote_text,
                'author': author,
                'tags':tags
        }

        # validate data with Pydantic model
        try:
            quote_data = Quote(**quote_temp)            
            quotes_data.append(quote_data.model_dump())            
        except  ValidationError as e:
            print(e.json())
    return quotes_data
로그인 후 복사

참고: 개정이 계획되어 있습니다. 개정된 버전에 포함할 아이디어나 제안을 알려주세요.

링크 및 리소스:

  • https://pypi.org/project/parsel/

  • https://docs.pydantic.dev/latest/

위 내용은 스크랩 후 검증: Pydantic 검증을 사용한 데이터 스크랩의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

<gum> : Bubble Gum Simulator Infinity- 로얄 키를 얻고 사용하는 방법
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
Nordhold : Fusion System, 설명
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
Mandragora : 마녀 트리의 속삭임 - Grappling Hook 잠금 해제 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

Python vs. C : 학습 곡선 및 사용 편의성 Python vs. C : 학습 곡선 및 사용 편의성 Apr 19, 2025 am 12:20 AM

Python은 배우고 사용하기 쉽고 C는 더 강력하지만 복잡합니다. 1. Python Syntax는 간결하며 초보자에게 적합합니다. 동적 타이핑 및 자동 메모리 관리를 사용하면 사용하기 쉽지만 런타임 오류가 발생할 수 있습니다. 2.C는 고성능 응용 프로그램에 적합한 저수준 제어 및 고급 기능을 제공하지만 학습 임계 값이 높고 수동 메모리 및 유형 안전 관리가 필요합니다.

파이썬과 시간 : 공부 시간을 최대한 활용 파이썬과 시간 : 공부 시간을 최대한 활용 Apr 14, 2025 am 12:02 AM

제한된 시간에 Python 학습 효율을 극대화하려면 Python의 DateTime, Time 및 Schedule 모듈을 사용할 수 있습니다. 1. DateTime 모듈은 학습 시간을 기록하고 계획하는 데 사용됩니다. 2. 시간 모듈은 학습과 휴식 시간을 설정하는 데 도움이됩니다. 3. 일정 모듈은 주간 학습 작업을 자동으로 배열합니다.

Python vs. C : 성능과 효율성 탐색 Python vs. C : 성능과 효율성 탐색 Apr 18, 2025 am 12:20 AM

Python은 개발 효율에서 C보다 낫지 만 C는 실행 성능이 높습니다. 1. Python의 간결한 구문 및 풍부한 라이브러리는 개발 효율성을 향상시킵니다. 2.C의 컴파일 유형 특성 및 하드웨어 제어는 실행 성능을 향상시킵니다. 선택할 때는 프로젝트 요구에 따라 개발 속도 및 실행 효율성을 평가해야합니다.

Python 학습 : 2 시간의 일일 연구가 충분합니까? Python 학습 : 2 시간의 일일 연구가 충분합니까? Apr 18, 2025 am 12:22 AM

하루에 2 시간 동안 파이썬을 배우는 것으로 충분합니까? 목표와 학습 방법에 따라 다릅니다. 1) 명확한 학습 계획을 개발, 2) 적절한 학습 자원 및 방법을 선택하고 3) 실습 연습 및 검토 및 통합 연습 및 검토 및 통합,이 기간 동안 Python의 기본 지식과 고급 기능을 점차적으로 마스터 할 수 있습니다.

Python vs. C : 주요 차이점 이해 Python vs. C : 주요 차이점 이해 Apr 21, 2025 am 12:18 AM

Python과 C는 각각 고유 한 장점이 있으며 선택은 프로젝트 요구 사항을 기반으로해야합니다. 1) Python은 간결한 구문 및 동적 타이핑으로 인해 빠른 개발 및 데이터 처리에 적합합니다. 2) C는 정적 타이핑 및 수동 메모리 관리로 인해 고성능 및 시스템 프로그래밍에 적합합니다.

Python Standard Library의 일부는 무엇입니까? 목록 또는 배열은 무엇입니까? Python Standard Library의 일부는 무엇입니까? 목록 또는 배열은 무엇입니까? Apr 27, 2025 am 12:03 AM

Pythonlistsarepartoftsandardlardlibrary, whileraysarenot.listsarebuilt-in, 다재다능하고, 수집 할 수있는 반면, arraysarreprovidedByTearRaymoduledlesscommonlyusedDuetolimitedFunctionality.

파이썬 : 자동화, 스크립팅 및 작업 관리 파이썬 : 자동화, 스크립팅 및 작업 관리 Apr 16, 2025 am 12:14 AM

파이썬은 자동화, 스크립팅 및 작업 관리가 탁월합니다. 1) 자동화 : 파일 백업은 OS 및 Shutil과 같은 표준 라이브러리를 통해 실현됩니다. 2) 스크립트 쓰기 : PSUTIL 라이브러리를 사용하여 시스템 리소스를 모니터링합니다. 3) 작업 관리 : 일정 라이브러리를 사용하여 작업을 예약하십시오. Python의 사용 편의성과 풍부한 라이브러리 지원으로 인해 이러한 영역에서 선호하는 도구가됩니다.

웹 개발을위한 파이썬 : 주요 응용 프로그램 웹 개발을위한 파이썬 : 주요 응용 프로그램 Apr 18, 2025 am 12:20 AM

웹 개발에서 Python의 주요 응용 프로그램에는 Django 및 Flask 프레임 워크 사용, API 개발, 데이터 분석 및 시각화, 머신 러닝 및 AI 및 성능 최적화가 포함됩니다. 1. Django 및 Flask 프레임 워크 : Django는 복잡한 응용 분야의 빠른 개발에 적합하며 플라스크는 소형 또는 고도로 맞춤형 프로젝트에 적합합니다. 2. API 개발 : Flask 또는 DjangorestFramework를 사용하여 RESTFULAPI를 구축하십시오. 3. 데이터 분석 및 시각화 : Python을 사용하여 데이터를 처리하고 웹 인터페이스를 통해 표시합니다. 4. 머신 러닝 및 AI : 파이썬은 지능형 웹 애플리케이션을 구축하는 데 사용됩니다. 5. 성능 최적화 : 비동기 프로그래밍, 캐싱 및 코드를 통해 최적화

See all articles