백엔드 개발 파이썬 튜토리얼 Scrapy 사례 분석: LinkedIn에서 회사 정보를 크롤링하는 방법

Scrapy 사례 분석: LinkedIn에서 회사 정보를 크롤링하는 방법

Jun 23, 2023 am 10:04 AM
linkedin 기다 scrapy

Scrapy는 인터넷에서 관련 정보를 빠르고 쉽게 얻을 수 있는 Python 기반 크롤러 프레임워크입니다. 이 기사에서는 Scrapy 사례를 사용하여 LinkedIn에서 회사 정보를 크롤링하는 방법을 자세히 분석합니다.

  1. 타겟 URL 정하기

우선 우리의 타겟이 링크드인의 회사 정보라는 점을 분명히 해야 합니다. 따라서 LinkedIn 회사 정보 페이지의 URL을 찾아야 합니다. LinkedIn 웹사이트를 열고 검색창에 회사 이름을 입력한 후 드롭다운 상자에서 "회사" 옵션을 선택하여 회사 소개 페이지로 들어갑니다. 이 페이지에서는 회사의 기본정보, 직원수, 소속회사 및 기타 정보를 확인할 수 있습니다. 이 시점에서 이후 사용을 위해 브라우저의 개발자 도구에서 페이지의 URL을 가져와야 합니다. 이 URL의 구조는 다음과 같습니다.

https://www.linkedin.com/search/results/companies/?keywords=xxx

그 중keywords=xxx는 우리가 검색한 키워드를 나타내며, xxx는 다음과 같이 대체될 수 있습니다. 어떤 회사 이름.

  1. Create Scrapy 프로젝트

다음으로 Scrapy 프로젝트를 생성해야 합니다. 명령줄에 다음 명령을 입력하세요.

scrapy startproject linkedin

이 명령은 현재 디렉터리에 linkedin이라는 Scrapy 프로젝트를 생성합니다.

  1. 크롤러 생성

프로젝트를 생성한 후 프로젝트 루트 디렉터리에 다음 명령을 입력하여 새 크롤러를 생성합니다.

scrapy genspider company_spider www.linkedin.com

이렇게 하면 company_spider라는 크롤러가 생성되고, Linkedin 회사 페이지에 배치하세요.

  1. Scrapy 구성

Spider에서는 크롤링할 URL, 페이지의 데이터를 구문 분석하는 방법 등 몇 가지 기본 정보를 구성해야 합니다. 방금 생성한 company_spider.py 파일에 다음 코드를 추가합니다.

import scrapy

class CompanySpider(scrapy.Spider):
    name = "company"
    allowed_domains = ["linkedin.com"]
    start_urls = [
        "https://www.linkedin.com/search/results/companies/?keywords=apple"
    ]

    def parse(self, response):
        pass
로그인 후 복사

위 코드에서는 크롤링할 사이트 URL과 파싱 기능을 정의합니다. 위 코드에서는 크롤링할 사이트 URL과 파싱 기능만 정의했을 뿐 크롤러의 구체적인 구현은 추가하지 않았습니다. 이제 LinkedIn 회사 정보를 캡처하고 처리하는 구문 분석 함수를 작성해야 합니다.

  1. 파싱 함수 작성

파싱 함수에서는 LinkedIn 회사 정보를 캡처하고 처리하는 코드를 작성해야 합니다. XPath 또는 CSS 선택기를 사용하여 HTML 코드를 구문 분석할 수 있습니다. LinkedIn 회사 정보 페이지의 기본 정보는 다음 XPath를 사용하여 추출할 수 있습니다.

//*[@class="org-top-card-module__name ember-view"]/text()
로그인 후 복사

이 XPath는 "org-top-card-module__name ember-view" 클래스가 있는 요소를 선택하고 해당 텍스트 값을 반환합니다.

다음은 전체 company_spider.py 파일입니다.

import scrapy

class CompanySpider(scrapy.Spider):
    name = "company"
    allowed_domains = ["linkedin.com"]
    start_urls = [
        "https://www.linkedin.com/search/results/companies/?keywords=apple"
    ]

    def parse(self, response):
        # 获取公司名称
        company_name = response.xpath('//*[@class="org-top-card-module__name ember-view"]/text()')
        
        # 获取公司简介
        company_summary = response.css('.org-top-card-summary__description::text').extract_first().strip()
        
        # 获取公司分类标签
        company_tags = response.css('.org-top-card-category-list__top-card-category::text').extract()
        company_tags = ','.join(company_tags)

        # 获取公司员工信息
        employees_section = response.xpath('//*[@class="org-company-employees-snackbar__details-info"]')
        employees_current = employees_section.xpath('.//li[1]/span/text()').extract_first()
        employees_past = employees_section.xpath('.//li[2]/span/text()').extract_first()

        # 数据处理
        company_name = company_name.extract_first()
        company_summary = company_summary if company_summary else "N/A"
        company_tags = company_tags if company_tags else "N/A"
        employees_current = employees_current if employees_current else "N/A"
        employees_past = employees_past if employees_past else "N/A"

        # 输出抓取结果
        print('Company Name: ', company_name)
        print('Company Summary: ', company_summary)
        print('Company Tags: ', company_tags)
        print('
Employee Information
Current: ', employees_current)
        print('Past: ', employees_past)
로그인 후 복사

위 코드에서는 XPath 및 CSS 선택기를 사용하여 페이지의 기본 정보, 회사 프로필, 태그 및 직원 정보를 추출하고 이에 대한 몇 가지 기본 작업을 수행합니다. 데이터 처리 및 출력.

  1. Run Scrapy

이제 LinkedIn 회사 정보 페이지 크롤링 및 처리가 완료되었습니다. 다음으로 크롤러를 실행하려면 Scrapy를 실행해야 합니다. 명령줄에 다음 명령을 입력하세요.

scrapy creep company

이 명령을 실행하면 Scrapy는 LinkedIn 회사 정보 페이지의 데이터를 크롤링 및 처리하고 크롤링 결과를 출력합니다.

요약

위는 Scrapy를 사용하여 LinkedIn 회사 정보를 크롤링하는 방법입니다. Scrapy 프레임워크의 도움으로 대규모 데이터 스크래핑을 쉽게 수행하는 동시에 데이터를 처리 및 변환하여 시간과 에너지를 절약하고 데이터 수집 효율성을 향상시킬 수 있습니다.

위 내용은 Scrapy 사례 분석: LinkedIn에서 회사 정보를 크롤링하는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

인기 기사

R.E.P.O. 에너지 결정과 그들이하는 일 (노란색 크리스탈)
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 최고의 그래픽 설정
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 아무도들을 수없는 경우 오디오를 수정하는 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

어떤 소프트웨어가 연결되어 있나요? 어떤 소프트웨어가 연결되어 있나요? Nov 22, 2022 pm 03:33 PM

Linkedin은 직장을 위한 소셜 플랫폼으로 중국어 이름은 "Linkedin"입니다. Linkedin은 다양한 비즈니스 모델을 가지고 있으며 주요 수익은 인재 채용 솔루션, 마케팅 솔루션 및 유료 계정에서 발생합니다.

Scrapy는 WeChat 공개 계정 기사의 크롤링 및 분석을 구현합니다. Scrapy는 WeChat 공개 계정 기사의 크롤링 및 분석을 구현합니다. Jun 22, 2023 am 09:41 AM

Scrapy는 WeChat 공개 계정의 기사 크롤링 및 분석을 구현합니다. WeChat은 최근 몇 년 동안 인기 있는 소셜 미디어 애플리케이션이며, 여기서 운영되는 공개 계정도 매우 중요한 역할을 합니다. 우리 모두 알고 있듯이 WeChat 공개 계정은 정보와 지식의 바다입니다. 왜냐하면 각 공개 계정은 기사, 그래픽 메시지 및 기타 정보를 게시할 수 있기 때문입니다. 이 정보는 언론보도, 학술연구 등 다양한 분야에서 폭넓게 활용될 수 있습니다. 그래서 이 글에서는 Scrapy 프레임워크를 사용하여 WeChat 공개 계정 글을 크롤링하고 분석하는 방법을 소개하겠습니다. Scr

Scrapy 사례 분석: LinkedIn에서 회사 정보를 크롤링하는 방법 Scrapy 사례 분석: LinkedIn에서 회사 정보를 크롤링하는 방법 Jun 23, 2023 am 10:04 AM

Scrapy는 인터넷에서 관련 정보를 빠르고 쉽게 얻을 수 있는 Python 기반 크롤러 프레임워크입니다. 이 기사에서는 Scrapy 사례를 사용하여 LinkedIn에서 회사 정보를 크롤링하는 방법을 자세히 분석합니다. 대상 URL 결정 먼저 대상이 LinkedIn의 회사 정보임을 분명히 해야 합니다. 따라서 LinkedIn 회사 정보 페이지의 URL을 찾아야 합니다. LinkedIn 웹사이트를 열고 검색창에 회사 이름을 입력한 후

Ajax 기반의 Scrapy 비동기 로딩 구현 방법 Ajax 기반의 Scrapy 비동기 로딩 구현 방법 Jun 22, 2023 pm 11:09 PM

Scrapy는 웹사이트에서 데이터를 빠르고 효율적으로 얻을 수 있는 오픈 소스 Python 크롤러 프레임워크입니다. 그러나 많은 웹사이트는 Ajax 비동기 로딩 기술을 사용하므로 Scrapy가 데이터를 직접 얻는 것이 불가능합니다. 이 기사에서는 Ajax 비동기 로딩을 기반으로 한 Scrapy 구현 방법을 소개합니다. 1. Ajax 비동기 로딩 원리 Ajax 비동기 로딩: 전통적인 페이지 로딩 방법에서는 브라우저가 서버에 요청을 보낸 후 서버가 응답을 반환할 때까지 기다려야 다음 단계로 진행하기 전에 전체 페이지를 로드해야 합니다.

Scrapy 최적화 팁: 중복 URL 크롤링을 줄이고 효율성을 높이는 방법 Scrapy 최적화 팁: 중복 URL 크롤링을 줄이고 효율성을 높이는 방법 Jun 22, 2023 pm 01:57 PM

Scrapy는 인터넷에서 대량의 데이터를 얻는 데 사용할 수 있는 강력한 Python 크롤러 프레임워크입니다. 그러나 Scrapy를 개발할 때 중복된 URL을 크롤링하는 문제에 자주 직면하게 되는데, 이는 많은 시간과 자원을 낭비하고 효율성에 영향을 미칩니다. 이 기사에서는 중복 URL의 크롤링을 줄이고 Scrapy 크롤러의 효율성을 향상시키는 몇 가지 Scrapy 최적화 기술을 소개합니다. 1. Scrapy 크롤러의 start_urls 및 allowed_domains 속성을 사용하여

PHP를 사용하여 Instagram 정보를 스크랩하는 예 PHP를 사용하여 Instagram 정보를 스크랩하는 예 Jun 13, 2023 pm 06:26 PM

인스타그램은 수억 명의 활성 사용자를 보유한 오늘날 가장 인기 있는 소셜 미디어 중 하나입니다. 사용자는 수십억 개의 사진과 비디오를 업로드하며 이 데이터는 많은 기업과 개인에게 매우 중요합니다. 따라서 인스타그램 데이터를 자동으로 스크랩하는 프로그램을 사용해야 하는 경우가 많습니다. 이 기사에서는 PHP를 사용하여 Instagram 데이터를 캡처하는 방법을 소개하고 구현 예제를 제공합니다. PHP용 cURL 확장 설치 cURL은 다양한 용도로 사용되는 도구입니다.

Scrapy 크롤러에서 Selenium 및 PhantomJS 사용 Scrapy 크롤러에서 Selenium 및 PhantomJS 사용 Jun 22, 2023 pm 06:03 PM

Scrapy 크롤러에서 Selenium 및 PhantomJSScrapy 사용 Scrapy는 Python 기반의 뛰어난 웹 크롤러 프레임워크이며 다양한 분야의 데이터 수집 및 처리에 널리 사용되었습니다. 크롤러 구현 시 특정 웹사이트에서 제공하는 콘텐츠를 얻기 위해 브라우저 작업을 시뮬레이션해야 하는 경우가 있습니다. 이 경우 Selenium 및 PhantomJS가 필요합니다. Selenium은 브라우저에서 인간 작업을 시뮬레이션하여 웹 애플리케이션 테스트를 자동화할 수 있습니다.

Scrapy의 심층적 사용: HTML, XML 및 JSON 데이터를 크롤링하는 방법은 무엇입니까? Scrapy의 심층적 사용: HTML, XML 및 JSON 데이터를 크롤링하는 방법은 무엇입니까? Jun 22, 2023 pm 05:58 PM

Scrapy는 인터넷에서 빠르고 유연하게 데이터를 얻는 데 도움이 되는 강력한 Python 크롤러 프레임워크입니다. 실제 크롤링 과정에서 HTML, XML, JSON 등 다양한 데이터 형식을 접하는 경우가 많습니다. 이 기사에서는 Scrapy를 사용하여 세 가지 데이터 형식을 각각 크롤링하는 방법을 소개합니다. 1. HTML 데이터를 크롤링하고 Scrapy 프로젝트를 생성합니다. 먼저 Scrapy 프로젝트를 생성해야 합니다. 명령줄을 열고 다음 명령을 입력하세요: scrapys

See all articles