LinkedIn 데이터에 따르면 평균 구직자는 구직 활동에 매주 11시간을 투자합니다. 기술 역할은 다양한 플랫폼에 걸쳐 수백 개의 목록을 선별하는 등 이를 크게 증폭시킵니다. 내 파트너의 구직 활동은 이러한 비효율성을 강조했습니다. 매일 LinkedIn만 스크롤하는 데 몇 시간이 소요됩니다. 보다 효율적인 솔루션이 필요했습니다.
도전
글의 양이 웹 개발자를 압도합니다. 런던에서 간단한 "프런트엔드 개발자" 검색을 하면 401개의 결과가 나왔습니다. 요구되는 각 목록:
401개 작업을 처리하는 것은 몇 시간의 반복적인 육체 노동으로 이어집니다.
솔루션: 자동화된 작업 흐름
3단계 자동화 파이프라인을 통해 이 프로세스가 약 10분으로 단축되었습니다.
JobSpy는 JobsParser 처리를 통해 기초를 형성했습니다.
실행:
<code>pip install jobsparser</code>
<code>jobsparser \ --search-term "Frontend Developer" \ --location "London" \ --site linkedin \ --results-wanted 200 \ --distance 25 \ --job-type fulltime</code>
CSV 출력에는 포괄적인 데이터가 포함되었습니다.
JobSpy와 JobsParser는 LinkedIn, 인디드, Glassdoor, Google, ZipRecruiter를 포함한 다른 채용 게시판도 지원합니다.
Pandas를 고려하고 테스트하는 동안 Google Sheets는 더 큰 유연성을 제공했습니다. 관련된 필터링 전략:
처음 구직자의 경우:
보다 정교한 필터는 여러 기술을 통합할 수 있습니다.
이로 인해 401개의 일자리가 관리 가능한 8개로 줄었습니다.
필터링된 작업이 수행되었습니다.
결론
이 도구는 구직 과정을 간소화하는 것을 목표로 합니다. 피드백과 질문을 환영합니다.
위 내용은 채용정보 검색 자동화: Python으로 LinkedIn 채용정보 스크래핑의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!