Les données de LinkedIn révèlent que le demandeur d'emploi moyen consacre 11 heures par semaine à la recherche d'un emploi ; les rôles techniques amplifient considérablement cela, impliquant le passage au crible de centaines d’annonces sur diverses plateformes. La recherche d'emploi de mon partenaire a mis en évidence cette inefficacité : des heures passées quotidiennement à parcourir LinkedIn seul. Une solution plus efficace était nécessaire.
Le défi
Le volume de publications submerge les développeurs Web. Une simple recherche de « Développeur Frontend » à Londres a donné 401 résultats. Chaque annonce exigeait :
Le traitement de 401 tâches se traduit par des heures de travail manuel répétitif.
La solution : un flux de travail automatisé
Un pipeline d'automatisation en trois étapes a réduit ce processus à environ 10 minutes :
JobSpy a constitué la base, avec la gestion de JobsParser :
Exécution :
<code>pip install jobsparser</code>
<code>jobsparser \ --search-term "Frontend Developer" \ --location "London" \ --site linkedin \ --results-wanted 200 \ --distance 25 \ --job-type fulltime</code>
La sortie CSV comprenait des données complètes :
JobSpy et JobsParser prennent également en charge d'autres sites d'emploi, notamment LinkedIn, Indeed, Glassdoor, Google et ZipRecruiter.
Alors que les pandas étaient envisagés (et testés), Google Sheets offrait une plus grande flexibilité. La stratégie de filtrage impliquée :
Pour un primo-demandeur d'emploi :
Des filtres plus sophistiqués peuvent intégrer plusieurs technologies.
Cela a réduit 401 emplois à un chiffre gérable de 8.
Les travaux filtrés ont subi :
Conclusion
Cet outil vise à rationaliser la recherche d'emploi. Les commentaires et les questions sont les bienvenus.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!