Python-Crawler, der vollständige Name des Python-Webcrawlers, ist ein Programm oder Skript, das World Wide Web-Informationen nach bestimmten Regeln automatisch crawlt. Es wird hauptsächlich zum Crawlen von Wertpapierhandelsdaten verwendet Wetterdaten, Website-Benutzerdaten und Bilddaten usw. Um die normalen Funktionen von Webcrawlern zu unterstützen, verfügt Python über eine große Anzahl integrierter Bibliotheken, hauptsächlich verschiedener Typen. Der folgende Artikel stellt es Ihnen vor.
1. Python-Crawler-Netzwerkbibliothek
Die Python-Crawler-Netzwerkbibliothek umfasst hauptsächlich: urllib, Anfragen, Grab, Pycurl, urllib3, httplib2, RoboBrowser, MechanicalSoup, Mechanismus, Socket, Unirest für Python, Hyper , PySocks, treq und aiohttp usw.
2. Python-Webcrawler-Framework
Das Python-Webcrawler-Framework umfasst hauptsächlich: Grab, Scrapy, Pyspider, Cola, Portia, Restkit und Demiurge usw.
3. HTML/XML-Parser
● lxml: Eine effiziente HTML/XML-Verarbeitungsbibliothek, geschrieben in C-Sprache. Unterstützt XPath.
● cssselect: DOM-Baum und CSS-Selektor analysieren.
● Pyquery: DOM-Baum und jQuery-Selektor analysieren.
●BeautifulSoup: Ineffiziente HTML/XML-Verarbeitungsbibliothek, implementiert in reinem Python.
● html5lib: Erzeugt das DOM von HTML/XML-Dokumenten gemäß der WHATWG-Spezifikation. Diese Spezifikation wird in allen aktuellen Browsern verwendet.
● Feedparser: RSS/ATOM-Feeds analysieren.
● MarkupSafe: Bietet sichere Escape-Strings für XML/HTML/XHTML.
● xmltodict: Ein Python-Modul, das die Verarbeitung von XML wie JSON anfühlt.
● xhtml2pdf: HTML/CSS in PDF konvertieren.
●entangle: XML-Dateien einfach in Python-Objekte konvertieren.
4. Textverarbeitung
Eine Bibliothek zum Parsen und Bearbeiten von einfachem Text.
● difflib: (Python-Standardbibliothek) hilft bei differenziellen Vergleichen.
● Levenshtein: Berechnen Sie schnell den Levenshtein-Abstand und die String-Ähnlichkeit.
● fuzzywuzzy: Fuzzy-String-Übereinstimmung.
● esmre: Beschleuniger für reguläre Ausdrücke.
● ftfy: Unicode-Text automatisch organisieren, um Fragmentierung zu reduzieren.
5. Verarbeitung spezifischer Formatdateien
Eine Bibliothek zum Parsen und Verarbeiten spezifischer Textformate.
● tablib: Ein Modul, das Daten in XLS, CSV, JSON, YAML und andere Formate exportiert.
●texttract: Extrahieren Sie Text aus verschiedenen Dateien wie Word, PowerPoint, PDF usw.
● Messytables: Ein Tool zum Parsen unordentlicher Tabellendaten.
● Zeilen: eine gemeinsame Datenschnittstelle, die viele Formate unterstützt (unterstützt derzeit CSV, HTML, XLS, TXT; weitere werden in Zukunft bereitgestellt!).
Das obige ist der detaillierte Inhalt vonWelche Bibliotheken werden zum Schreiben von Crawlern in Python verwendet?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!