


Ausführliches Tutorial zur Verwendung der Scrapy-Shell zur Überprüfung der Ergebnisse der XPath-Auswahl
1. Scrapy Shell
ist ein gutes interaktives Tool des Scrapy-Pakets. Derzeit verwende ich es hauptsächlich, um die Ergebnisse der XPath-Auswahl zu überprüfen. Nach der Installation von Scrapy können Sie die Scrapy-Shell direkt über cmd bedienen.
Scrapy Shell
Scrapy-Terminal ist ein interaktives Terminal. Wir können den Code testen, ohne den Spider zu starten. Es kann auch verwendet werden, um XPath- oder CSS-Ausdrücke zu testen und zu sehen, wie sie funktionieren. Möglichkeit, die Extraktion von Daten aus den von uns gecrawlten Webseiten zu erleichtern.
Wenn IPython installiert ist, verwendet das Scrapy-Terminal IPython (anstelle des Standard-Python-Terminals). Das IPython-Terminal ist leistungsfähiger als andere und bietet intelligente automatische Vervollständigung, hervorgehobene Ausgabe und andere Funktionen. (Es wird empfohlen, IPython zu installieren)
Scrapy Shell starten
Geben Sie das Stammverzeichnis des Projekts ein und führen Sie den folgenden Befehl aus, um die Shell zu starten:
scrapy shell "http ://www.itcast.cn/channel/teacher.shtml"
Scrapy Shell erstellt automatisch einige praktische Objekte basierend auf der heruntergeladenen Seite, wie z. B. Antwortobjekt und Selektor Objekt (für HTML- und XML-Inhalte).
Wenn die Shell geladen wird, erhalten Sie eine lokale Antwortvariable mit Antwortdaten. Durch Eingabe von „response.body“ wird der Antworttext ausgegeben und „response.headers“ wird ausgegeben, um den Antwortheader anzuzeigen.
Wenn Sie „response.selector“ eingeben, erhalten Sie ein durch „response“ initialisiertes Objekt der Klasse „Selektor“. Zu diesem Zeitpunkt können Sie die Antwort mit „response.selector.xpath()“ oder „response.selector.css(“ abfragen. ).
Scrapy bietet auch einige Verknüpfungen, wie zum Beispiel „response.xpath()“ oder „response.css()“, die ebenfalls wirksam werden können (wie im vorherigen Fall).
Selectors
Scrapy Selectors integrierter XPath- und CSS-Selector-Ausdrucksmechanismus
Selector verfügt über vier grundlegende Methoden, die am häufigsten verwendete ist xpath:
xpath (): Übergeben Sie den xpath-Ausdruck und geben Sie die Auswahlliste aller Knoten zurück, die dem Ausdruck entsprechen
extract(): Serialisieren Sie den Knoten in einen Unicode-String und geben Sie die Liste zurück
css() : Übergeben Sie einen CSS-Ausdruck und geben Sie die Auswahlliste aller dem Ausdruck entsprechenden Knoten zurück. Die Syntax ist dieselbe wie bei BeautifulSoup4
re(): Extrahieren Sie Daten basierend auf der übergebenen Unicode-String-Liste Liste
2. ipython
auf der offiziellen Website Es wird empfohlen Ich wollte ipython verwenden, um Scrapy Shell auszuführen, also habe ich versucht, es zu installieren. Da meine Python-Umgebung zuvor über Conda konfiguriert wurde (siehe vorherigen Artikel), ist es sehr praktisch, ipython über conda zu installieren.
conda install -c conda-forge ipython
Dann wird das gesamte ipython-Paket heruntergeladen Alles ist kompiliert, es gibt keinen lästigen Kompilierungsfehlerprozess.
3. Führen Sie ipython aus und führen Sie Scrapy Shell auf ipython aus
im aktuellen cmd-Ausführungsfeld, weil Das System Die Umgebung wurde konfiguriert und Sie können das Python-Paket direkt ausführen. Geben Sie also ipython direkt in das cmd-Ausführungsfeld ein und Sie gelangen in das ipython-Ausführungsfeld, das dem Systemstandard-cmd ähnelt, jedoch umfangreichere Funktionen, kräftigere Farben und ein besseres Layout aufweist . Es kann auch gut sein.
Aber wenn ich den Scrapy-Shell-Befehl direkt darauf eingebe, wird immer wieder angezeigt, dass es keinen solchen Befehl gibt, und es schlägt fehl. Ich stecke hier fest.
Später durch sorgfältiges Lesen der Scrapy-Shell-Anweisungen
Wenn Sie IPython installiert haben, wird es von der Scrapy-Shell verwendet (anstelle der Standard-Python-Konsole ).
Das bedeutet, dass die Scrapy-Shell die Ipython-Laufbox selbst findet.
Geben Sie also direkt Scrapy Shell
Das obige ist der detaillierte Inhalt vonAusführliches Tutorial zur Verwendung der Scrapy-Shell zur Überprüfung der Ergebnisse der XPath-Auswahl. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Bei der Verarbeitung von Dateien unter Linux-Systemen ist es manchmal erforderlich, Zeilen am Ende der Datei zu löschen. Dieser Vorgang kommt in praktischen Anwendungen sehr häufig vor und kann durch einige einfache Befehle erreicht werden. In diesem Artikel werden die Schritte zum schnellen Löschen der Zeile am Ende der Datei im Linux-System vorgestellt und spezifische Codebeispiele bereitgestellt. Schritt 1: Überprüfen Sie die letzte Zeile der Datei. Bevor Sie den Löschvorgang durchführen, müssen Sie zunächst bestätigen, welche Zeile die letzte Zeile der Datei ist. Sie können den Befehl tail verwenden, um die letzte Zeile der Datei anzuzeigen. Der spezifische Befehl lautet wie folgt: tail-n1filena

Scrapy implementiert das Crawlen von Artikeln und die Analyse öffentlicher WeChat-Konten. WeChat ist in den letzten Jahren eine beliebte Social-Media-Anwendung, und die darin betriebenen öffentlichen Konten spielen ebenfalls eine sehr wichtige Rolle. Wie wir alle wissen, sind öffentliche WeChat-Konten ein Ozean an Informationen und Wissen, da jedes öffentliche Konto Artikel, grafische Nachrichten und andere Informationen veröffentlichen kann. Diese Informationen können in vielen Bereichen umfassend genutzt werden, beispielsweise in Medienberichten, in der akademischen Forschung usw. In diesem Artikel erfahren Sie, wie Sie das Scrapy-Framework zum Crawlen und Analysieren von WeChat-Artikeln zu öffentlichen Konten verwenden. Scr

Installationsanleitung: 1. Stellen Sie sicher, dass Python ein Python-Paket ist. 2. Öffnen Sie die Befehlszeile oder das Terminal und geben Sie den Befehl „pip install ipython“ ein. Wenn Python2 und Python3 ebenfalls im System installiert sind, können Sie ipython3 mit dem Befehl „pip3 install ipython“ installieren. Die Installation ist abgeschlossen.

Scrapy ist ein Python-basiertes Crawler-Framework, mit dem schnell und einfach relevante Informationen im Internet abgerufen werden können. In diesem Artikel analysieren wir anhand eines Scrapy-Falls im Detail, wie Unternehmensinformationen auf LinkedIn gecrawlt werden. Bestimmen Sie die Ziel-URL. Zunächst müssen wir klarstellen, dass unser Ziel die Unternehmensinformationen auf LinkedIn sind. Daher müssen wir die URL der LinkedIn-Unternehmensinformationsseite finden. Öffnen Sie die LinkedIn-Website, geben Sie den Firmennamen in das Suchfeld ein und

Scrapy ist ein Open-Source-Python-Crawler-Framework, das schnell und effizient Daten von Websites abrufen kann. Viele Websites verwenden jedoch die asynchrone Ladetechnologie von Ajax, was es Scrapy unmöglich macht, Daten direkt abzurufen. In diesem Artikel wird die Scrapy-Implementierungsmethode basierend auf dem asynchronen Laden von Ajax vorgestellt. 1. Ajax-Prinzip des asynchronen Ladens Ajax-Asynchronladen: Bei der herkömmlichen Seitenlademethode muss der Browser, nachdem er eine Anfrage an den Server gesendet hat, darauf warten, dass der Server eine Antwort zurückgibt und die gesamte Seite lädt, bevor er mit dem nächsten Schritt fortfährt.

IPython Notebook ist ein sehr beliebtes wissenschaftliches Computer- und Datenanalysetool, das häufig von Forschern, Analysten und Programmierern verwendet wird. Sie erleichtern die Untersuchung von Daten, die Entwicklung von Modellen und die Kommunikation von Ergebnissen, indem sie Benutzern die Integration von Code, Text und interaktiven Visualisierungen in ein einziges Dokument ermöglichen. Allerdings kann es schwierig sein, IPython-Notebooks mit anderen zu teilen, insbesondere wenn der Empfänger nicht über die Software oder das nötige Fachwissen verfügt, um sie auszuführen. Eine Lösung für diese Herausforderung besteht darin, IPython-Notizbücher in PDF und HTML zu konvertieren, die allgemein unterstützt werden und auf jedem Gerät leicht zugänglich sind. In diesem Artikel werden wir uns mit drei Methoden zum Konvertieren von IPython-Notizbüchern in PDF und HTML befassen

Scrapy ist ein leistungsstarkes Python-Crawler-Framework, mit dem große Datenmengen aus dem Internet abgerufen werden können. Bei der Entwicklung von Scrapy stoßen wir jedoch häufig auf das Problem, doppelte URLs zu crawlen, was viel Zeit und Ressourcen verschwendet und die Effizienz beeinträchtigt. In diesem Artikel werden einige Scrapy-Optimierungstechniken vorgestellt, um das Crawlen doppelter URLs zu reduzieren und die Effizienz von Scrapy-Crawlern zu verbessern. 1. Verwenden Sie die Attribute „start_urls“ und „allowed_domains“ im Scrapy-Crawler

Shell-Skripte verwenden die Befehlsinterpretationsfunktion von Shell, um eine Nur-Text-Datei zu analysieren und dann diese Funktionen auszuführen. Man kann auch sagen, dass ein Shell-Skript eine Sammlung einer Reihe von Befehlen ist.
