Heim Backend-Entwicklung Python-Tutorial Ausführliches Tutorial zur Verwendung der Scrapy-Shell zur Überprüfung der Ergebnisse der XPath-Auswahl

Ausführliches Tutorial zur Verwendung der Scrapy-Shell zur Überprüfung der Ergebnisse der XPath-Auswahl

Jul 19, 2017 pm 02:19 PM
ipython scrapy shell

1. Scrapy Shell

ist ein gutes interaktives Tool des Scrapy-Pakets. Derzeit verwende ich es hauptsächlich, um die Ergebnisse der XPath-Auswahl zu überprüfen. Nach der Installation von Scrapy können Sie die Scrapy-Shell direkt über cmd bedienen.

Scrapy Shell

Scrapy-Terminal ist ein interaktives Terminal. Wir können den Code testen, ohne den Spider zu starten. Es kann auch verwendet werden, um XPath- oder CSS-Ausdrücke zu testen und zu sehen, wie sie funktionieren. Möglichkeit, die Extraktion von Daten aus den von uns gecrawlten Webseiten zu erleichtern.

Wenn IPython installiert ist, verwendet das Scrapy-Terminal IPython (anstelle des Standard-Python-Terminals). Das IPython-Terminal ist leistungsfähiger als andere und bietet intelligente automatische Vervollständigung, hervorgehobene Ausgabe und andere Funktionen. (Es wird empfohlen, IPython zu installieren)

Scrapy Shell starten

Geben Sie das Stammverzeichnis des Projekts ein und führen Sie den folgenden Befehl aus, um die Shell zu starten:

scrapy shell "http ://www.itcast.cn/channel/teacher.shtml"

Scrapy Shell erstellt automatisch einige praktische Objekte basierend auf der heruntergeladenen Seite, wie z. B. Antwortobjekt und Selektor Objekt (für HTML- und XML-Inhalte).

Wenn die Shell geladen wird, erhalten Sie eine lokale Antwortvariable mit Antwortdaten. Durch Eingabe von „response.body“ wird der Antworttext ausgegeben und „response.headers“ wird ausgegeben, um den Antwortheader anzuzeigen.

Wenn Sie „response.selector“ eingeben, erhalten Sie ein durch „response“ initialisiertes Objekt der Klasse „Selektor“. Zu diesem Zeitpunkt können Sie die Antwort mit „response.selector.xpath()“ oder „response.selector.css(“ abfragen. ).

Scrapy bietet auch einige Verknüpfungen, wie zum Beispiel „response.xpath()“ oder „response.css()“, die ebenfalls wirksam werden können (wie im vorherigen Fall).

Selectors

Scrapy Selectors integrierter XPath- und CSS-Selector-Ausdrucksmechanismus

Selector verfügt über vier grundlegende Methoden, die am häufigsten verwendete ist xpath:

xpath (): Übergeben Sie den xpath-Ausdruck und geben Sie die Auswahlliste aller Knoten zurück, die dem Ausdruck entsprechen

extract(): Serialisieren Sie den Knoten in einen Unicode-String und geben Sie die Liste zurück

css() : Übergeben Sie einen CSS-Ausdruck und geben Sie die Auswahlliste aller dem Ausdruck entsprechenden Knoten zurück. Die Syntax ist dieselbe wie bei BeautifulSoup4

re(): Extrahieren Sie Daten basierend auf der übergebenen Unicode-String-Liste Liste


2. ipython

auf der offiziellen Website Es wird empfohlen Ich wollte ipython verwenden, um Scrapy Shell auszuführen, also habe ich versucht, es zu installieren. Da meine Python-Umgebung zuvor über Conda konfiguriert wurde (siehe vorherigen Artikel), ist es sehr praktisch, ipython über conda zu installieren.

conda install -c conda-forge ipython
Nach dem Login kopieren

Dann wird das gesamte ipython-Paket heruntergeladen Alles ist kompiliert, es gibt keinen lästigen Kompilierungsfehlerprozess.

3. Führen Sie ipython aus und führen Sie Scrapy Shell auf ipython aus

im aktuellen cmd-Ausführungsfeld, weil Das System Die Umgebung wurde konfiguriert und Sie können das Python-Paket direkt ausführen. Geben Sie also ipython direkt in das cmd-Ausführungsfeld ein und Sie gelangen in das ipython-Ausführungsfeld, das dem Systemstandard-cmd ähnelt, jedoch umfangreichere Funktionen, kräftigere Farben und ein besseres Layout aufweist . Es kann auch gut sein.

Aber wenn ich den Scrapy-Shell-Befehl direkt darauf eingebe, wird immer wieder angezeigt, dass es keinen solchen Befehl gibt, und es schlägt fehl. Ich stecke hier fest.

Später durch sorgfältiges Lesen der Scrapy-Shell-Anweisungen

Wenn Sie IPython installiert haben, wird es von der Scrapy-Shell verwendet (anstelle der Standard-Python-Konsole ).

Das bedeutet, dass die Scrapy-Shell die Ipython-Laufbox selbst findet.

Geben Sie also direkt Scrapy Shell in das Standard-Ausführungsfeld von cmd ein, und das zurückgegebene Ergebnis wird direkt in das Ipython-Ausführungsfeld aufgerufen.

Das obige ist der detaillierte Inhalt vonAusführliches Tutorial zur Verwendung der Scrapy-Shell zur Überprüfung der Ergebnisse der XPath-Auswahl. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Wie man alles in Myrise freischaltet
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

So löschen Sie schnell die Zeile am Ende einer Datei unter Linux So löschen Sie schnell die Zeile am Ende einer Datei unter Linux Mar 01, 2024 pm 09:36 PM

Bei der Verarbeitung von Dateien unter Linux-Systemen ist es manchmal erforderlich, Zeilen am Ende der Datei zu löschen. Dieser Vorgang kommt in praktischen Anwendungen sehr häufig vor und kann durch einige einfache Befehle erreicht werden. In diesem Artikel werden die Schritte zum schnellen Löschen der Zeile am Ende der Datei im Linux-System vorgestellt und spezifische Codebeispiele bereitgestellt. Schritt 1: Überprüfen Sie die letzte Zeile der Datei. Bevor Sie den Löschvorgang durchführen, müssen Sie zunächst bestätigen, welche Zeile die letzte Zeile der Datei ist. Sie können den Befehl tail verwenden, um die letzte Zeile der Datei anzuzeigen. Der spezifische Befehl lautet wie folgt: tail-n1filena

Scrapy implementiert das Crawlen und Analysieren von Artikeln über öffentliche WeChat-Konten Scrapy implementiert das Crawlen und Analysieren von Artikeln über öffentliche WeChat-Konten Jun 22, 2023 am 09:41 AM

Scrapy implementiert das Crawlen von Artikeln und die Analyse öffentlicher WeChat-Konten. WeChat ist in den letzten Jahren eine beliebte Social-Media-Anwendung, und die darin betriebenen öffentlichen Konten spielen ebenfalls eine sehr wichtige Rolle. Wie wir alle wissen, sind öffentliche WeChat-Konten ein Ozean an Informationen und Wissen, da jedes öffentliche Konto Artikel, grafische Nachrichten und andere Informationen veröffentlichen kann. Diese Informationen können in vielen Bereichen umfassend genutzt werden, beispielsweise in Medienberichten, in der akademischen Forschung usw. In diesem Artikel erfahren Sie, wie Sie das Scrapy-Framework zum Crawlen und Analysieren von WeChat-Artikeln zu öffentlichen Konten verwenden. Scr

Tutorial zur ipython-Installation Tutorial zur ipython-Installation Dec 05, 2023 pm 02:15 PM

Installationsanleitung: 1. Stellen Sie sicher, dass Python ein Python-Paket ist. 2. Öffnen Sie die Befehlszeile oder das Terminal und geben Sie den Befehl „pip install ipython“ ein. Wenn Python2 und Python3 ebenfalls im System installiert sind, können Sie ipython3 mit dem Befehl „pip3 install ipython“ installieren. Die Installation ist abgeschlossen.

Scrapy-Fallanalyse: So crawlen Sie Unternehmensinformationen auf LinkedIn Scrapy-Fallanalyse: So crawlen Sie Unternehmensinformationen auf LinkedIn Jun 23, 2023 am 10:04 AM

Scrapy ist ein Python-basiertes Crawler-Framework, mit dem schnell und einfach relevante Informationen im Internet abgerufen werden können. In diesem Artikel analysieren wir anhand eines Scrapy-Falls im Detail, wie Unternehmensinformationen auf LinkedIn gecrawlt werden. Bestimmen Sie die Ziel-URL. Zunächst müssen wir klarstellen, dass unser Ziel die Unternehmensinformationen auf LinkedIn sind. Daher müssen wir die URL der LinkedIn-Unternehmensinformationsseite finden. Öffnen Sie die LinkedIn-Website, geben Sie den Firmennamen in das Suchfeld ein und

Scrapy-Implementierungsmethode für asynchrones Laden basierend auf Ajax Scrapy-Implementierungsmethode für asynchrones Laden basierend auf Ajax Jun 22, 2023 pm 11:09 PM

Scrapy ist ein Open-Source-Python-Crawler-Framework, das schnell und effizient Daten von Websites abrufen kann. Viele Websites verwenden jedoch die asynchrone Ladetechnologie von Ajax, was es Scrapy unmöglich macht, Daten direkt abzurufen. In diesem Artikel wird die Scrapy-Implementierungsmethode basierend auf dem asynchronen Laden von Ajax vorgestellt. 1. Ajax-Prinzip des asynchronen Ladens Ajax-Asynchronladen: Bei der herkömmlichen Seitenlademethode muss der Browser, nachdem er eine Anfrage an den Server gesendet hat, darauf warten, dass der Server eine Antwort zurückgibt und die gesamte Seite lädt, bevor er mit dem nächsten Schritt fortfährt.

Wie konvertiert man ein IPython-Notebook in PDF und HTML? Wie konvertiert man ein IPython-Notebook in PDF und HTML? Sep 08, 2023 pm 08:33 PM

IPython Notebook ist ein sehr beliebtes wissenschaftliches Computer- und Datenanalysetool, das häufig von Forschern, Analysten und Programmierern verwendet wird. Sie erleichtern die Untersuchung von Daten, die Entwicklung von Modellen und die Kommunikation von Ergebnissen, indem sie Benutzern die Integration von Code, Text und interaktiven Visualisierungen in ein einziges Dokument ermöglichen. Allerdings kann es schwierig sein, IPython-Notebooks mit anderen zu teilen, insbesondere wenn der Empfänger nicht über die Software oder das nötige Fachwissen verfügt, um sie auszuführen. Eine Lösung für diese Herausforderung besteht darin, IPython-Notizbücher in PDF und HTML zu konvertieren, die allgemein unterstützt werden und auf jedem Gerät leicht zugänglich sind. In diesem Artikel werden wir uns mit drei Methoden zum Konvertieren von IPython-Notizbüchern in PDF und HTML befassen

Tipps zur Scrapy-Optimierung: So reduzieren Sie das Crawling doppelter URLs und verbessern die Effizienz Tipps zur Scrapy-Optimierung: So reduzieren Sie das Crawling doppelter URLs und verbessern die Effizienz Jun 22, 2023 pm 01:57 PM

Scrapy ist ein leistungsstarkes Python-Crawler-Framework, mit dem große Datenmengen aus dem Internet abgerufen werden können. Bei der Entwicklung von Scrapy stoßen wir jedoch häufig auf das Problem, doppelte URLs zu crawlen, was viel Zeit und Ressourcen verschwendet und die Effizienz beeinträchtigt. In diesem Artikel werden einige Scrapy-Optimierungstechniken vorgestellt, um das Crawlen doppelter URLs zu reduzieren und die Effizienz von Scrapy-Crawlern zu verbessern. 1. Verwenden Sie die Attribute „start_urls“ und „allowed_domains“ im Scrapy-Crawler

109 praktische Beispiele für Shell-Skripte, der Code ist klar und einfach zu verwenden! 109 praktische Beispiele für Shell-Skripte, der Code ist klar und einfach zu verwenden! Aug 02, 2023 pm 03:25 PM

Shell-Skripte verwenden die Befehlsinterpretationsfunktion von Shell, um eine Nur-Text-Datei zu analysieren und dann diese Funktionen auszuführen. Man kann auch sagen, dass ein Shell-Skript eine Sammlung einer Reihe von Befehlen ist.

See all articles