Heim Betrieb und Instandhaltung Sicherheit Was sind die Wissenspunkte des Python-Anti-Crawlers?

Was sind die Wissenspunkte des Python-Anti-Crawlers?

May 17, 2023 am 10:18 AM
python

1. Warum Anti-Crawler?

Bevor wir das Anti-Crawler-System entwerfen, schauen wir uns zunächst an, welche Probleme Crawler auf die Website bringen werden. #🎜 🎜#

Im Wesentlichen sind die Websites im Internet, die von Menschen durchsucht, angezeigt und genutzt werden können, und die Daten auf den Websites offen und zugänglich, sodass kein sogenanntes Problem des „illegalen autorisierten Zugriffs“ besteht. .

Es gibt keinen wesentlichen Unterschied zwischen einem Crawler-Programm, das auf eine Webseite zugreift, und einem Menschen, der auf eine Webseite zugreift. In beiden Fällen initiiert der Client eine HTTP-Anfrage an den Website-Server gibt eine Inhaltsantwort an den Client zurück.

Solange eine Anfrage initiiert wird, muss der Website-Server antworten. Um zu antworten, müssen die Ressourcen des Servers verbraucht werden.

Es besteht eine für beide Seiten vorteilhafte Beziehung zwischen Website-Besuchern und der Website. Die Website bietet Besuchern die notwendigen Informationen und Dienste, die sie benötigen, und Besucher bringen auch Traffic auf die Website. Daher sind Websitebesitzer bereit, die Bandbreite, die Festplatte und den Speicher des Servers zu nutzen, um ihre Besucher zu bedienen.

Und was ist mit dem Crawler-Programm? Es kommt einer Prostitutionsparty gleich. Die Verdoppelung der Ressourcen des Website-Servers und die Belegung der Serverbandbreite bringen der Website keinen Nutzen, sondern sind im Endergebnis schädlich für die Website selbst.

Crawler können als die afrikanischen Hyänen des Internets angesehen werden, und es ist kein Wunder, dass sie von Website-Besitzern gehasst werden.

2. Crawler identifizieren

Da Sie Crawler hassen, müssen Sie sie von der Website fernhalten. Um den Crawler-Zugriff zu verweigern, müssen Sie zunächst das Crawler-Programm unter den Netzwerkbesuchern identifizieren. Wie identifiziere ich es? ist für die einfachsten Webcrawler. Der Browser bringt einen eigenen Anforderungsheader mit, um seine grundlegenden Informationen anzugeben. HTTP-Anforderungsheader können von Crawlern leicht beschädigt werden, da sie von jedem geändert und gefälscht werden können.

2. Cookie-Wert

Cookies werden normalerweise verwendet, um Website-Besucher zu identifizieren, ähnlich wie ein temporärer Personalausweis in Ihrer Hand. Auf dieser Grundlage wird die Identität beim Website-Server überprüft. Leider werden Cookies clientseitig gespeichert und können verändert und gefälscht werden.

3. Zugriffshäufigkeit

Wenn ein Besucher jede Sekunde eine bestimmte Seite der Website anfordert oder innerhalb weniger Sekunden mehrere Seiten anfordert A Hundert Mal diese Seite. Dieser Besucher ist entweder ein Crawler oder ein Geist. Welcher Mensch kann schnell und häufig mit der Maus klicken, um eine Seite zu besuchen? Hat er die Parkinson-Krankheit oder ist er eine Reinkarnation eines Oktopus?

Es ist möglich, Crawler anhand der Zugriffshäufigkeit zu identifizieren, Crawler können jedoch auch eine große Anzahl von Proxy-IPs verwenden, um den Effekt zu erzielen, dass eine IP-Adresse nur einmal besucht wird, oder um zufällige Anforderungsintervalle zu vermeiden.

4. Verhaltensverlauf der Maus

Gewöhnliche menschliche Besucher bewegen beim Surfen im Internet nicht Schritt für Schritt wie eine Maschine. . Die Bewegungen und Klicks der Maus können über JS-Skripte erfasst werden, sodass Sie anhand der Mausverhaltensbahn des Besuchers beurteilen können, ob es sich bei dem Besucher um ein Crawler-Programm handelt.

5. Tokenwert

Viele Websites verwenden jetzt eine Front-End- und Back-End-Trennungsentwicklungsmethode mit der Back-End-Schnittstelle Geben Sie Daten an das Front-End zurück und kombinieren Sie die Daten nach dem Abrufen mit der Seite zum Rendern. Daher suchen viele Crawler-Programme direkt nach der Datenschnittstelle, anstatt törichterweise die Seite anzufordern. Der Token wird zur Verifizierung dieser Backend-Datenschnittstellen verwendet. Normalerweise wird ein Token durch eine Kombination aus Zeit- und Webseitenschlüsseln verschlüsselt.

Es gibt weitere Möglichkeiten, Crawler zu identifizieren, die ich hier nicht einzeln vorstellen werde. Unabhängig davon, welche der oben genannten Methoden zur Identifizierung von Webcrawlern verwendet wird, besteht leider immer die Gefahr, von den Crawlern getäuscht oder infiltriert zu werden.

3. Crawler verweigern

So wie es vor zehn Jahren keinen endgültigen Website-Sicherheitsschutz gibt, wurde Port 3389 geschlossen kann verhindern, dass der Server zu einem Broiler geworden ist. Heutzutage wurden verschiedene Firewalls und verschiedene Sicherheitsmaßnahmen hinzugefügt, und es ist möglich, aufgrund einer bestimmten 0Day-Sicherheitslücke erpresst zu werden.

Es gibt immer einen Kampf und eine Eskalation zwischen Crawlern und Anti-Crawlern. Der Unterschied zwischen Cyber-Angriff und -Verteidigung und Anti-Crawling besteht darin, dass es sich bei ersterem um einen kompromisslosen Kampf handelt, während bei letzterem Handschuhe und Helme wie bei olympischen Boxern zum Einsatz kommen.

Um die Website zu betreiben, ist es notwendig, den Inhalt für die Außenwelt zu öffnen, und der offene Inhalt ist wie der Geruch von Aas und Blut, der in der afrikanischen Savanne schwebt und die Ankunft von direkt anzieht Hyänen.

Es ist eine schwierige Aufgabe, ein Gleichgewicht zwischen offenen Inhalten und der Vermeidung, zu einem Data-Mining-Pool für Crawler zu werden, zu finden.

1. Beschränken Sie die Offenheit von Inhalten

Offene Inhalte sind die Grundlage für die Gewinnung von Nutzern und Traffic, daher müssen die Inhalte offen sein. Aber die Offenheit von Inhalten ist keine grenzenlose Offenheit. Nicht registrierte Benutzer können ein oder zwei Inhalte anzeigen, haben jedoch nicht uneingeschränkten Zugriff auf alle Inhalte. Diese Einschränkung kann in Form von Klick-Verifizierungsmechanismen wie Login, Scan-Code-Verifizierung oder Zugriff auf den Google-Verifizierungscode erfolgen.

Heutzutage haben immer mehr Websites den Mechanismus der eingeschränkten Inhaltsöffnung übernommen, wie z. B. Weibo, Zhihu, Taobao usw. Sie können eine oder zwei Seiten mit Inhalten sehen, aber wenn Sie trotzdem fortfahren möchten , Entschuldigung, bitte melden Sie sich an.

2. Verhaltensaufzeichnen von Benutzervorgängen

Das Problem wird nicht gelöst, da die simulierte Anmeldung schon immer ein beliebter Entwicklungszweig des Webcrawlers war Programme, egal ob es sich um einen Bildbestätigungscode, ein Puzzle, einen Schieberegler oder ein angeklicktes chinesisches Zeichen handelt, alles wird kaputt gehen. Durch das Schreiben von APP- und Crawler-Programmen können SMS-Bestätigungscodes mit der Website kommunizieren.

Daher ist die Aufzeichnung des Benutzerverhaltens unerlässlich. Dies ist die Grundlage für die Analyse und Verarbeitung von Crawlern.

3. Gehen Sie im Hinblick auf die Kontrolle strikt gegen hochfrequentes Verhalten vor.

Tatsächlich gibt es viele Crawler-Programme, die nicht ausgeführt werden Die Daten und Inhalte der Website werden nur erfasst, um die manuelle Erfassung und Organisation zu erleichtern. Diese Art von Crawler-Verhalten ist im Allgemeinen höher als die Häufigkeit von hyänenähnlichen Crawlern Diese Art von Crawler-Verhalten kann ignoriert werden. Halten Sie eine Linie in Ihrem Leben, damit wir uns in Zukunft wiedersehen können.

Es müssen jedoch Maßnahmen für hochfrequentes Crawler-Verhalten ergriffen werden, das den Betrieb des Website-Servers beeinträchtigt. Kombinieren Sie Benutzer- und IP-Informationen, um relevante Benutzer oder IPs zu verarbeiten.

4. Erklärung der Rechte in der Vereinbarung

Der Eigentümer der Website muss in der Website-Vereinbarung oder Nutzungsvereinbarung erklären, dass normales Surfen und Wenn der Zugriff und die Datenerfassung gestattet sind, behalten wir uns das Recht vor, ungewöhnliches, hochfrequentes oder bedrohliches Verhalten, das die Stabilität des Website-Servers gefährdet, weiter zu verarbeiten.

Das obige ist der detaillierte Inhalt vonWas sind die Wissenspunkte des Python-Anti-Crawlers?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Wie man alles in Myrise freischaltet
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Der 2-stündige Python-Plan: ein realistischer Ansatz Der 2-stündige Python-Plan: ein realistischer Ansatz Apr 11, 2025 am 12:04 AM

Sie können grundlegende Programmierkonzepte und Fähigkeiten von Python innerhalb von 2 Stunden lernen. 1. Lernen Sie Variablen und Datentypen, 2. Master Control Flow (bedingte Anweisungen und Schleifen), 3.. Verstehen Sie die Definition und Verwendung von Funktionen, 4. Beginnen Sie schnell mit der Python -Programmierung durch einfache Beispiele und Code -Snippets.

Python: Erforschen der primären Anwendungen Python: Erforschen der primären Anwendungen Apr 10, 2025 am 09:41 AM

Python wird in den Bereichen Webentwicklung, Datenwissenschaft, maschinelles Lernen, Automatisierung und Skripten häufig verwendet. 1) In der Webentwicklung vereinfachen Django und Flask Frameworks den Entwicklungsprozess. 2) In den Bereichen Datenwissenschaft und maschinelles Lernen bieten Numpy-, Pandas-, Scikit-Learn- und TensorFlow-Bibliotheken eine starke Unterstützung. 3) In Bezug auf Automatisierung und Skript ist Python für Aufgaben wie automatisiertes Test und Systemmanagement geeignet.

Navicat -Methode zum Anzeigen von MongoDB -Datenbankkennwort Navicat -Methode zum Anzeigen von MongoDB -Datenbankkennwort Apr 08, 2025 pm 09:39 PM

Es ist unmöglich, das MongoDB -Passwort direkt über Navicat anzuzeigen, da es als Hash -Werte gespeichert ist. So rufen Sie verlorene Passwörter ab: 1. Passwörter zurücksetzen; 2. Überprüfen Sie die Konfigurationsdateien (können Hash -Werte enthalten). 3. Überprüfen Sie Codes (May Hardcode -Passwörter).

Wie man AWS -Kleber mit Amazon Athena verwendet Wie man AWS -Kleber mit Amazon Athena verwendet Apr 09, 2025 pm 03:09 PM

Als Datenprofi müssen Sie große Datenmengen aus verschiedenen Quellen verarbeiten. Dies kann Herausforderungen für das Datenmanagement und die Analyse darstellen. Glücklicherweise können zwei AWS -Dienste helfen: AWS -Kleber und Amazon Athena.

So starten Sie den Server mit Redis So starten Sie den Server mit Redis Apr 10, 2025 pm 08:12 PM

Zu den Schritten zum Starten eines Redis -Servers gehören: Installieren von Redis gemäß dem Betriebssystem. Starten Sie den Redis-Dienst über Redis-Server (Linux/macOS) oder redis-server.exe (Windows). Verwenden Sie den Befehl redis-cli ping (linux/macOS) oder redis-cli.exe ping (Windows), um den Dienststatus zu überprüfen. Verwenden Sie einen Redis-Client wie Redis-Cli, Python oder Node.js, um auf den Server zuzugreifen.

So lesen Sie Redis -Warteschlange So lesen Sie Redis -Warteschlange Apr 10, 2025 pm 10:12 PM

Um eine Warteschlange aus Redis zu lesen, müssen Sie den Warteschlangenname erhalten, die Elemente mit dem Befehl LPOP lesen und die leere Warteschlange verarbeiten. Die spezifischen Schritte sind wie folgt: Holen Sie sich den Warteschlangenname: Nennen Sie ihn mit dem Präfix von "Warteschlange:" wie "Warteschlangen: My-Queue". Verwenden Sie den Befehl LPOP: Wischen Sie das Element aus dem Kopf der Warteschlange aus und geben Sie seinen Wert zurück, z. B. die LPOP-Warteschlange: my-queue. Verarbeitung leerer Warteschlangen: Wenn die Warteschlange leer ist, gibt LPOP NIL zurück, und Sie können überprüfen, ob die Warteschlange existiert, bevor Sie das Element lesen.

So sehen Sie die Serverversion von Redis So sehen Sie die Serverversion von Redis Apr 10, 2025 pm 01:27 PM

FRAGE: Wie kann man die Redis -Server -Version anzeigen? Verwenden Sie das Befehlszeilen-Tool-REDIS-CLI-Verssion, um die Version des angeschlossenen Servers anzuzeigen. Verwenden Sie den Befehl "Info Server", um die interne Version des Servers anzuzeigen, und muss Informationen analysieren und zurückgeben. Überprüfen Sie in einer Cluster -Umgebung die Versionskonsistenz jedes Knotens und können automatisch mit Skripten überprüft werden. Verwenden Sie Skripte, um die Anzeigeversionen zu automatisieren, z. B. eine Verbindung mit Python -Skripten und Druckversionsinformationen.

Wie sicher ist Navicats Passwort? Wie sicher ist Navicats Passwort? Apr 08, 2025 pm 09:24 PM

Die Kennwortsicherheit von Navicat beruht auf der Kombination aus symmetrischer Verschlüsselung, Kennwortstärke und Sicherheitsmaßnahmen. Zu den spezifischen Maßnahmen gehören: Verwenden von SSL -Verbindungen (vorausgesetzt, dass der Datenbankserver das Zertifikat unterstützt und korrekt konfiguriert), die Navicat regelmäßig Aktualisierung unter Verwendung von sichereren Methoden (z. B. SSH -Tunneln), die Einschränkung von Zugriffsrechten und vor allem niemals Kennwörter aufzeichnen.

See all articles