


Einfache Beispielanalyse zur Implementierung von Crawler-Bildern in Python
In diesem Artikel werden hauptsächlich relevante Informationen zur einfachen Implementierung des PythonCrawlersBild vorgestellt. Freunde, die es benötigen, können sich auf
Die einfache Implementierung beziehen des Python-Crawler-Bildes
Ich stöbere oft in Zhihu und manchmal möchte ich einige Bilder von Fragen zusammen speichern. Daher dieses Programm. Dies ist ein sehr einfaches Bild-Crawler-Programm, das nur den Teil des Bildes crawlen kann, der ausgebürstet wurde. Da ich mit diesem Teil des Inhalts nicht vertraut bin, werde ich nur ein paar Worte sagen und den Code aufzeichnen, ohne zu viel zu erklären. Bei Interesse können Sie es direkt nutzen. Persönliche Tests sind auf Websites wie Zhihu verfügbar.
Im vorherigen Artikel wurde erklärt, wie man Bilder über URLs öffnet. Der Zweck besteht darin, zunächst zu sehen, wie die gecrawlten Bilder aussehen, und sie dann zu filtern und zu speichern.
Die Anforderungsbibliothek wird hier zum Abrufen von Seiteninformationen verwendet. Es ist zu beachten, dass beim Abrufen von Seiteninformationen ein Header benötigt wird, um das Programm als Browser für den Zugriff auf den Server zu tarnen. andernfalls kann es vom Server abgelehnt werden. Verwenden Sie dann BeautifulSoup, um überschüssige Informationen zu filtern und die Bildadresse zu erhalten. Nachdem Sie das Bild erhalten haben, filtern Sie einige kleine Bilder wie Avatare und Emoticons basierend auf der Bildgröße heraus. Schließlich haben Sie beim Öffnen oder Speichern von Bildern mehr Auswahlmöglichkeiten, einschließlich OpenCV, Skimage, PIL usw.
Der Ablauf ist wie folgt:
# -*- coding=utf-8 -*- import requests as req from bs4 import BeautifulSoup from PIL import Image from io import BytesIO import os from skimage import io url = "https://www.zhihu.com/question/37787176" headers = {'User-Agent' : 'Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.96 Mobile Safari/537.36'} response = req.get(url,headers=headers) content = str(response.content) #print content soup = BeautifulSoup(content,'lxml') images = soup.find_all('img') print u"共有%d张图片" % len(images) if not os.path.exists("images"): os.mkdir("images") for i in range(len(images)): img = images[i] print u"正在处理第%d张图片..." % (i+1) img_src = img.get('src') if img_src.startswith("http"): ## use PIL ''' print img_src response = req.get(img_src,headers=headers) image = Image.open(BytesIO(response.content)) w,h = image.size print w,h img_path = "images/" + str(i+1) + ".jpg" if w>=500 and h>500: #image.show() image.save(img_path) ''' ## use OpenCV import numpy as np import urllib import cv2 resp = urllib.urlopen(img_src) image = np.asarray(bytearray(resp.read()), dtype="uint8") image = cv2.imdecode(image, cv2.IMREAD_COLOR) w,h = image.shape[:2] print w,h img_path = "images/" + str(i+1) + ".jpg" if w>=400 and h>400: cv2.imshow("Image", image) cv2.waitKey(3000) ##cv2.imwrite(img_path,image) ## use skimage ## image = io.imread(img_src) ## w,h = image.shape[:2] ## print w,h #io.imshow(image) #io.show() ## img_path = "images/" + str(i+1) + ".jpg" ## if w>=500 and h>500: ## image.show() ## image.save(img_path) ## io.imsave(img_path,image) print u"处理完成!"
Das obige ist der detaillierte Inhalt vonEinfache Beispielanalyse zur Implementierung von Crawler-Bildern in Python. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Lösung für Erlaubnisprobleme beim Betrachten der Python -Version in Linux Terminal Wenn Sie versuchen, die Python -Version in Linux Terminal anzuzeigen, geben Sie Python ein ...

Bei der Verwendung von Pythons Pandas -Bibliothek ist das Kopieren von ganzen Spalten zwischen zwei Datenrahmen mit unterschiedlichen Strukturen ein häufiges Problem. Angenommen, wir haben zwei Daten ...

Alternative Verwendung von Python -Parameteranmerkungen in der Python -Programmierung, Parameteranmerkungen sind eine sehr nützliche Funktion, die den Entwicklern helfen kann, Funktionen besser zu verstehen und zu verwenden ...

Auswahl der Python-plattformübergreifenden Desktop-Anwendungsentwicklungsbibliothek Viele Python-Entwickler möchten Desktop-Anwendungen entwickeln, die sowohl auf Windows- als auch auf Linux-Systemen ausgeführt werden können ...

Warum kann mein Code nicht die von der API zurückgegebenen Daten erhalten? Bei der Programmierung stoßen wir häufig auf das Problem der Rückgabe von Nullwerten, wenn API aufruft, was nicht nur verwirrend ist ...

Wie hört Uvicorn kontinuierlich auf HTTP -Anfragen an? Uvicorn ist ein leichter Webserver, der auf ASGI basiert. Eine seiner Kernfunktionen ist es, auf HTTP -Anfragen zu hören und weiterzumachen ...

Wie lösten Python -Skripte an einem bestimmten Ort die Ausgabe in Cursorposition? Beim Schreiben von Python -Skripten ist es üblich, die vorherige Ausgabe an die Cursorposition zu löschen ...

Viele Entwickler verlassen sich auf PYPI (PythonpackageIndex) ...
