Einschränken der Datenaufnahme in HTTP-GET-Anfragen
Beim Scraping von HTML-Seiten ist es wichtig, einen übermäßigen Datenabruf zu verhindern, der die Effizienz und Leistung beeinträchtigen kann. Um dieses Problem zu beheben, sollten Sie erwägen, die von GET-Anfragen akzeptierte Datenmenge zu begrenzen.
Lösung: Verwendung von io.LimitedReader
Der Typ io.LimitedReader ermöglicht es Entwicklern, die Datenmenge einzuschränken Datenmenge, die von einer bestimmten Ressource abgerufen wird. So implementieren Sie es:
import "io" // Limit the amount of data read from response.Body limitedReader := &io.LimitedReader{R: response.Body, N: limit} body, err := io.ReadAll(limitedReader)
Alternativ kann die Funktion io.LimitReader verwendet werden, um das gleiche Ergebnis zu erzielen:
body, err := io.ReadAll(io.LimitReader(response.Body, limit))
Durch Angabe des gewünschten Limits (in Bytes) io.LimitedReader stellt sicher, dass nur die angegebene Datenmenge gelesen wird. Dadurch wird verhindert, dass die Anwendung den Speicher erschöpft oder durch übermäßige Datenmengen überlastet wird.
Diese Lösung ermöglicht einen effizienteren und kontrollierten Datenabruf beim Web-Scraping oder anderen HTTP-basierten Vorgängen und stellt so sicher, dass Leistung und Zuverlässigkeit erhalten bleiben.
Das obige ist der detaillierte Inhalt vonWie kann ich die Datenaufnahme in HTTP-GET-Anfragen für ein effizientes Web Scraping einschränken?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!