Beim Scraping großer Datenmengen von mehreren URLs ist es wichtig, zu verhindern, dass Sie durch übermäßig große Antworten stecken bleiben. So begrenzen Sie die Menge der gelesenen Daten während einer HTTP-GET-Anfrage:
Begrenzung der gelesenen Bytes
Um die Anzahl der empfangenen Bytes zu steuern, verwenden Sie einen io.LimitedReader. Dieser Reader begrenzt die zurückgegebenen Daten auf eine angegebene Anzahl von Bytes. Zum Beispiel:
limitedReader := &io.LimitedReader{R: response.Body, N: limit} body, err := io.ReadAll(limitedReader)
Limit ist hier die maximale Anzahl der zu lesenden Bytes.
Alternativ:
body, err := io.ReadAll(io.LimitReader(response.Body, limit))
Beide Ansätze erzielen Erfolg Das gleiche Ergebnis erzielen Sie, wenn Sie die vom Server abgerufenen Daten begrenzen.
Durch die Festlegung eines geeigneten Limits können Sie sicherstellen, dass Ihr Scraping erfolgt Der Vorgang bleibt nicht bei großen Antworten hängen, sodass Sie die Daten effizient verarbeiten können.
Das obige ist der detaillierte Inhalt vonWie kann ich die Datenüberlastung in HTTP-GET-Anfragen effizient verwalten?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!