Lorsque j'ai utilisé json_encode pour convertir du Big Data en json, j'ai constaté que la mémoire était épuisée. Il n'existe aucune solution qui puisse remplacer json_encode. Ce problème semble également se produire lors de la boucle de Big Data. Comment le résoudre
.
Les boucles peuvent considérer le mot-clé rendement pour résoudre la consommation de mémoire.
json_encode C'est trop vague.
Si vous enregistrez et appelez simplement l'analyse par php vous-même, vous pouvez utiliser la méthode serialize, qui a des performances bien supérieures à Json_encode.
Ma réponse à la question n’est pas exhaustive, vous n’avez donc pas besoin de la lire. Convient uniquement à certains scénarios spécifiques. . .
Habituellement, lorsque je rencontre des problèmes avec de gros volumes de données. Je réfléchirai toujours à la question de savoir si ces données volumineuses peuvent être divisées. Par exemple. Je veux mettre en cache une liste de données. Je peux simplement mettre en cache l'identifiant. Je reçois les données spécifiques via ID (toutes mises en cache). Bien entendu, la situation spécifique doit être analysée au cas par cas.
De plus, si vous sérialisez, ce sera très lent. Quand vous devez traiter ce fichier json. La lecture et l'analyse sont également un problème