php - json_encode gère les problèmes liés au Big Data
PHP中文网
PHP中文网 2017-05-16 13:09:11
0
4
841

Lorsque j'ai utilisé json_encode pour convertir du Big Data en json, j'ai constaté que la mémoire était épuisée. Il n'existe aucune solution qui puisse remplacer json_encode. Ce problème semble également se produire lors de la boucle de Big Data. Comment le résoudre

.
PHP中文网
PHP中文网

认证高级PHP讲师

répondre à tous(4)
世界只因有你
//设定脚本无超时时间
set_time_limit(0);

//设置脚本可用最大内存
ini_set("memory_limit","2048M");
巴扎黑

Les boucles peuvent considérer le mot-clé rendement pour résoudre la consommation de mémoire.
json_encode C'est trop vague.

黄舟

Si vous enregistrez et appelez simplement l'analyse par php vous-même, vous pouvez utiliser la méthode serialize, qui a des performances bien supérieures à Json_encode.

Ma réponse à la question n’est pas exhaustive, vous n’avez donc pas besoin de la lire. Convient uniquement à certains scénarios spécifiques. . .

PHPzhong

Habituellement, lorsque je rencontre des problèmes avec de gros volumes de données. Je réfléchirai toujours à la question de savoir si ces données volumineuses peuvent être divisées. Par exemple. Je veux mettre en cache une liste de données. Je peux simplement mettre en cache l'identifiant. Je reçois les données spécifiques via ID (toutes mises en cache). Bien entendu, la situation spécifique doit être analysée au cas par cas.
De plus, si vous sérialisez, ce sera très lent. Quand vous devez traiter ce fichier json. La lecture et l'analyse sont également un problème

Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal