json_encode を使用してビッグデータを json に変換すると、メモリが不足することがわかりました。 json_encode に代わる解決策はありません。この問題は、ビッグ データをループするときにも発生するようです。
认证高级PHP讲师
リーリー
ループはメモリ消費を解決するために yield キーワードを考慮できます。 json_encode これでは曖昧すぎます。
PHP で解析を保存して呼び出すだけなら、Json_encode よりもはるかにパフォーマンスの高い Serialize メソッドを使用できます。
質問に対する私の答えは包括的ではないので、読む必要はありません。特定の特定のシナリオにのみ適しています。 。 。
通常、大量のデータに関する問題が発生したときです。この大きなデータを分割できるかどうかを常に考えます。例えば。データリストをキャッシュしたい。 IDをキャッシュするだけです。 IDを介して特定のデータを取得しています(すべてキャッシュされています)。 もちろん、具体的な状況はケースバイケースで分析する必要があります。 また、シリアル化すると非常に遅くなります。この JSON を処理する必要がある場合。読み取りと解析も問題です
リーリー
ループはメモリ消費を解決するために yield キーワードを考慮できます。
json_encode これでは曖昧すぎます。
PHP で解析を保存して呼び出すだけなら、Json_encode よりもはるかにパフォーマンスの高い Serialize メソッドを使用できます。
質問に対する私の答えは包括的ではないので、読む必要はありません。特定の特定のシナリオにのみ適しています。 。 。
通常、大量のデータに関する問題が発生したときです。この大きなデータを分割できるかどうかを常に考えます。例えば。データリストをキャッシュしたい。 IDをキャッシュするだけです。 IDを介して特定のデータを取得しています(すべてキャッシュされています)。 もちろん、具体的な状況はケースバイケースで分析する必要があります。
また、シリアル化すると非常に遅くなります。この JSON を処理する必要がある場合。読み取りと解析も問題です