用json_encode把大数据转成json的时候发现 内存耗尽了。又没什么解决方案可以替代json_encode,还有循环大数据时好像也会出现这个问题 又怎么解决呢
认证高级PHP讲师
雷雷
循环可以考虑yield关键字解决内存消耗。json_encode 这个太模糊了。
如果只是保存和php自己调用解析的话可以用serialize方法,比Json_encode性能要高不少。
问题我回答的不全面,题主不用看啦。只适用于某些特定场景。。。
通常我遇到大数据量的问题的时候 。我都会去想是否可以将这个大的数据拆分。比如说。我要缓存个数据列表。我只缓存id就可以了。具体的数据 我在通过id获取(都是走缓存的)。 当然 具体情况具体分析。另外如果你序列化的时候 都很缓慢。在你需要处理这个json的时候。读取解析也是个问题
雷雷
循环可以考虑yield关键字解决内存消耗。
json_encode 这个太模糊了。
如果只是保存和php自己调用解析的话可以用serialize方法,比Json_encode性能要高不少。
问题我回答的不全面,题主不用看啦。只适用于某些特定场景。。。
通常我遇到大数据量的问题的时候 。我都会去想是否可以将这个大的数据拆分。比如说。我要缓存个数据列表。我只缓存id就可以了。具体的数据 我在通过id获取(都是走缓存的)。 当然 具体情况具体分析。
另外如果你序列化的时候 都很缓慢。在你需要处理这个json的时候。读取解析也是个问题