json_encode를 사용하여 빅데이터를 json으로 변환할 때 메모리가 소모되는 것을 발견했습니다. json_encode를 대체할 수 있는 솔루션은 없습니다. 이 문제는 빅데이터를 루핑할 때도 발생하는 것 같습니다. 해결 방법
认证高级PHP讲师
으아아아
루프는 메모리 소비 문제를 해결하기 위해 수율 키워드를 고려할 수 있습니다. json_encode 너무 모호합니다.
직접 PHP로 저장하고 파싱을 호출한다면 Json_encode보다 성능이 훨씬 뛰어난 serialize 메소드를 사용할 수 있습니다.
질문에 대한 내 답변은 포괄적이지 않으므로 읽을 필요가 없습니다. 특정 특정 시나리오에만 적합합니다. . .
보통 대용량 데이터로 인해 문제가 발생할 때. 이 대용량 데이터를 분할할 수 있는지 늘 고민하겠습니다. 예를 들어. 데이터 목록을 캐시하고 싶습니다. ID를 캐시하면 됩니다. ID(모두 캐시됨)를 통해 특정 데이터를 가져오고 있습니다. 물론, 구체적인 상황은 사례별로 분석되어야 합니다. 게다가 직렬화하면 엄청 느려지거든요. 이 json을 처리해야 할 때. 읽고 파싱하는 것도 문제
으아아아
루프는 메모리 소비 문제를 해결하기 위해 수율 키워드를 고려할 수 있습니다.
json_encode 너무 모호합니다.
직접 PHP로 저장하고 파싱을 호출한다면 Json_encode보다 성능이 훨씬 뛰어난 serialize 메소드를 사용할 수 있습니다.
질문에 대한 내 답변은 포괄적이지 않으므로 읽을 필요가 없습니다. 특정 특정 시나리오에만 적합합니다. . .
보통 대용량 데이터로 인해 문제가 발생할 때. 이 대용량 데이터를 분할할 수 있는지 늘 고민하겠습니다. 예를 들어. 데이터 목록을 캐시하고 싶습니다. ID를 캐시하면 됩니다. ID(모두 캐시됨)를 통해 특정 데이터를 가져오고 있습니다. 물론, 구체적인 상황은 사례별로 분석되어야 합니다.
게다가 직렬화하면 엄청 느려지거든요. 이 json을 처리해야 할 때. 읽고 파싱하는 것도 문제