Apabila menggunakan json_encode untuk menukar data besar kepada json, saya mendapati bahawa memori telah habis. Tiada penyelesaian yang boleh menggantikan json_encode Masalah ini juga nampaknya berlaku apabila menggelung data besar
Jika anda hanya menyimpan dan memanggil parsing dengan php sendiri, anda boleh menggunakan kaedah bersiri, yang mempunyai prestasi yang jauh lebih tinggi daripada Json_encode.
Jawapan saya untuk soalan itu tidak menyeluruh, jadi anda tidak perlu membacanya. Hanya sesuai untuk senario tertentu tertentu. . .
Biasanya apabila saya menghadapi masalah dengan volum data yang besar. Saya akan sentiasa memikirkan sama ada data besar ini boleh dibahagikan. Contohnya. Saya mahu cache senarai data. Saya hanya boleh cache id. Saya mendapat data khusus melalui ID (semua dicache). Sudah tentu, situasi khusus perlu dianalisis berdasarkan kes demi kes. Selain itu, jika anda bersiri, ia akan menjadi sangat perlahan. Apabila anda perlu memproses json ini. Membaca dan menghurai juga menjadi masalah
Gelung boleh mempertimbangkan kata kunci hasil untuk menyelesaikan penggunaan memori.
json_encode Ini terlalu kabur.
Jika anda hanya menyimpan dan memanggil parsing dengan php sendiri, anda boleh menggunakan kaedah bersiri, yang mempunyai prestasi yang jauh lebih tinggi daripada Json_encode.
Jawapan saya untuk soalan itu tidak menyeluruh, jadi anda tidak perlu membacanya. Hanya sesuai untuk senario tertentu tertentu. . .
Biasanya apabila saya menghadapi masalah dengan volum data yang besar. Saya akan sentiasa memikirkan sama ada data besar ini boleh dibahagikan. Contohnya. Saya mahu cache senarai data. Saya hanya boleh cache id. Saya mendapat data khusus melalui ID (semua dicache). Sudah tentu, situasi khusus perlu dianalisis berdasarkan kes demi kes.
Selain itu, jika anda bersiri, ia akan menjadi sangat perlahan. Apabila anda perlu memproses json ini. Membaca dan menghurai juga menjadi masalah