分析 3000 萬個海量字串
在處理大量資料時,遇到「記憶體不足」錯誤可能會令人困惑。考慮以下情境:您正在使用curl 檢索約3,050 萬個字元的CSV 檔案。嘗試使用常用方法(例如按 r 和 n 進行爆炸)將此資料分解為行數組會觸發可怕的記憶體分配錯誤。這就提出了一個問題:如何在有效操作大量資料的同時避免此類錯誤?
避免記憶體分配錯誤的策略
如先前的回覆中敏銳指出的:
替代方法:使用自訂流包裝器
雖然CURLOPT_FILE 透過將資料寫入檔案有效解決了該問題,但某些情況下可能需要記憶體中處理。在這種情況下,實作自訂流包裝器提供了一個可行的解決方案。
範例流包裝器:
class MyStream { protected $buffer; function stream_open($path, $mode, $options, &$opened_path) { return true; } public function stream_write($data) { $lines = explode("\n", $data); $lines[0] = $this->buffer . $lines[0]; $this->buffer = $lines[count($lines)-1]; unset($lines[count($lines)-1]); // Perform your processing here var_dump($lines); echo '<hr />'; return strlen($data); } }
註冊流包裝器:
stream_wrapper_register("test", "MyStream");
註冊流包裝器:
// Configure curl using CURLOPT_FILE curl_setopt($ch, CURLOPT_FILE, fopen("test://MyTestVariableInMemory", "r+")); // Execute curl to retrieve data from the source curl_exec($ch); // Close the stream fclose($fp);
以上是如何在不耗盡記憶體的情況下處理3000萬個海量字串?的詳細內容。更多資訊請關注PHP中文網其他相關文章!