> 백엔드 개발 > PHP 튜토리얼 > php读取大文件的一点疑问

php读取大文件的一点疑问

WBOY
풀어 주다: 2016-06-23 14:06:30
원래의
935명이 탐색했습니다.

我要分析一个6G的log文件,比对每行文件是否符合我的要求,程序如下

$file_path = 'd:\work\workplace\test\file\system.log';$file = fopen($file_path, 'r');$key = md5(0);$i = 1;while (!feof($file)) {    $buff = fgets($file);    if ($buff == $key . "\r\n")    {        echo "find 0 at Line {$i}\r\n";    }    $i ++;}fclose($file);
로그인 후 복사

我想问下这样性能怎么样吗,不会出现内存泄露或其他问题吧,还有进一步优化的方法吗?


回复讨论(解决方案)

你需要先将这个文件分割成若干个小文件 
然后循环读取每个小文件即可!

linux 下 $ split -b 
分割···

linux 下 $ split -b 
分割···
为什么要分割啊,用fgets不是每次只去一行,并没有把文件都读取进内存啊

我建议你用fgets时最好制定读取的字符数,不要一行一行的读,6G的文件说不定某一行会很长!

现在可以肯定每一行不会很长,应为日志是按规定格式存取的

哦,那你看着办吧!呵呵,我只是建议!

哦,那你看着办吧!呵呵,我只是建议!
我的确也看到有的人像你那样做,但是如果不是一下子读入内存,应该不比那样吧,切割文件和删除临时文件还有消耗,这是我个人感觉,有不对的情指出

6G的文本文件……

你咋能整这么大的文件?
日志应该按天或者按周、按月来记,超过一定大小就新建一个文件

应该分成多个文件

6G的文本文件……

你咋能整这么大的文件?
日志应该按天或者按周、按月来记,超过一定大小就新建一个文件

应该分成多个文件
我们公司的行为日志,一天6G

可以,没有问题。就是很费时间

仅就代码而言,可以缩减一点
$file_path = 'd:\work\workplace\test\file\system.log';
$file = fopen($file_path, 'r');
$key = md5(0);
$i = 1;
while ($buff = fgets($file)) {
    if ($buff == $key . "\r\n")
    {
        echo "find 0 at Line {$i}\r\n";
    }
    $i ++;
}
fclose($file);

如果一次读取的多一点(比如1M)可能要快一点。不过算法要复杂些

做这种东西,不是php的长项

要不搞WEB的话,还是换其它程序搞吧。

引用 9 楼 baiyuxiong 的回复:

6G的文本文件……

你咋能整这么大的文件?
日志应该按天或者按周、按月来记,超过一定大小就新建一个文件

应该分成多个文件

我们公司的行为日志,一天6G

如果用shell怎么写啊,求达人,没有也很感谢大家

后来呢?怎么解决了嘛??

我用的fgets读的文件,也不算大吧,150M的一个csv文件,18秒钟,用fgets按行读的话(已知不会出现很长的行),需不需要再用fseek来设定文件指针?可以提高效率吗?

원천:php.cn
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
최신 이슈
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿