首页 > php教程 > php手册 > php有规律大文件的读取与写入

php有规律大文件的读取与写入

WBOY
发布: 2016-06-13 11:33:39
原创
817 人浏览过

   这几天在做一个东西.研究PHP读取行数较多的文件(大概上百万行).考虑到效率问题.进行了简单的研究.总结如下

  第一条.file()函数的效率问题.

  file()函数的效率很底下 如果是有规律的文件.比如每行一条相应数据.那么尽量不要是用file()函数

  可以使用file_get_contents()然后用explode切割.这样效率会快三分之一

  举个例子:

  文件样式如下:

  11111n

  22222n

  33333n

  44444n

  55555n

  .....n

  nnnnnnnnnnnn

  如果用file($file)读入的话.耗时很长.

  可以用如下方法explode("n",file_get_contents($file));效率会快很多.

  第二条,数组的遍历方式.

  数据已经被读入数组了.下面就是遍历了.

  我所需要的是确定数组中有无一个值的存在,比如说44444是否在数组中.首先想到的是in_array()

  不过实验了下发现效率很低下.于是参考别人的代码想到一个办法.把数组翻转过来.变成所有值都为1.原来的值变成了索引.那么只要我在if里写($arr[索引]==1)去判断.果然效率高出很多.

  在数组的遍历过程中.如果数组个头非常大,并且数组中的数据并不是全能用到的话,最好把用来遍历的数组抽出来.这样会提高很多效率.

  第三条,数组的存储.

  把计算过后的数据保存起来.存在一个文件中.考虑了三种方法.一种是直接写成php文件.一种是serialize,一种是json串.

  第一种方式

  直接写入文件保存成PHP

  需要的时候直接require进来.

  第二种方式.把变量serialize然后file_put_contents()进入文件.使用的时候unserialize就ok.

  第三种方式和第二种类似.只不过写成了json串.

  经过测试.发现第二种效率最高.第三种其次.和第二种效率不相上下.第一种最慢.和我预想的差距很大.真是大跌眼镜.

来源:php.cn
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
热门推荐
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板