首頁 > 後端開發 > php教程 > 海量日记入库

海量日记入库

WBOY
發布: 2016-06-13 11:46:10
原創
887 人瀏覽過

海量日志入库
日志目录下有10个日志文件,每个文件压缩后大约60M左右,文件后缀是.gz,如a.gz、b.gz等,文件中行的内容是id=2112112,[email protected],等等其它,
id=2112112,[email protected],等等其它,
id=2112112,[email protected],等等其它,
id=2112112,[email protected],等等其它,
id=2112112,[email protected],等等其它,
id=2112112,[email protected],等等其它,
id=2112112,[email protected],等等其它,

现在是想把这个目录下的每个文件的所有内容insert到数据库中,数据库中的表,是通过email分表的,大约是log_1,log_2,一直到log_1000的分表的,请问下详细的解决方案,比如说怎么样能保证到每个文件在很快的时间内入库,使得脚本执行更有效率
先贴一段代码

<br />	<?php<br />		error_reporting(E_ALL & ~E_NOTICE);<br />		//接收参数<br />		$mysql_host  = XX.XX.XX.XX;<br />		$mysql_user  = XXX;<br />		$mysql_pass  = XX;<br />		$mysql_port  = 3306;<br />		$mysql_db    = 'test';		<br />		$table_pre   = 'log_';<br />		$gz_log_file = a.gz;<br />		//脚本执行日志<br />		$exec_log = '/data_log/record.txt';	<br />	    file_put_contents ($exec_log,'*****************************************START***********************************'."\r\n",FILE_APPEND );<br />		file_put_contents ($exec_log,'param is mysql_host='.$mysql_host.' mysql_user='.$mysql_user.' mysql_pass='.$mysql_pass.' mysql_port='.$mysql_port.' mysql_db='.$mysql_db.' table_pre='.$table_pre.' gz_log_file='.$gz_log_file.' start_time='.date("Y-m-d H:i:s")."\r\n",FILE_APPEND );		<br />		//读日志入库		 <br />		$z_handle = gzopen($gz_log_file,'r');<br />		$time_start = microtime_float();<br />		$mysql_value_ary = array();<br />		//链接数据库<br />		$conn = mysql_connect("$mysql_host:$mysql_port",$mysql_user,$mysql_pass);<br />		if (!$conn) {<br />			file_put_contents ($exec_log,'Could not connect database error, error='.mysql_error()."\r\n",FILE_APPEND );	<br />			exit;<br />		}<br />		$selec_db = mysql_select_db($mysql_db);<br />		if(!$selec_db){<br />			file_put_contents ($exec_log,'select database error, database='.$mysql_db."\r\n",FILE_APPEND );	<br />			exit;<br />		}<br />		while(!gzeof($z_handle)){<br />			$each_gz_line = gzgets($z_handle, 4096);<br />			$line_to_array = explode("\t",$each_gz_line);<br />			//过滤无效日志<br />			if(!empty($line_to_array[3]) && !empty($line_to_array[2]) && !empty($line_to_array[4])){<br />				$insert_value = "('".$line_to_array[3]."','".$line_to_array[2]."','".$line_to_array[1]."','".$line_to_array[4]."','".$line_to_array[0]."') ";<br />				$insert_sql = "insert into $table_name (uid,email,ip,ctime) values $insert_value ";<br />				$table_id = abs(crc32($line_to_array[2]) % 1000);<br />				$table_name = $table_pre.$table_id;<br />				$result = mysql_query($insert_sql); <br />				if(!$result){<br />					//如果插入错误,则记录日志<br />					file_put_contents ($exec_log,'table_name='.$table_name.' email='.$line_to_array[2]."\r\n",FILE_APPEND );	<br />				}<br />			}<br />		}<br />		$time_end = microtime_float();<br />		$diff = $time_end - $time_start;<br />		file_put_contents ($exec_log,'success to insert database,log_file is '.$gz_log_file.' time-consuming is='.$diff."s \r\n",FILE_APPEND );<br />		file_put_contents ($exec_log,'*******************************************END***********************************'."\r\n",FILE_APPEND );<br />		gzclose($z_handle);	<br />
登入後複製

上面的代码执行起来,很慢,不可忍受,请大牛帮忙
------解决方案--------------------
表类型修改为:InnoDB,然后用事务实施,
还不行的话,换load file
------解决方案--------------------
对于innodb,开事物应该不会更慢,因为就算不开,每一条语句也都是一个事物,所以如果是只开启一个事物,最后commit一次,应该会比每条语句都begin一下,commit一下要快的(但我记得开了事物也不会快多少);但myisam在只有一个插入线程执行,并且表内总数据量比较小的场合下,肯定比innodb要快的,尤其是只有60M数据的环境下

load data infile 绝对会快很多,但你文件得先转换成另一个"xxx \t xxx"的形式,然后再load data infile,应该比一条条插入能快几倍
------解决方案--------------------
load data吧,load进去以后比对一下条数,别搞什么事务。出错几率很低的,即使出错了,删除以后重新导入也快。PS,这数据不叫海量数据。
------解决方案--------------------
不知道为什么要放在数据库中
按你的描述,数据文件展开后,每个在 60*20M左右,甚至更高
你一条一条的插入,不慢才怪呢
------解决方案--------------------
历史数据入库,只是一次性工作。无所谓“效率”
你可以直接将文件导入 text 字段后,再由 update 指令拆分

如果不打算修改日志处理方式,那么将日志增量追加入库也只是一个定期工作(周期至少大于等于1天)
同样也没效率的概念

相關標籤:
來源:php.cn
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板