php+mysql批量插入数据有关问题

WBOY
Freigeben: 2016-06-13 13:39:13
Original
790 Leute haben es durchsucht

php+mysql批量插入数据问题
我写了一个批量导入数据的代码。
过程是这样的,先读取一个数据表中的数据,然后将其插入到新的表中。
第一次,我先是全部读取,然后一起插入。结果出错,应该是数据量过大。

第二次,我修改了一下代码,先导入前150条,当用户单击“继续”的时候导入下150条,这样反复,发现一般导入450条到600条的时候就会报错。如果导入300条后等几秒后再单击“继续”的时候。导入就会正常。

请问各位大虾,有什么好办法解决这种从一个数据表读取大量数据导入到另一个数据表的方法吗???

------解决方案--------------------
找到php.ini文件中的max_execution_time这一项,把值改大就可以了
估计一下你的数据导完的时间大概是多少,设置相应的值。
前一段时间我就是这样做的,我设置的是30000。
------解决方案--------------------
一般都使用mysql命令行导出,再以mysql命令行导入.(mysqldump,mysqlimport,source...)
或者用phpmyadmin的代码运行导出导入了(碰到大文本要注意php.ini的一些设置,memory_limit,upload_max_filesize..)
------解决方案--------------------
连接mysql,执行插入操作后,及时退出。
可能跟mysql连接数有关。
------解决方案--------------------
学习!!
------解决方案--------------------
学习

------解决方案--------------------
应该不会有这种情况的,可能你代码没定好,
一般来说把PHP的超时时间设为0
set_time_limit(0);来实现
然后每读取一个,就插入一条,
但在循环的时候,要记得控制内存,
另外如果记录里面有大字段的话,最好是生成SQL文件,然后用source导,
我用循环读取再导入的话最多处理过和万多条记录,也基本没事,一次搞定的。像你几百条就出错,肯定不会的。
------解决方案--------------------
MySQL 企业版的管理器试试,那个支持大数据量的操作

Verwandte Etiketten:
Quelle:php.cn
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage