python导出大量数据库的数据太慢的问题
python导出大量数据到csv太慢问题解决
最近项目要求,写了一个定时导出到数据库的数据到csv的脚本(大概每天一千五百万条左右)。
我最开始使用了自带的csv,分批次每次导出一千条,刚开始导出很顺利也很快,每次只需要零点几秒,随着数据处理的越来越多导出的速度就越来越慢,到最后导出一千条需要十几分钟甚至半个小时。
然后我换成了pandas,问题并没有得到解决,也百度了很多发现python并没有很好的解决办法,最后转念一想既然python不行那我就用mysql自带的导出语句啊。(其实这个解决办法有的人可能会很快的想到,但我相信应该也有人跟我一样就想着用python解决)
所以话不多说,直接上语句
select * from data_list into outfile "C:/Users/Administrator/Desktop/test1.csv"
这样就能很快的把所有数据都导出来了。
注:路径里面不要有中文 这样导出来的数据是没有经过处理也不带表头的
需要的话可以看我另一篇文章mysql导出csv文件不带表头处理
本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!
