文件太大了,考虑使用分段处理,每次返回一小段。如果执行时间无限长的话服务负载大,极有可能使用。
创新互联公司是一家专业提供囊谦企业网站建设,专注与网站建设、网站设计、H5场景定制、小程序制作等业务。10年已为囊谦众多企业、政府机构等服务。创新互联专业网站设计公司优惠进行中。
框架用的是ci,数据库是sqlsrv(sql server 2008),sql查询返回的结果集有2万条数据,我在ci框架里面执行这个sql语句,网页一直在转圈,2万条数据要转30秒左右,但是我的sql语句在sql server 2008 R2 里面执行 是秒查,在ci里面用自带查询sql执行时间是200毫秒,,说明我的语句并不慢。个人觉得应该是返回数据太多导致慢的,返回的是2万条数据,20个字段左右,,因为我做的是统计 ,要把数据导出成csv文件,所以数据比较多,这个该怎么处理?
我的sql 语句是select * from table where create_time between 'xxxx-xx-xx 00:00:00' and 'xxxx-xx-xx 23:59:59'; 是根据时间段来的 如果用户选择的时间范围小 那数据就少 如果范围大 那数据就大 数据大的时候就很慢
public function aa(){
$sql ="select * from table where create_time between 'xxxx-xx-xx 00:00:00' and 'xxxx-xx-xx 23:59:59'";
$result=$this-db-query($sql)-result_array();
}
这已经是最简单的查询了,sql语句秒查,但是用浏览器执行就很慢,
我在浏览器里面执行 , 如果查询结果几万条的话 浏览器就一直转圈,要等四十多秒,500条足有数据是3、4秒
我在想是不是result_array()这一步 需要循环需要花费太多的时间,本身记录就有几万条,然后还有二十个字段
==============2017-05-16 16:01更新===============
我没有用ci框架自带的result_array() ,查看ci框架文档的时候看到一段话:
经常的,你会需要提供一个数据库的 connection ID 或是一个 result ID, connection ID 可以这样来
$this-db-conn_id;
result ID 可以从查询返回的结果对象获取,像这样:
$query = $this-db-query("SOME QUERY");
$query-result_id;
于是我修改了我的代码 拿 result_id 去循环读取每条记录
$sql ="select xxx";
$query=$this-db-query($sql);
//这里因为我用的是sqlsrv 所以使用的是sqlsrv_fetch_array 来循环读取每一行
//然后每读一行 就写如csv文件
while($row=sqlsrv_fetch_array($query-result_id,SQLSRV_FETCH_ASSOC)){
//这里是把row 写入csv文件的代码
}
具体的代码就是下面了
$sql="xxx";
$query=$this-db-query($sql);
$filename= "CostDetail.csv";//导出的文件名
header('Content-Type: application/vnd.ms-excel');
header('Content-Disposition: attachment;filename="'.$filename.'"');
header('Cache-Control: max-age=0');
// 打开PHP文件句柄,php://output 表示直接输出到浏览器
$fp = fopen('php://output', 'a');
// 输出Excel列名信息
$head = array(xxx);
foreach ($head as $i = $v) {
// CSV的Excel支持GBK编码,一定要转换,否则乱码
$head[$i] = iconv('utf-8', 'gbk', $v);
}
// 将数据通过fputcsv写到文件句柄
fputcsv($fp, $head);
// 计数器
$cnt = 0;
// 从数据库中获取数据,为了节省内存,不要把数据一次性读到内存,从句柄中一行一行读即可
$limit = 5000;
while ($row=sqlsrv_fetch_array($query-result_id,SQLSRV_FETCH_ASSOC)){
$cnt ++;
if ($limit == $cnt) { //刷新一下输出buffer,防止由于数据过多造成问题
ob_flush();
flush();
$cnt = 0;
}
//这里是把每个字段的编码转成gbk
$newRow[] = $this-_mb_convert_encoding($row['edis_orgsoid']);
....
unset($row);
fputcsv($fp, $newRow);
unset($newRow);
}
exit;
这样能导出文件 但是我看了一下 19204行的,16列 的csv文件 3M左右 , 需要40-45秒的时间才能导出好,,我想问这时间还能优化的再快点吗
关于csv格式
如果内容中有逗号,可以把整个字段用引号括起来,具体可参考百度百科csv。
例如
字段1,“字段2带,号”,字段3
其实,关键在于php读取csv的规则,csv并不是一定要用逗号,也可以是分号等其他符号。
改一下对应的php读取规则即可。