求采集页数多里,怎样分开一部分一部分采
连接$url=array()里面一共有1000个页面的URL地址,
我写了一个采集类
foreach ($url as $key => $value){
$get_json_contetns = $caiji->getJson($value);
$excel_contetns[] = $caiji->getContents($get_json_contetns,$key);
}
像这样循化出来的$excel_contetns 就是我要采集的内容。
当我采集50页以下,还好,当页数多了,就采集超时了,还请大侠指点一下,我怎么处理一下???