set_time_limit()能被系统屏蔽吗?有没有别的备份大量文件数据的方法?

chinnywu 2005-09-20 03:10:16
原先用set_time_limit()就管用,可最近发现不管用了,总共才十几秒就中止了,连www服务也被停了几分钟。我用的是万网的PHP空间。

我需要备份一个文件夹的内容,里面有5000多个文档,数据本身不大,1K左右/文档。我该怎么备份啊?我用的是while循环,文档名没有规律。
...全文
292 12 打赏 收藏 转发到动态 举报
写回复
用AI写文章
12 条回复
切换为时间正序
请发表友善的回复…
发表回复
adomain 2005-10-10
  • 打赏
  • 举报
回复
oh
ashchen 2005-10-10
  • 打赏
  • 举报
回复
买的空间啊?那就比较麻烦点
用系统命令是最好的
php备份可以查看一些论坛的备份方法
chinnywu 2005-10-10
  • 打赏
  • 举报
回复
谢谢各位帮忙!

<?php
`tar -czf backup.gz 备份目录`;
header("Location: backup.gz");
?>
问了空间服务提供商怎么解压缩,回答是:
tar解压缩命令是:tar -xvf file,请注意将php文件权限设置为755才可以执行。

不知道“将php文件权限设置为755才可以执行”是什么用意?
我改了也没反应。
哪位朋友知道?
谢谢!
uuq 2005-10-10
  • 打赏
  • 举报
回复
你不要读取文件内容。直接复制到一个目录就可以了
打包以前我发现有一个程序可以打包成zip格式
fox1999 2005-10-10
  • 打赏
  • 举报
回复
看看 PHPMyAdmin 。它可以把数据压缩后下载。
chinnywu 2005-09-24
  • 打赏
  • 举报
回复
自己顶一下
chinnywu 2005-09-22
  • 打赏
  • 举报
回复
大家有什么改进的建议吗?
chinnywu 2005-09-21
  • 打赏
  • 举报
回复
谢谢xuzuning(唠叨)!

如果是tar的话,到时怎么还原呢?tar的参数都忘光了。
还有,如adomain所遇到的,win 2k下怎么办,好像没有tar啊?我自己的开发环境就是win 2k。

现用的主要代码如下。因为要读取内容,还要接拼,所以可能时间比较长,5000个文档需要一两分钟。有没有基于此的优化算法?

$handle = opendir("$DirPath");
set_time_limit();
$AllTxt = "";
while (($FileName = readdir($handle))) {
if (($FileName != "..") && ($FileName != ".")){
$Txt = ReadFromFile("$DirPath/$FileName");
$AllTxt = $FileName." |||
<br>
".$Txt."
<br>
--------------------------------------------------
<br>
".$AllTxt;
}
}
closedir($handle);
WriteToFile($AllTxt,"$BackupDirPath/$DirPath.dat");
adomain 2005-09-20
  • 打赏
  • 举报
回复
<?php
`tar -czf backup.gz 备份目录`;
header("Location: backup.gz");
?>
怎么没反应啊?我在windows 2000 pro上试的
gu1dai 2005-09-20
  • 打赏
  • 举报
回复
你的程序应该有问题,5k个1k左右的文档备份怎么会要10几秒。
xuzuning 2005-09-20
  • 打赏
  • 举报
回复
1、任何php函数都可以被屏蔽
2、读写一个文件的时间即便对100m主频的机器也不会超过50微秒。因此,操作5000多个文档应该在数秒中完成
3、你没有提供备分文件的有效信息,无法给出建议
Meteorlet 2005-09-20
  • 打赏
  • 举报
回复
<?php
`tar -czf backup.gz 备份目录`;
header("Location: backup.gz");
?>

21,891

社区成员

发帖
与我相关
我的任务
社区描述
从PHP安装配置,PHP入门,PHP基础到PHP应用
社区管理员
  • 基础编程社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧