thttpd cgi 下载大文件问题
fp = fopen(cmd,"rb+"))//成功打开文件,读取文件内容,打印到标准输出
do
{
nCount=fread(trans_buffer,1,sizeof(trans_buffer),fp);
fwrite(trans_buffer,nCount,1,stdout);
}while(nCount>0 && !feof(fp));
fclose(fp);
这端代码下载小文件可以 但是大文件就会断 是和自己板子的内存大小有关系吗?
有人说thttpd 会把数据先放到内存里
但是我看下载的时候内存使用率不高呀
求高手帮忙解决一下 CGI下载大文件的问题