求php里只获取大文件http code的快速方案

游北亮
博客专家认证
2016-07-07 11:27:33
目前网上的代码都是:
$ch = curl_init('http://www.baidu.com');
curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);
curl_exec($ch);
echo curl_getinfo($ch, CURLINFO_HTTP_CODE);
curl_close($ch);


如果是小网页或小文件,上述代码是正常的,
但是如果url是一个大文件,比如几百兆或上G的,上面代码就会在curl_exec这一行报错:
Fatal error: Allowed memory size of 134217728 bytes exhausted
内存溢出了,

请问如何解决这个问题,达到Centos上命令行 curl -I http://xxx
的效果???
...全文
128 5 打赏 收藏 转发到动态 举报
写回复
用AI写文章
5 条回复
切换为时间正序
请发表友善的回复…
发表回复
游北亮 2016-07-07
  • 打赏
  • 举报
回复
而且就算文件只有几十兆, 这段代码执行也很慢,感觉就好像把整个文件下载下来了
游北亮 2016-07-07
  • 打赏
  • 举报
回复
引用 4 楼 xuzuning 的回复:
curl 直接保存到文件 CURLOPT_FILE 不读取文档内容 CURLOPT_NOBODY
谢谢,自己也找到了
xuzuning 2016-07-07
  • 打赏
  • 举报
回复
curl 直接保存到文件 CURLOPT_FILE 不读取文档内容 CURLOPT_NOBODY
游北亮 2016-07-07
  • 打赏
  • 举报
回复
关帖给分,有人回复吗?
游北亮 2016-07-07
  • 打赏
  • 举报
回复
不要用curl,php专门有一个函数获取url的头信息 get_headers

21,887

社区成员

发帖
与我相关
我的任务
社区描述
从PHP安装配置,PHP入门,PHP基础到PHP应用
社区管理员
  • 基础编程社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧