搜索引擎是怎么防止恶意搜索抓取页面的,大家探讨下

h420943302 2013-01-22 05:41:28

有人说 是通过 ip 或者 一定时间的访问量 是不是还有什么其他
比如搜狗
我用浏览器直接 搜索 可以
但是用 php或者其他脚本语言 去抓取 就会出现 让你输入验证码的页面
怎么破
...全文
147 3 打赏 收藏 转发到动态 举报
写回复
用AI写文章
3 条回复
切换为时间正序
请发表友善的回复…
发表回复
h420943302 2013-01-24
  • 打赏
  • 举报
回复
我用php去抓 就会被屏蔽掉 而用 外部 浏览器去访问 就正常 php怎么模拟为外部浏览器
h420943302 2013-01-24
  • 打赏
  • 举报
回复
我是问怎么破。。。
henry_fuzr 2013-01-24
  • 打赏
  • 举报
回复
1.php或者其他脚本语言 去抓取 就会出现 让你输入验证码的页面 这不行的,浏览器请求都可以模拟的。 2.还是要限ip,不过限ip也可以通过动态代理来规避。 3.一般都不会防抓吧 互联网精神讲的就是一种开放精神。 4.非得要防抓的东西一般做权限控制

2,760

社区成员

发帖
与我相关
我的任务
社区描述
搜索引擎的服务器通过网络搜索软件或网络登录等方式,将Internet上大量网站的页面信息收集到本地,经过加工处理建立信息数据库和索引数据库。
社区管理员
  • 搜索引擎技术社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧