[猫猫]不让百度收录自己的网站

大猫钓鱼 2006-09-16 05:25:25
最近百度很热了,正面负面新闻不少...

有兄弟问:如何让百度不收录我的网站呢?
羊毛出在羊身上,我在百度找到答案,或许有效,大家可以试试^_^
参考:
http://www.baidu.com/search/spider.html
http://www.baidu.com/search/robots.html
...全文
235 16 打赏 收藏 转发到动态 举报
写回复
用AI写文章
16 条回复
切换为时间正序
请发表友善的回复…
发表回复
iasky 2006-09-17
  • 打赏
  • 举报
回复
几乎每个搜索引擎都支持这个
大猫钓鱼 2006-09-17
  • 打赏
  • 举报
回复
俗话说百密一疏,后台做得好自然麻烦少很多了。不过这是建立在做得好的情况,有时候有些文件还是可能被忽略,譬如在线编辑器。

我们说禁止收录并不一定指全站了,有些特定文件夹和文件还是有必要隐藏起来的

防患于未然嘛^_^
xiaoqiang08 2006-09-16
  • 打赏
  • 举报
回复
让他收录你的网站还不好吗?为什么要不让他收录你的网站呢?后台做的好的话别是进不去的啊!为什么还要这样考虑呢?不明白...还是顶一下了.看看别人怎么说.
btbtd 2006-09-16
  • 打赏
  • 举报
回复
不过话说回来 robots.txt 确实很必要了解, 要不然用 google 就能很容易得到没 robots.txt 的某些敏感文件.

比如这样:
http://www.google.com/search?num=100&hl=en&lr=&newwindow=1&q=filetype%3Amdb+site%3A.cn&btnG=Search
btbtd 2006-09-16
  • 打赏
  • 举报
回复
还有一大堆没牌照的水蜘蛛呀, robots.txt 并不总是有用.
stou 2006-09-16
  • 打赏
  • 举报
回复
ding
muxrwc 2006-09-16
  • 打赏
  • 举报
回复
UP.....
大猫钓鱼 2006-09-16
  • 打赏
  • 举报
回复
嗯,各种搜索引擎是不是都会对同一个robots.txt进行搜索呢?

专业点说应该是:是否搜索引擎都遵守robot协议呢?

不知道有没有兄弟测试过^_^
slawdan 2006-09-16
  • 打赏
  • 举报
回复
ps : 上面的笑脸图标盗自兔子~
slawdan 2006-09-16
  • 打赏
  • 举报
回复
说明的意思是只要遵守书写规范
就可以使那些遵守搜索引擎规范的引擎按照自己的想法来对自己的网站进行搜索!

不错!!

*^_^*
netdust 2006-09-16
  • 打赏
  • 举报
回复
大多数都可以的,google等都是的,有不少办法,搜索引擎各自都有说明
jspadmin 2006-09-16
  • 打赏
  • 举报
回复
一般写一个spider能识别的阻止访问的robot.txt放到网站根目录就可以了
slawdan 2006-09-16
  • 打赏
  • 举报
回复
好东东啊~~

接分~
街头小贩 2006-09-16
  • 打赏
  • 举报
回复
研究一哈!友情顶一下
大猫钓鱼 2006-09-16
  • 打赏
  • 举报
回复
好像不光百度可以禁收入,其它引擎也可以

参考:
http://www.robotstxt.org/wc/exclusion-admin.html
形式是一样的

有兄弟会担心自己后台页面被收入,这倒是个可以尝试的办法。
mingxuan3000 2006-09-16
  • 打赏
  • 举报
回复
up

28,390

社区成员

发帖
与我相关
我的任务
社区描述
ASP即Active Server Pages,是Microsoft公司开发的服务器端脚本环境。
社区管理员
  • ASP
  • 无·法
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧