robots.txt能提高google的抓取数量吗?

heshuang163 2012-02-21 05:27:35
测试结果
网址 Googlebot Googlebot-Mobile
http://meiaimei.tk/ 已允许
检测为目录;具体文件可能有不同限制 已允许
检测为目录;具体文件可能有不同限制

robots.txt 分析
值 结果
第 19 行:<!-- www.000webhost.com Analytics Code --> 语法有误
第 20 行:<script type="text/javascript" src="http://analytics.hosting24.com/count.php"></script> 语法有误
第 21 行:<noscript><a href="http://www.hosting24.com/"><img src="http://analytics.hosting24.com/count.php" alt="web hosting" /></a></noscript> 语法有误
第 22 行:<!-- End Of Analytics Code --> 语法有误

有什么错误,能帮我修改吗?

...全文
127 3 打赏 收藏 转发到动态 举报
AI 作业
写回复
用AI写文章
3 条回复
切换为时间正序
请发表友善的回复…
发表回复
happypiggy2010 2012-02-22
  • 打赏
  • 举报
回复
能。把不想的目录过滤掉。
helloyou0 2012-02-21
  • 打赏
  • 举报
回复
你这完全不是robots的格式
life169 2012-02-21
  • 打赏
  • 举报
回复
robots.txt 怎么能用HTML语法呢,先把语法搞清楚。

给个robots例子:
User-agent: *
Sitemap: http://xxx.xxx.xxx/sitemap/index.xml
Disallow: /admin/

21,893

社区成员

发帖
与我相关
我的任务
社区描述
从PHP安装配置,PHP入门,PHP基础到PHP应用
社区管理员
  • 基础编程社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧