社区
其他
帖子详情
有使用robots.txt文件经验的高人请进!
sftl25789
2008-06-27 03:28:38
用google的网站管理员工具分析网站下的robots.txt文件,但是无法读取出里面的内容
以下是对这个文件的检查信息:
最新下载 5 小时前
状态 403 (禁止)
请问为什么是403禁止访问呀?我的另一个网站就是200,访问很正常!
因为这个网站是自己的服务器,前些时候因为有黑客攻击,所以将网站的根目录的权限调的很低,是不是权限的问题?该怎么调呀?
总之,这个403(禁止)的问题怎么解决呀?
...全文
101
1
打赏
收藏
有使用robots.txt文件经验的高人请进!
用google的网站管理员工具分析网站下的robots.txt文件,但是无法读取出里面的内容 以下是对这个文件的检查信息: 最新下载 5 小时前 状态 403 (禁止) 请问为什么是403禁止访问呀?我的另一个网站就是200,访问很正常! 因为这个网站是自己的服务器,前些时候因为有黑客攻击,所以将网站的根目录的权限调的很低,是不是权限的问题?该怎么调呀? 总之,这个403(禁止)的问题怎么解决呀?
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
1 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
PHP原生代码编写富群兴SEO站群系统报名课
从此他不知道苹果可以有彩虹般的多色多彩,你告诉他写O是画一个圈圈,从此他知道圈圈读O,他不会再想象圈圈可以是太阳,也可以是月亮,还可以是星星 2. 富群兴SEO站群系统功能介绍如下: l 完全独立自主...
vulnhub吧唧——THE PLANETS: MERCURY
这里我们sudo -l列出所有可以...作为一个weber,我敏锐的嗅觉告诉我,这个shell脚本一定有问题,果不其然,沉淀之后的我就是不一样,一眼就看出(经过
高人
指点)这个tail不是绝对路径,所以我们可以在这里做下文章。
vulnhub吧唧——THE PLANETS: EARTH
我本来是想因为有22ssh服务嘛,我不知道密码我就想ssh免密登录,生成秘钥的时候我发现我只能输入一次命令,那么我生成秘钥的时候就无法按三个回车,这条路仿佛行不通,然后我就突发奇想的想ping一下kali,发现他禁止...
ffmpeg+python在windows平台和linux(ubuntu18.04)上的应用(1)
# location /
robots.txt
{ # rewrite_by_lua ' # if ngx.var.http_host ~= "localhost" then # return ngx.exec("/robots_disallow.txt"); # end # '; # } #error_page 404 /404.html; # redirect server error ...
百度收录的规律
1、网页
使用
框架(iframe),包括百度在内的所以搜索引擎都讨厌框架。 2、图片太多,文本太少。 3、
使用
了转向(网页跳转)。 4、提交太过频繁:一个月内提交2次以上。 5、网站关键词密度太大:不幸的是搜索...
其他
10,608
社区成员
29,047
社区内容
发帖
与我相关
我的任务
其他
Web 开发 其他
复制链接
扫一扫
分享
社区描述
Web 开发 其他
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章