利用robots.txt文件查找网站后台界面

系统安装、升级讨论
版面规则
我们都知道新人的确很菜,也喜欢抱怨,并且带有浓厚的Windows习惯,但既然在这里询问,我们就应该有责任帮助他们解决问题,而不是直接泼冷水、简单的否定或发表对解决问题没有任何帮助的帖子。乐于分享,以人为本,这正是Ubuntu的精神所在。
回复
头像
chenmingbao
帖子: 141
注册时间: 2009-11-06 11:24
联系:

利用robots.txt文件查找网站后台界面

#1

帖子 chenmingbao » 2010-01-13 9:35

什么是robots.txt文件?

搜索引擎通过一种程序robot(又称spider),自动访问互联网上的网页并获取网页信息。
您可以在您的网站中创建一个纯文本文件robots.txt,在这个文件中声明该网站中不想被robot访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容。

# robots.txt文件放在哪里?

robots.txt 文件应该放在网站根目录下。举例来说,当robots访问一个网站(比如http://www.gcshome.cn)时,首先会检查该 网站中是否存在 http://www.gcshome.cn/robots.txt这个文件,如果机器人找到这个文件,它就会根据这个文件的内容,来确 定它访问权限的范围。

# robots.txt文件的格式

"robots.txt"文件包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL, or NL作为结束符),每一条记录的格式如下所示:
"<field>:<optionalspace><value><optionalspace>"。

在该文件中可以使用#进行注解,具体使用方法和UNIX中的惯例一样。该文件中的记录通常以一行或多行User-agent开始,后面加上若干Disallow行,详细情况如下:

User-agent:
该项的值用于描述搜索引擎robot的名字,在"robots.txt"文件中,如果有多条User-agent记录说明有多个robot会受到该协 议的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则该协议对任何机器人均有效,在"robots.txt"文件中, "User-agent:*"这样的记录只能有一条。

Disallow:
该项的值用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的URL均不会被 robot访问到。例如"Disallow:/help"对/help.html 和/help/index.html都不允许搜索引擎访问,而"Disallow:/help/"则允许robot访问/help.html,而不能访问 /help/index.html。任何一条Disallow记录为空,说明该网站的所有部分都允许被访问,在"/robots.txt"文件中,至少要 有一条Disallow记录。如果"/robots.txt"是一个空文件,则对于所有的搜索引擎robot,该网站都是开放的。

例如http://www.gcshome.cn/robots.txt就可以拉
如果存在就会出来一个这个目录:
User-agent: *
Disallow: /admini/
Disallow语句后面就是管理员不想让我们知道的目录
得到目录后,我们再使用方法一用工具再给他扫一遍基本就能出现后台了。
要是管理员把后台文件名改成@#$D$#$类似的,那就得算卦了。
头像
速腾1994
论坛版主
帖子: 17379
注册时间: 2008-11-01 20:43
系统: Arch+gnome

Re: 利用robots.txt文件查找网站后台界面

#2

帖子 速腾1994 » 2010-01-13 10:28

walle里有句
caution: rogue robots :em04
delectate
帖子: 18311
注册时间: 2008-01-09 22:41

Re: 利用robots.txt文件查找网站后台界面

#3

帖子 delectate » 2010-01-13 10:31

速腾1994 写了:walle里有句
caution: rogue robots :em04
玩腻的了

没用,限制登录ip,还要搞同一个机房的

有的还给你弄蜜罐,假后台,弄个网马,多了去了
回复