左岸印象
写法

分类: 服务器类 作者: 阅读: 5,708  

什么是robots.txt文件呢?

搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做robots.txt的纯文本文件。您可以在您的网站中创建一个纯文本文件robots.txt,在文件中声明该网站中不想被robot访问的部分或者指定搜索引擎只收录特定的部分。

请注意,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件或者创 建一个内容为空的robots.txt文件。

robots.txt 放置位置

放在根目录下.举列来说当spider访问一个网站(比如http://lbicc.com)时,首先会检查该网站中是否存在http://lbicc.com/robots.txt这个文件,如果机器人找到这个文件,它就会根据这个文件的内容,来确定它访问权限的范围。

阅读全文      10条评论