颠覆传统,我有担当 学SEO只选有担当的机构
首页 >SEO培训教程 > 如何创建Robots.Txt文件

如何创建Robots.Txt文件

优就业SEO学院2016-09-02 10:39:40来源:优就业SEO学院
大家都知道,百度蜘蛛Spider访问某一网站时,首先访问的是网站根目录下面的Robots.Txt文件,如果文件下面的协议标明可以让蜘蛛Spider进行访问的话,那蜘蛛就会继续按深度优先访问或广义优先访问的模式进行抓取网站的内容.

那如何设置Robots.Txt文件呢!详细的设置参考如下

User-agent:该项的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,如果有多条User-agent记录说明有多个robot会受到"robots.txt"的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则对任何robot均有效.

Disallow:该项的值用于描述不希望被访问的一组URL,这个值可以是一条完整的路径,也可以是路径的非空前缀,以Disallow项的值开头的URL不会被 robot访问。例如"Disallow:/help"禁止robot访问/help.html、/helpabc.html、/help/index.html,而"Disallow:/help/"则允许robot访问/help.html、/helpabc.html,不能访问/help/index.html。

Allow:该项的值用于描述希望被访问的一组URL,与Disallow项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以Allow项的值开头的URL 是允许robot访问的。

使用"*"and"$":Baiduspider支持使用通配符"*"和"$"来模糊匹配url。

"*" 匹配0或多个任意字符

"$" 匹配行结束符。

最后需要说明的是:百度会严格遵守robots的相关协议,注意区分您不想被抓取或收录的目录的大小写,百度会对robots中所写的文件和您不想被抓取和收录的目录做精确匹配,否则robots协议无法生效.

相关文章

网站误封Robots该如何处理

免责声明:本文来源于网络,由网友提供或网络搜集,仅供个人交流学习参考使用,不涉及商业盈利目的。如有版权问题,请联系本站管理员予以更改或删除。谢谢合作!

热门标签:
如何创建Robots Txt文件 Robots
收藏人收藏
3

相关文章

最新文章

专业的SEO培训机构

师资团队教学环境关于我们联系我们学员体验热门标签

Copyright©1999-{date('Y')} 北京中公教育科技股份有限公司 .All Rights Reserved
京ICP备10218183号-88 京ICP证161188号 京公网安备11010802020723号