飞絮文博——资讯学习综合博客

专注于各种综合类资讯以及技术文章&优化等各类学习资讯

« 创业者应向《教父》学习5点领导力中国昨日大面积断网 电信联通否认骨干网故障 »

robots.txt的规则误区及百度和Google的robots工具的使用


对于robots.txt文件对于网站的作用大家都知道,但是通过观察发现,有些朋友对于robots.txt文件的规则还是有一定的误区。

比如有很多人这样写:

User-agent: *

Allow: /

Disallow: /mulu/

不知道大家有没有看出来,这个规则其实是不起作用的,第一句Allow: / 指的是允许蜘蛛爬行所有内容,第二句Disallow: /mulu/指的是禁止/mulu/下面的所有内容。

表面上看这个规则想达到的目的是:允许蜘蛛爬行除了/mulu/之外的网站所有页面。

但是搜索引擎蜘蛛执行的规则是从上到下,这样会造成第二句命令失效。

正确的规则应该是:

User-agent: *

Disallow: /mulu/

Allow: /

也就是先执行禁止命令,再执行允许命令,这样就不会失效了。

另外对于百度蜘蛛来说,还有一个容易犯的错误,那就是Disallow命令和Allow命令之后要以斜杠/开头,所以有些人这样写:Disallow: *.html 这样对百度蜘蛛来说是错误的,应该写成:Disallow: /*.html 。

有时候我们写这些规则可能会有一些没有注意到的问题,现在可以通过百度站长工具(zhanzhang.baidu.com)和Google站长工具来测试。

相对来说百度站长工具robots工具相对简陋一些:

 

 

 

百度Robots工具只能检测每一行命令是否符合语法规则,但是不检测实际效果和抓取逻辑规则。

相对来说Google的Robots工具好用很多,如图:

 

谷歌站长工具里的名称是抓取工具的权限,并报告Google抓取网站页面的时候被拦截了多少个网址。

 

还可以在线测试Robots修改后的效果,当然这里的修改只是测试用,如果没有问题了,可以生成robots.txt文件,或者把命令代码复制到robots.txt文本文档中,上传到网站根目录。

 

Google的测试跟百度有很大的区别,它可以让你输入某一个或者某些网址,测试Google蜘蛛是否抓取这些网址。

 

测试结果是这些网址被Google蜘蛛抓取的情况,这个测试对于Robots文件对某些特定url的规则是否有效。

而两个工具结合起来当然更好了,这下应该彻底明白robots应该怎么写了吧。

转载请注明来自逍遥博客,本文地址:http://liboseo.com/1170.html,转载请注明出处和链接




飞絮文博 - 版权声明
1、本网站所发文章,若有侵权请及时联系我;
2、其他单位或个人使用、转载或引用本文时必须同时征得本博客 的同意;
3、若由其他人转载所引起的任何纠纷,本网站概不负责;
4、本网站部分内容转载自其它媒体,但并不代表本站赞同其观点和对其真实性负责
5、如本帖侵犯到任何版权问题,请立即告知本站,本站将及时予与删除并致以最深的歉意


发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

加入您的收藏     设为您的主页

日历

最新评论及回复

图标汇集

广告时间

最近发表

联系邮箱:[email protected] , Powered By 飞絮视频乐园 , 鲁ICP备08128977号 , 值班站长:
本站采用创作共用版权协议, 要求署名、非商业用途和保持一致. 转载本站内容必须也遵循“署名-非商业用途-保持一致”的创作共用协议.
This site is licensed under a Creative Commons Attribution-NonCommercial-ShareAlike 2.5 License.

_×
博主强烈推荐
等待您的加盟,MV美女图库网是一个MV|美女|AV美女,美女图库下载网,集合所有美女、风景、壁纸下载网。