robots文件格式

 robots文件往往放置于根目录下,包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL, or NL作为结束符),每一条记录的格式如下所示:
“<field>:<optional space><value><optionalspace>”

 在该文件中可以使用#进行注解,具体使用方法和UNIX中的惯例一样。该文件中的记录通常以一行或多行User-agent开始,后面加上若干DisallowAllow,详细情况如下:
        User-agent:该项的值用于描述搜索引擎robot的名字。在“robots.txt”文件中,如果有多条User-agent记录说明有多个robot会受到“robots.txt”的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则对任何robot均有效,在“robots.txt”文件中,“User-agent:*”这样的记录只能有一条。如果在“robots.txt”文件中,加入“User-agent:SomeBot”和若干DisallowAllow行,那么名为“SomeBot”只受到“User-agent:SomeBot”后面的 DisallowAllow行的限制。

Disallow:
该项的值用于描述不希望被访问的一组URL,这个值可以是一条完整的路径,也可以是路径的非空前缀,以Disallow项的值开头的URL不会被 robot访问。例如“Disallow:/help”禁止robot访问/help.html/helpabc.html/help/index.html,而“Disallow:/help/”则允许robot访问/help.html/helpabc.html,不能访问/help/index.html“Disallow:”说明允许robot访问该网站的所有url,在“/robots.txt”文件中,至少要有一条Disallow记录。如果“/robots.txt”不存在或者为空文件,则对于所有的搜索引擎robot,该网站都是开放的。

Allow:
该项的值用于描述希望被访问的一组URL,与Disallow项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以Allow项的值开头的URL 是允许robot访问的。例如“Allow:/hibaidu”允许robot访问/hibaidu.htm/hibaiducom.html/hibaidu/com.html。一个网站的所有URL默认是Allow的,所以Allow通常与Disallow搭配使用,实现允许访问一部分网页同时禁止访问其它所有URL的功能。

使用“*”and”$”Baiduspider支持使用通配符“*”“$”来模糊匹配url
        “*” 匹配0或多个任意字符
         “$” 匹配行结束符。

最后需要说明的是:百度会严格遵守robots的相关协议,请注意区分您不想被抓取或收录的目录的大小写,百度会对robots中所写的文件和您不想被抓取和收录的目录做精确匹配,否则robots协议无法生效。

文章为作者独立观点,不代表站长派立场,本文链接:https://zhanzhangpai.com/?p=1622

免责声明:本站部分内容来源互联网整理,如有侵权请联系站长删除。站长邮箱:1245911050@qq.com

(0)
上一篇 2022年3月15日 下午3:46
下一篇 2022年3月15日 下午3:50

相关推荐

  • 什么是网站页面优化?网站页面优化包含哪些内容?

    在常规网站中一般会存在首页、目录页(或聚合列表页)、内容页、专题页等几类页面。不论网页的样式多么丰富,再怎样变化都可以被抽象出一个模版来,搜索引擎会针对不同类型的网页使用不同的抓取…

    2022年3月12日
  • 遇Baiduspider抓取,反馈时间多久合适

    进入移动时代,同学们肯定会发现,百度官方和各知名SEO大拿们都在不断强调一个词:速度!最重要的莫过于,从用户点击搜索结果到页面完全加载完毕,不可超过3秒,否则有可能被限制展现(因为…

    2022年2月7日
  • 同一个网页多个快照的原因

    有不少朋友都发现了不同的搜索词或搜索方式,得到同一个网页的百度快照时间可能是不同的。 搜索引擎更新索引的过程,并不是一个新索引替换老索引的过程,对于一个重要的网页,百度可能会同时保…

    2022年2月27日
  • 谷歌SEO-什么是站外 SEO?它为什么重要?

    为内容倾注了心血,Google 排名却一直举步维艰?你的站外搜索引擎优化(以下简称 站外 SEO)工作(或者缺乏这项工作)可能是罪魁祸首。 SEO 工作可以分成两个板块:站内 SE…

    2022年2月18日
  • 谷歌SEO:哪些内容容易被搜索引擎判定为垃圾内容

    稀薄的内容 虽然网站通常拥有不同主题的独特页面,但较旧的内容策略是为关键字的每次迭代创建一个页面,以便针对那些高度具体的查询在第 1 页上排名。 例如,如果您销售婚纱,您可能已经为…

    2022年2月20日
  • 百度搜索内容权威性解读

    如何定义权威性? 如何判断一个结果的权威性?官方寻址和权威性的关系是什么?…… 关于权威性那些事儿,百度搜索产品经理李彤从权威性在百度搜索中的作用、如何定义权威性、如何判断权威性和…

    2022年12月30日
  • 搜索引擎是如何分析链接的?链接分析算法的目的是什么?

    本篇文章站长博客介绍搜索引擎是如何分析链接的?链接分析算法的目的是什么? 整个互联网上的网页因为有了链接,才被织成了一张网。网页之间的链接关系在一定程度上反映了每个网页各自的重要程…

    2022年2月24日
  • 什么是内链,常见的内链类型

    什么是内链? 内链其实很好理解,“内”也就是说内部的,“链”自然是指链接、点击可跳转的链接。那么内链:就是说网站内部(同一域名)中的页面与页面之间的链接(自己网站的内容链接到自己网…

    2022年3月15日
  • 常见的网站数据分析思路

    随着互联网的越来越成熟,网络营销的风头逐渐开始盖过传统营销了,像双11,618大促等,一个普通的日子居然成了电商一年中成交最多的节日,这无疑是电商们的成功。在企业利用网站营销的今天…

    2022年3月15日
  • 谷歌SEO-2022年年应该如何优化谷歌精选摘要

    你希望在不借助外链或者内容更改就能够参与谷歌第一位的排名吗?利用好谷歌精选摘要就可以帮你实现这一点。 精选摘要通常显示在谷歌搜索结果的最顶部。它们通过从排名靠前的页面中提取相关内容…

    2022年2月1日