比较详细的robots.txt协议文件写法

【虚拟资源买卖网www.cnused.com】源码虚拟资源交易平台,免费开通VIP商户!
吆喝资源网官方客服QQ:787749153官方唯一QQ号码
文字广告位招租      好位置不等人!200元/月

很多建站系统,在建成网站后,都网站根目录,默认有robots.txt协议文件。在网站优化竞争日益加剧的今天,原本设立之初无优化因素的robots.txt文件也被最大化使用,掌握其写法,有备无患。

一:robots.txt协议文件有什么用?

搜索引擎访问一个网站的时候,最先访问的文件就是robots.txt。她告诉搜索引擎蜘蛛,哪些网站页面可以被抓取,哪些禁止抓取。表面来看,这个功能作用有限。从搜索引擎优化的角度来看,可以通过屏蔽页面,达到集中权重的作用,这,也是优化人员最为看重的地方。

以某seo站点为例,其robots.txt文件如图所示:

robots.txt协议文件展示

二:网站设置robots.txt的几个原因。

1:设置访问权限保护网站安全。

2:禁止搜索引擎爬取无效页面,集中权值到主要页面。

三:怎么用标准写法书写协议?

有几个概念需掌握。

User-agent表示定义哪个搜索引擎,如User-agent:Baiduspider,定义百度蜘蛛。

Disallow表示禁止访问。

Allow表示运行访问。

通过以上三个命令,可以组合多种写法,允许哪个搜索引擎访问或禁止哪个页面。

四:robots.txt文件放在那里?

此文件需放置在网站的根目录,且对字母大小有限制,文件名必须为小写字母。所有的命令第一个字母需大写,其余的小写。且命令之后要有一个英文字符空格。

五:哪些时候需要使用该协议。

1:无用页面,很多网站都有联系我们,用户协议等页面,这些页面相对于搜索引擎优化来讲,作用不大,此时需要使用Disallow命令禁止这些页面被搜索引擎抓取。

2:动态页面,企业类型站点屏蔽动态页面,有利于网站安全。且多个网址访问同一页面,会造成权重分散。因此,一般情况下,屏蔽动态页面,保留静态或伪静态页面。

3:网站后台页面,网站后台也可以归类于无用页面,禁止收录有百益而无一害。

本站除了提供seo相关知识,seo优化教程之外,还有有企业网站源码,公司网站源码,php网站源码,而且大多数网站源码都是是经过站长测试,本站现跟各位网友分享出来,吆喝资源网专注提供源码下载,素材下载,视频教程下载,图纸下载,论文下载等虚拟资源,包括网站源码下载,企业网站源码,PHP网站源码,免费素材下载,ps素材下载,ppt素材下载,海报素材下载,图片素材下载,别墅图纸下载,cad图纸下载,建筑图纸下载,视频素材下载,瑜伽视频教程下载,php视频教程下载,java视频教程下载,化工,建筑,机械论文等资源下载,是一个学习资料分享的资源性网站!

本文来源网络,其内容均为发表者提供,文章内容系作者个人观点,不代表本站对观点赞同或支持。如需有侵权,请在7日内联系本站客服进行处理,否则视为放弃追究权利,客服QQ:787749153,请注明。
1

发表评论