注册 登录  
 加关注
   显示下一条  |  关闭
温馨提示!由于新浪微博认证机制调整,您的新浪微博帐号绑定已过期,请重新绑定!立即重新绑定新浪微博》  |  关闭

小新之家

心灵的放松地点

 
 
 

日志

 
 

搜索引擎优化中robots.txt的妙用  

2009-07-28 14:00:10|  分类: 学习资料 |  标签: |举报 |字号 订阅

  下载LOFTER 我的照片书  |

对于robots.txt,可能一般人的观点是可写可不写,写错了还有麻烦,所以干脆不写。其实,在搜索引擎优化中,robots.txt有这么几个妙用。现在咱们一一来看下robots.txt的妙用。

  1、新站创建的时候引导蜘蛛抓取列表页。新站初建,在你的robots.txt写入网站的栏目地址以便抓取。示例如下

  # http://www.xxxxx.cn/ 网站优化的robots.txt

  User-agent: *

  Disallow: /

  Disallow: /plus/advancedsearch.php

  Disallow: /plus/car.php

  Disallow: /plus/carbuyaction.php

  Disallow: /plus/shops_buyaction.php

  Disallow: /plus/erraddsave.php

  Disallow: /plus/posttocar.php

  Disallow: /plus/disdls.php

  Disallow: /plus/feedback_js.php

  Disallow: /plus/mytag_js.php

  Disallow: /plus/rss.php

  Disallow: /plus/search.php

  Disallow: /plus/recommend.php

  Disallow: /plus/stow.php

  Disallow: /plus/count.php

  Disallow: /include

  Disallow: /templets

  采用了dedecms默认的robots.txt,个人感觉还是挺不错的。

  2、屏蔽低质量的页面收录。例如,你的一个网页是动态的页面,content.asp,通过参数id来获得不同的内容,而假如你需要增加一个参数style,以便给不同的用户显示不同样式,但是内容相同的页面,那么,对于id为1的同一个内容的页面,可能会出现好几个连接

  content.asp?id=1

  content.asp?id=1&style=red

  content.asp?id=1&style=green

  对于这些连接而言,内容相同,但是连接不同,就可能导致重复内容的出现,在此,你可以通过robots.txt屏蔽重复页面的收录,写法如下

  User-agent: *

  Disallow: content.asp?id=*&style=*

  3、无须向各大搜索引擎提交sitemap。 谷歌,微软以及雅虎均已经支持这一robots.txt的扩展写法。所以也省了提交sitemap的时间

  至于robots.txt的具体写法,建议还是参照百度给出的指南,十分详细

  评论这张
 
阅读(119)| 评论(0)
推荐 转载

历史上的今天

评论

<#--最新日志,群博日志--> <#--推荐日志--> <#--引用记录--> <#--博主推荐--> <#--随机阅读--> <#--首页推荐--> <#--历史上的今天--> <#--被推荐日志--> <#--上一篇,下一篇--> <#-- 热度 --> <#-- 网易新闻广告 --> <#--右边模块结构--> <#--评论模块结构--> <#--引用模块结构--> <#--博主发起的投票-->
 
 
 
 
 
 
 
 
 
 
 
 
 
 

页脚

网易公司版权所有 ©1997-2017