WordPress利用Robots.txt优化站点收录

很多建站新手对robots.txt文件的重要作用不是很清楚,利用这篇文章普及一下WordPress站点robots.txt文件编写知识。

Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。

搜索引擎机器人访问网站时,首先会寻找站点根目录有没有 robots.txt文件,如果有这个文件就根据文件的内容确定收录范围,如果没有就按默认访问以及收录所有页面。另外,当搜索蜘蛛发现不存在robots.txt文件时,会产生一个404错误日志在服务器上,从而增加服务器的负担,因此为站点添加一个robots.txt文件还是很重要的。

知道Robots协议的作用后,下面具体说一下WordPress站点如何编写robots.txt文件。

WordPress站点默认在浏览器中输入:http://你的域名/robots.txt,会显示如下内容:

  1. User-agent: *
  2. Disallow: /wp-admin/
  3. Disallow: /wp-includes/

这是由WordPress自动生成的,意思是告诉搜索引擎不要抓取后台程序文件。

但这是远远不够的,比较完整的WordPress站点robots.txt文件内容如下:

  1. User-agent: *
  2. Disallow: /wp-admin/
  3. Disallow: /wp-content/
  4. Disallow: /wp-includes/
  5. Disallow: /*/comment-page-*
  6. Disallow: /*?replytocom=*
  7. Disallow: /category/*/page/
  8. Disallow: /tag/*/page/
  9. Disallow: /*/trackback
  10. Disallow: /feed
  11. Disallow: /*/feed
  12. Disallow: /comments/feed
  13. Disallow: /?s=*
  14. Disallow: /*/?s=*\
  15. Disallow: /attachment/
  16. Sitemap: http://www.mbxzb.com/sitemap.xml

使用方法:新建一个名称为robots.txt文本文件,将上面的内容放进去,然后上传到网站根目录即可。

下面分别解释一下各项的作用:

  1. Disallow: /wp-admin/、Disallow: /wp-content/和Disallow: /wp-includes/  
  2. 用于告诉搜索引擎不要抓取后台程序文件页面。  
  3. Disallow: /*/comment-page-*和Disallow: /*?replytocom=* 
  4. 禁止搜索引擎抓取评论分页等相关链接。 
  5. Disallow: /category/*/page/和Disallow: /tag/*/page/ 
  6. 禁 止搜索引擎抓取收录分类和标签的分页。 
  7. Disallow: /*/trackback  
  8. 禁止搜索引擎抓取收录trackback等垃圾信息  
  9. Disallow: /feed、Disallow: /*/feed和Disallow: /comments/feed 
  10. 禁止搜索引擎抓取收录feed链接,feed只用于订阅本站,与搜索引擎无关。 
  11. Disallow: /?s=*和Disallow: /*/?s=*\  
  12. 禁止搜索引擎抓取站内搜索结果  
  13. Disallow: /attachment/  
  14. 禁止搜索引擎抓取附件页面,比如毫无意义的图片附件页面。  

上面只是些基本的写法,当然还有很多,不过够用了。
相关阅读:WordPress无插件轻松实现html和xml站点地图    点击前往

1. 本站所有资源来源于用户上传和网络,如有侵权请邮件联系站长!
2. 分享目的仅供大家学习和交流,您必须在下载后24小时内删除!
3. 不得使用于非法商业用途,不得违反国家法律。否则后果自负!
4. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务请大家谅解!
5. 如有链接无法下载、失效或广告,请联系管理员处理!
6. 本站资源售价只是赞助,收取费用仅维持本站的日常运营所需!
7. 如果您也有好的资源或教程,您可以投稿发布,成功分享后有M币奖励和额外收入!

模板下载吧 快速入门 WordPress利用Robots.txt优化站点收录 https://www.mbxzb.com/blog/file/rumen/6096.html

从明天起,做一个幸福的人,喂马、劈柴、周游世界…

常见问题
  • 本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承
查看详情
  • 最常见的情况是下载不完整: 可对比下载完压缩包的与网盘上的容量,若小于网盘提示的容量则是这个原因。这是浏览器下载的bug,建议用
查看详情

相关文章

评论
暂无评论
点击按钮快速添加回复内容: 支持 高兴 激动 给力 加油 苦寻 生气 回帖 路过 威武 友军 顶贴
官方客服团队

为您解决烦忧 - 24小时在线 专业服务