如何利用robots.txt 优化 wordpress博客?

  • 时间:
  • 浏览:0
  • 来源:大发时时彩平台-大发时时彩网投平台_大发时时彩投注平台

笔者在百度站长平台检测自己的博客时,出于优化的惯性,对博客的Rbots进行了检测,进而在百度搜索了wordpress博客robots的写法设置难题,看得人如此来越多wordpress高手对robots优化设置后,终于有所领悟,在此也分享给一些wordpress新手看看如何去善用robots.txt对wordpress博客进行优化。

一、先来普及下robots.txt的概念:

robots.txt(统一小写)是某种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪此内容是找不到被搜索引擎的漫游器获取的,哪此是回会 被(漫游器)获取的。你是什么 文件用于指定spider在您网站上的抓取范围,一定程度上保护站点的安全和隐私。同去也是网站优化利器,类似于于屏蔽捉取站点的重复内容页面。

robots.txt目前并全版回会某种标准,也不某种协议!如此来越多现在如此来越多搜索引擎对robots.txt里的指令参数全版回会不同的看待。

二、使用robots.txt都要注意的几点地方:

1、指令区分大小写,忽略未知指令,下图是本博客的robots.txt文件在Google管理员工具里的测试结果;

2、每一行代表有有一一4个 指令,空白和隔行会被忽略;

3、“#”号后的字符参数会被忽略;

4、有独立User-agent的规则,会排除在通配“*”User agent的规则之外;

5、回会 写入sitemap文件的链接,方便搜索引擎蜘蛛爬行整站内容。

6、尽量少用Allow指令,如果不同的搜索引擎对不同位置的Allow指令会有不同看待。

三、Wordpress的robots.txt优化设置

1、User-agent: *

一般博客的robots.txt指令设置全版回会面对所有spider线程运行,用通配符“*”即可。如果有独立User-agent的指令规则,尽量装入 通配“*”User agent规则的里边。

2、Disallow: /wp-admin/

Disallow: /wp-content/

Disallow: /wp-includes/

屏蔽spider捉取线程运行文件,同去也节约了搜索引擎蜘蛛资源。

3、Disallow: /*/trackback

每个默认的文章页面代码里,全版回会一段trackback的链接,如果不屏蔽让蜘蛛去捉取,网站会出现 重复页面内容难题。

4、Disallow: /feed

Disallow: /*/feed

Disallow: /comments/feed

头部代码里的feed链接主也不提示浏览器用户回会 订阅本站,而一般的站点全版回会RSS输出和网站地图,故屏蔽搜索引擎捉取哪此链接,节约蜘蛛资源。

5、Disallow: /?s=*

Disallow: /*/?s=*

你是什么 就不不解释了,屏蔽捉取站内搜索结果。站内没出现 哪此链接不代表站外找不到,如果收录了会造成和TAG等页面的内容相近。

6、Disallow: /?r=*

屏蔽留言链接插件留下的变形留言链接。(没安装相关插件当然不不这条指令)

7、Disallow: /*.jpg$

Disallow: /*.jpeg$

Disallow: /*.gif$

Disallow: /*.png$

Disallow: /*.bmp$

屏蔽捉取任何图片文件,在这里主也不想节约点宽带,不同的网站管理员回会 按照喜好和都要设置这多少指令。

8、Disallow: /?p=*

屏蔽捉取短链接。默认头部里的短链接,百度等搜索引擎蜘蛛会试图捉取,实在最终短链接会801重定向到固定链接,但也不依然造成蜘蛛资源的浪费。

9、Disallow: /*/comment-page-*

Disallow: /*?replytocom*

屏蔽捉取留言信息链接。一般不不收录到也不的链接,但为了节约蜘蛛资源,也屏蔽之。

10、Disallow: /a/date/

Disallow: /a/author/

Disallow: /a/category/

Disallow: /?p=*&preview=true

Disallow: /?page_id=*&preview=true

Disallow: /wp-login.php

屏蔽一些的一些形形色色的链接,外理造成重复内容和隐私难题。

10、Sitemap:http://***.com/sitemap.txt

网站地图地址指令,主流是txt和xml格式。告诉搜索引擎网站地图地址,方便搜索引擎捉取全站内容,当然我能 设置多个地图地址。要注意的也不Sitemap的S要用大写,地图地址也要用绝对地址。

里边的哪此Disallow指令都全版回会强制要求的,回会 按需写入。也建议站点开通谷歌管理员工具,检查站点的robots.txt否有规范。

好了,以上也不对利用robots.txt对wordpress博客进行优化的全版内容,希望回会 帮助和我一样刚接触wordpress博客的同学。

有好的文章希望站长之家帮助分享推广,猛戳这里我想投稿