文章重复收录comment-page-1与replytocom解决方案

投稿   朱海涛自媒体  2015-08-11 07:00:33  878 人阅读  26 条评论

投放广告联系   诚邀合作伙伴   赞助我们   本站公告   轻松一刻

昨天在查询网站收录数据,看到最近一周收录的文章有三次重复。同个网站内同一篇篇文章重复收录无论是对于读者还是对于搜索引擎都是不好的,一篇同样文章被收录三次,另外两篇就成了"垃圾"了嘛,据说大量重复收录会被搜索引擎惩罚(没验证过)。

文章重复收录comment-page-1与replytocom解决方案|boke112导航

点击进入链接,除了原网页,分别出现

http://www.stcash.com/5273/comment-page-1

http://www.stcash.com/5273?replytocom=1989

前面一篇文章居然出现一个三级目录,后面一篇文章又类似于动态网页网址。我文章中是没有这两个链接地址的,查看网页源码,可以发现了这?replytocom和comment-page-1网址都是来源于评论的链接,其中?replytocom是评论链接,有几个评论就有几个这样的链接;comment-page-1是评论分页第一页的链接。

如果评论比较多,比如说有1000条评论,那么为了提高网页加载速度和提升用户体验,一般都会进行分页,这样就会出现comment-page-2,comment-page-3......。但是不巧的是,百度蜘蛛依然不能识别出来。

一、对于comment-page-1重复收录的解决办法有两种

1、在wordpress后台关闭评论分页

文章重复收录comment-page-1与replytocom解决方案1|boke112导航

2、修改robots.txt,加上以下代码禁止搜索引擎抓取评论分页链接

  1. Disallow: /*/comment-page-*

robots.txt在网站根目录,使用网址/robots.tx就可以看到设置的结果了。如果根目录下没有这个文件,请新建一个robots.tx文件,文件内容如下:

  1. User-agent: *
  2. Disallow: /*/comment-page-*

二、对于replytocom重复收录的解决办法

    同样道理,直接修改robots.txt,加上以下代码禁止搜索引擎抓取评论链接。

  1. Disallow: /*?replytocom=*

Boke112导航点评:其实解决同一篇文章被重复收录的最好办法就是利用Robots.txt优化我们的WordPress站点,具体可见知更鸟大神分享的完整版Robots.txt文件《利用Robots.txt优化你的WordPress站点》。

如果文章对你有帮助,请赞赏支持作者继续创作!

历史上的今天:

文章标签: ,   ,  
原文地址:http://www.stcash.com/5433
温馨提示:文章内容仅代表作者个人观点,不代表boke112导航赞同其观点和对其真实性负责!
版权声明:本文为投稿文章,感谢 朱海涛自媒体 的投稿,版权归原作者所有,欢迎分享本文,转载请保留出处!
WordPress虚拟主机和VPS服务器推荐

 发表评论


  1. 我爱动感单车网
    我爱动感单车网 【尚书】 @回复

    这两点必须注意,还有文章中分享的方法很实用啊!

  2. 热词网
    热词网 【尚书】 @回复

    感觉,robots文件修改了要很长的时间才能生效

    • boke112导航
      boke112导航【村长】2015-08-12 22:38  回复

      @热词网这个最好是建站初期就弄好这个robots文件

  3. 电脑爱好者
    电脑爱好者 【小白】 @回复

    robots.txt搞定 除了搜狗的引擎 别的支持都挺好

  4. JACK的机器人
    JACK的机器人 【丞相】 @回复

    配置一下robots.txt还是可以的,但是早期网站内容本来不多的情况下,多收录一点也不为过啊,呵呵

  5. 腰果科技
    腰果科技 【秀才】 @回复

    目前还没遇到这个问题。遇到我就屏蔽

    • boke112导航
      boke112导航【村长】2015-08-11 16:31  回复

      @腰果科技这个最好是防于未然,如果是WordPress,建议还是设置一下Robots.txt文件优化一下比较好

    • 热词网
      热词网 【尚书】2015-08-12 16:39  回复

      @腰果科技还是未雨绸缪好,等真的来抓取无效链接了 未免有点晚了

  6. 群伟伟博客
    群伟伟博客 【秀才】 @回复

    好像我的使用的多说不是脚本的,汗,,我也是看了之前的文章的网页源码才知道,不知会不会对搜索引擎不友好。。。

    • boke112导航
      boke112导航【村长】2015-08-11 16:30  回复

      @群伟伟博客多说的好像一般都不会有这种情况发生,可以试试检查一下

  7. 天中青年
    天中青年 【丞相】 @回复

    确实有这种现象,我的有九十多篇文章几乎都有重复。不过之前以为收录量高就成

    • boke112导航
      boke112导航【村长】2015-08-11 12:42  回复

      @天中青年[呲牙] 看来你有必要看看《利用Robots.txt优化你的WordPress站点》这篇文章了

  8. 中国历史
    中国历史 【丞相】 @回复

    我用多说,貌似多说的评论是脚本分页,不存在这样的收录问题

    • boke112导航
      boke112导航【村长】2015-08-11 11:49  回复

      @中国历史这个好像都是WordPress自带的才会这样,多说其实还是不错的,如果加载速度更稳定一些的话

  9. 微童年
    微童年 【状元】 @回复

    这确实是比较好的方法,不会让搜索引擎不友好就行

    • boke112导航
      boke112导航【村长】2015-08-11 09:56  回复

      @微童年嗯,我们一般都是通过设置Robots.txt文件来禁止搜索引擎抓取此类地址

  10. 微商创业
    微商创业 【书童】 @回复

    以前出现过,现在已经很少了。

    • boke112导航
      boke112导航【村长】2015-08-11 09:55  回复

      @微商创业其实设置好Robots.txt文件,可以有效地杜绝这种情况发生

    • 热词网
      热词网 【尚书】2015-08-12 16:40  回复

      @微商创业新站一般没做robots文件都会有

  11. 易淘金论坛
    易淘金论坛 【进士】 @回复

    谢谢分享好文章

  12. 宝赚金
    宝赚金 【进士】 @回复

    没关系的 不太影响运行

    • boke112导航
      boke112导航【村长】2015-08-11 09:54  回复

      @宝赚金不影响运行,只是重复收录而已

    • 天中青年
      天中青年 【丞相】2015-08-11 12:03  回复

      @宝赚金去你那里无法评论,老出现code失效,请重新注册的提示。