网站首页 > 今日要闻> 文章内容

百度收录wordpress页面过少的原因分析

※发布时间:2017-9-13 12:06:45   ※发布作者:habao   ※出自何处: 
   本人之前揭橥过一篇文章,阐述wordpress收录页面过少的原因。我将wordpress 由博客主题换成CMS主题后,发明文章收录数量明显增长,并由此得出一个结论:百度不爱搜录具有博客特点的网页。因为当时推敲不严密,揭橥之后,受到个别网友批驳斧正。事实上,博客特点的网页轻易产生反复内容,高度反复才是引起百度不收录wordpress的真正原因。经由沉思熟虑,以及对蜘蛛拜访日记的不雅察和分析,我对百度收录wordpress博客异常的原因得出新的结论。
  1.安装搜刮引擎优化插件后,百度不收录页面。
  很多采取wordpress建站的同伙都接触过All in One 搜刮引擎优化这个插件。这个插件可以让新手一键搞定wordpress的站内优化。事实证实,这款插件对google优化异常的完美,但百度却总轻易出现不收录的情况。我曾经一度困惑百度会认为All in One 搜刮引擎优化 插件存在优化过度的问题,从而导致网站降权,不收录。实际上,All in One 搜刮引擎优化 的网页并没有被百度降权,导致百度不收录的祸首祸首是它的noindex设置。
  noindex标签的感化是向搜刮引擎申明该网页禁制被搜录和索引,谷歌蜘蛛爬行到如许标签的页面,会主动丢弃掉落该页并持续爬行其他页面,从而减小文章反复度,利于站内目标文章页权重的集中。百度蜘蛛碰到noindex标签的页面后,同样会丢弃掉落该页。与谷歌不合的是,百度蜘蛛一般不再爬行该页面包含的文章链接,直接返回上一级目次。因为包含在该页中的文章无法被百度蜘蛛爬行到,所以页目次之下的文章将不会被索引。
  解决办法:
  撤消All in One 搜刮引擎优化 中 noindex设置。
  2.wordpress模板导致的原因。
  wordpress之所以风行,与其强年夜的插件扩大才能和数量丰富的主题模板密弗成分。我曾经说过,昆明网站优化是对网站是指在了解搜索引擎自然排名机制的基础之上,对网站进行内部及外部的调整优化,应用wordpress建站的人,百分之99%都直接采取现成的主题来建站。同样的模板必定导致收集中出现年夜量高度反复网站构造和内容。百度不爱好反复的内容,这些反复内容当然也包含网站模板的HTML代码。
  搜刮引擎优化er平日会选择一些应用人数较少的模板来做搜刮引擎优化博客,同时还会对代码部分做一些更改,如ID部分名称,title 描述,CSS名称等等。这些操作的目标,是使得网页模板代码尽量避免与其他网站反复,从而更有利于文章的搜录。当博客正文内容字数越少时,模板反复对收录的影响就会变得越年夜。
  解决办法:
  1).增长文章字数。
  2).选择非热点wordpress主题。
  3).对现有主题进行修改。
  3.wordpress摘要设置欠妥造成站内文章反复。
  百度也好,谷歌也罢,没有哪一家搜刮引擎爱好反复的文章。当一篇文章涌如今同一网站内多个不合的页面中,搜刮引擎将花费更多的处理时光来断定哪一篇文章才是正文。当搜刮引擎从法度榜样上难以无法断定主次时,会降权收录文章第一次被索引的页面,或者直接K掉落这些反复的页面。于是很多wordpress站长在百度里site本身的网址,然后惊奇的发明:涌如今成果前面的,竟然全都是日历页,归档页或分类目次,而文章正文内容却被百度隐藏而作为弥补内容而存在,甚至压根就不被索引。
  导致如许的原因是因为你在录入文章数据的时刻,既没有采取more标签对文章进行截断,也没有手动添加摘要。wordpress默认情况下,会将more标签之前的内容作为摘要输出到首页,标签目次,分类目次,归档目次,日历目次下。假如没有效more标签进行截断,也没有手动输入摘要,那么文章正文会同时涌如今首页,几个目次页,以及文章页中。因为首页比目次页权重高,目次页比文章页权重高,seo公司培养了一支专业的SEO团队,做到让您的每一分投入都将获取最大的效益,百度认为文章页权重最低,便优先舍弃掉落了。google的真正从技巧上实现了文章的筛选机制,能保文章页被正常的收录,而百度这方面的技巧尚需进一步完美。
  解决办法:
  1).每个文章前一两段后添加more标签。
  2).手动添加文章摘要,不克不及与more标签之前雷同。
  3).精简标签数量。
  4.URL设置不合理,郑州网站建设通过一系列设计、建模、和执行的过程将电子格式的信息通过互联网传输,最终以图形用户界面(GUI)的形式被用户所浏览,晦气于收录。
  在很多搜刮引擎优化教程里,都提出过目次不宜过深。受到这一思惟影响,很多站长就将目次页,文章页都控制在二级目次以内,认为如许可以让网页更好的被收录。殊不知,如许的URL方法其实并晦气于搜刮引擎优化。搜刮引擎蜘蛛爬行算法不但包含URL深度,同时还包含URL的反复度。当蜘蛛须要爬行一个网站时,起首须要根据网站的权重算出索引的深度和反复数,当网站权重越高时,蜘蛛爬行的深度就越深,许可的反复数就越年夜。蜘蛛在索引某一网站的时刻,当深度操过必定层次后就会终止爬行其子目次。在爬行某个层次链接的过程中,URL反复数度跨越必定命量,就会停止对该层目次的爬行。
关键词:
相关阅读
  • 没有资料