网站快照在站长看来是衡量一个网站运营是否良好的参考因数之一。而从网站优化来看网站快照确实可以反应出网站对搜索引挚是否友好的关键点之一。据笔者所知,没有哪个搜索引挚不喜欢的网站可以得到隔天或者三天内的快照吧。那么对于网站快照不更新,站长你了解其中的原因吗?今天笔者说说网站快照不更新的原因:
一、代码繁乱不规范影响蜘蛛爬行
众所周知,代码是蜘蛛唯一能正常识别的东西,而一个网站由无数段代码组成的,自然就不可能把每个代码都规范到标准了。那么一般情况下,蜘蛛不能有效识别的就是JS代码了,很多例子都说过网站存在大量的JS代码会影响到蜘蛛爬行的速度和顺畅,自然当蜘蛛爬行自己的网站,要花费比大站更多的时间时,就会对网站产生一种怀疑了,因为一个小站的爬行时间比一个门户站的时间要长,那就说不过去了吧。导致这种原因就是网站的内容过于繁乱,才会导致蜘蛛爬行索引起来比较困难,这样一来就让蜘蛛缺少了继续在网站爬行的兴趣了,连蜘蛛都不爬行了自然网站的快照就无法更新了。
解决方法:有JS代码的最基本的操作就是把它封包起来,通常情况下都是一些广告代码,那么就可以使用调用的方式来进行规范化了。一些不要的空格、回车符、重复标签,该删掉的就删掉,该整合的就整合。通过有效的精简代码,使得网站的源码更利于蜘蛛爬行,再刺激一下蜘蛛自然就会得到更新快照了。
二、内容缺乏质量,采集内容过多
什么样的内容才算是有质量的,没人能给出一个正确的答案。但是采集的内容很少有质量可言的,因为你会采集,别人也会采集,那么这样的内容本身网络存在一定数量重复了,自然对于自己的网站根本就没有任何的帮助作用。曾经笔者看到一个说用采集内容打造网站权重的,纯属扯谈。缺乏质量的内容可以帮助网站提升权重的说法只要有一点点的优化知识的站长都知道是不可能的。所以,内容不具备质量对搜索引挚和用户都是一种欺骗,别以为天天更新内容就可以提高网站权重排名的,那还要网站优化做什么,一些站长辛苦写原创优质的文章做什么呢?大家都采集就行了。采集内容并不能帮助更新快照,而且蜘蛛只喜欢原创的内容,自然看到采集的内容连爬行都懒得爬了,还更新什么快照呢。
解决方法:坚持每天更新有质量的内容,如果可以的话,当然是原创的最好了,你只要坚持一个星期左右,网站的快照就会得到更新了。如果实在找不到原创的,那么高度的伪原创也比直接采集的要好,很多人说伪原创其实跟采集一样,笔者不认同这个观点,就比如一件事每个人都有自己的看法一样,对于同样一个主题,通过伪原创,把原本的意思转化成自己的观点,那么就很好的伪原创了,虽然比原创的作用低,但是也是一种很多的吸引蜘蛛爬行,更新快照的方法。
三、内链不合理,影响蜘蛛的爬行
把内链做好做足,即使外链寥寥无几也不会影响到蜘蛛爬行自己的网站的,而目前来看,内链的作用可以媲美外链了。就百度百科来说吧,大家都知道百度的产品都没做什么外链的,都是依靠强大的内链进行提高排名的,而且连搜搜问问也特别的注重内链的优化。这就说明内链的作用是多么大的。而合理的内链可以把蜘蛛引导到更快速的爬行网站,当蜘蛛爬行网站时,通过网站的内链,进行一步一步,清晰自然的爬遍整站时,自然就会对网站有一定的好处的。如果很多的内链都是站长自己刻意加上去的,明显的就是不合理的,自然对网站的快照会有一定的影响,这样的刻意的内链并不能使蜘蛛有效轻松的爬行,比如刚爬行这个页面,还没爬多远又绕回来了,绕来绕去,老是绕回首页,自然就会把蜘蛛的耐心都磨完了。有了第一次蜘蛛还会来第二次吗?所以内链决对是影响蜘蛛爬行的速度,而蜘蛛不爬行网站自然快照就无法得到更新了。
解决方法:把原本刻意增加的内链去掉,换成自然出现的,这样对于用户体验和蜘蛛爬行有一定的正面作用。还有给网站增加内链时,不要刻意的把所有的内链都指向了首页,应该指向相关的页面,这样有利于引导蜘蛛更深入的爬行其他页面,把网站设置成一个大而不乱的圈子,不要把蜘蛛给弄晕了。
网站快照从表面上可以反应出网站对搜索引挚是否友好。虽然搜索引挚提示快照只是网站的缓存页,但是在站长看来,网站拥有隔天的快照对网站的发展还是有一定的帮助的,所以找准原因是解决问题的关键啊。