|
1、网站外链不稳定
众所周知,网站收录量的高低跟外链是有着必不可分的联系。个人认为,咱们在做外链时,大部分都是使用首页的链接,而很少使用其他页面的,这样使得蜘蛛老是爬行到网站首页重复抓取一些抓取过的内容。久而久之,蜘蛛肯定会对网站失去了爬行的兴趣。毕竟大家都知道蜘蛛是喜新厌旧的,而且如果网站外链同样的不稳定,自然跟着而来的收录量也不会稳定了,这是一种决定收录量的常识。
2、网站无效链接过多
许多站长不明白自己的网站明明外链和空间都非常稳定,但是收录量就是时而升时而降的,其实跟收录量有关的另外一个因素就是网站的链接,一条无法让蜘蛛顺利爬行的链接自然就无法被抓取。所以,如果你的网站无效链接或死链接过多,同样也让网站收录量上不去。个人认为,如果一个网站存在十条以上的死链接,那么就相当于让蜘蛛爬行了十次的断头路,而且同时也让蜘蛛对网站产生了十次的不满意,严重的降低了网站在搜索引挚眼里的形象,所以说,当你的网站收录量反反复复上不去的时候,仔细的检查自己的网站是否有无效链接,有没有做好屏弊引导的设置,一般都是采用ROBOT.TXT、301重定向和404页面引导。
3、内容质量低 采集内容居多
现在很多的程序都带有这样那样的采集功能,原因是为了方便站长更新网站内容,却不曾想到蜘蛛非常反感采集的站点,一般而言,采集内容对于新站快速被收录是有帮助的,这点笔者非常赞同,但是如果是长期的以采集来更新网站内容的话,那么当蜘蛛发现你的网站内容与自己数据库中的内容存在相同的时候,自然你的收录页面就会被删除,因为凡事都有先来后到的原则,而搜索引挚判断哪一篇是原创的都是以第一收录时间为准的,如果你的内容被别人转载了,而自己的没收录别人的收录了,那么你的就会被当成是采集的,然而很多时候,站长对于收录量反复无常更多的怪罪于外链身上,其实最主要的原因还是内容。蜘蛛喜欢原创的、有价值的内容,而对于采集而来的内容则是抱以丢弃的态度。所以说,对于网站收录量不稳定,笔者建议站长检查一下自己的内容的质量,同时看看自己更新内容时是否采用采集的方式。
4、主机空间不稳定
空间是网站正常运营的载体,同时也是影响蜘蛛能否爬行进入网站的唯一要素。然而很多时候咱们在分析网站收录量不稳定的原因时,常常会忽略了空间这个关键要素。空间是否稳定对于收录量的高低影响非常大,如当蜘蛛爬行到网站门口时,却怎么也进不了网站内部抓取内容,而且每当搜索引挚更新数据库时,你的页面链接无法访问,那么搜索引挚首选的删除对象之一了。还有主机空间不稳定时,当用户在搜索引挚结果中进入你的网站后,等待了漫长的时间都无法获取内容的显示,这样统计工具会把用户的IP统计进去,而如果你使用的是百度统计的话,那么百度就会按照其统计中的数据来判定网站的用户体验,正因为空间的不稳定而使得用户跳出率高,自然搜索引挚也同样会以此为理由判定网站内容没有价值,同时这样的页面百度是不会收录的,即使开始收录了,当发现内容无价值这一点后,都会被删除的,如此一来网站收录量就会下降。所以说,保障空间的稳定就是保障网站收录量不下降的前提基础。
|
|