|
随着互联网的高速发展,越来越多的企业都开始做网站在网络上宣传自己;所以,现在越来越多人开始加入SEO的行列。所以,SEO新手也就越来越多了。对新手来说往往在优化过程中常常会遇到这样或那样的问题。网站经常出现只收录网址,没有标题和描述的问题。像类似问题,是因为站长还没有掌握建站之前核心要素,首先要明白蜘蛛爬行是怎么来的,怎么才会来到网站上收录。那么会是哪些原因造成这种现象呢?
1、网站上线前后没设置标签
网站上线之前,最好在本地检查标题、描述、关键字标签是否正确,特别是使用开源程序的站长要注意。原后在本地都设置好再上传到服务器。笔者就经常遇到惊喜,网站上传好几分钟后,用site命令查询已经被收录,但是用站长工具查询就查询不到,原因是站长工具不是跟索引即时同步。
身边的朋友和顾客之中,高达80%的站长,在网站上线之前没有设置好,那么很有可能在网站上传的时候,蜘蛛就已经过来爬行。这时候已经在搜索引擎数据库里,只是没显示出来,我们再来写标题描述,已经对网站有了一个小度影响。到下次蜘蛛再次过来,发现不一样会停止收录,好一点的会放出网址。此类情况不会长久显示网址,但对新站收录快慢有影响。
2、服务器或空间访问速度慢
特别新手站长在刚开始建站,可能会带有尝试的心态,不会对网站下太大的功夫,那么会花免费的空间,或许购买一些不太稳定的空间。有一次情况,在做客户网站的时候,域名和空间都是客户自己选购的。当时安装的时候就感觉太慢,可是不太在意,三天左右来电话,问为什么只收录网址。
接到电话后马上检查网站所有程序是否出错或者挂马,没发现任何一个地方有问题,打开网站日志来看,竟然没有蜘蛛爬行记录,这是为什么?无奈之下把网站转移到自己服务器,百度当天删除网址,第四天收录正常,谷歌第二天已经恢复正常。此类情况一天不换空间,就有可能一天不会解决,很少会遇见。
3、robots协议或后台禁止收录
多数站长在建站时,会先把程序上传到空间,用robots对其网址进行禁止协议,其实这是正确的做法,但有很多情况下,是无法禁止收录的。其中原因是有外部链接指向网站,有任何一条链接指向到网站任何一个页面都会收录,这时禁止收录的只是网站内容,会对网址一直收录,而且百度快照会天天更新。robots协议在百度站长平台,官方已经表明,如果有外链的网站,或者文件不是放在根目录不会禁止收录,谷歌虽然没有表明也会有类似的情况。
如果没有外部链接,用robots禁止收录,进行整站修改是件非常方便事情,是各大小站长常用的方法。但往往网站准备上线,要开放网站的时候,却忘记修正协议,或者定义写错。如果文件写着Disallow:/ 网站肯定不会正常。如果已经开始发外链,那只好收录网址。认为定义都写对了,那么请检查后台隐私部分,是否不允许蜘蛛访问。
|
|