最初的搜索引擎算法是非常单纯的,哪个网站所获得的导入链接多,或者关键词密度最大,哪个网站就能获得高权重,关键词就能获得良好的排名。所以,最初的搜索引擎连最简单的作弊手段都不能识别。比如关键词堆砌,它会认为关键词密度越大,网站就越切中用户的需求,这样的网站就越能排到前面。另外,最初的搜索引擎也不能判别外链的质量,觉得外链越多,网站越受欢迎,给予的权重值也就越高。 最初搜索引擎甚至并不认为这样的做法是一种作弊方法。但是当时了解搜索引擎算法的人也是非常少的,这部分人非常聪明地钻了这些空子,它们利用搜索引擎算法的漏洞轻松地获得了良好的排名,使网站获得了客观的流量。然而与其说这些人是优化高手,不如说是作弊高手。 但是为什么这些伎俩后来行不通了呢?原因就是越来越多的人摸清了搜索引擎的这种排名规律之后,钻空子的人越来越多了,致使作弊现象泛滥,各种低质量网页和垃圾外链不断涌现,极大地破坏了用户的搜索体验,也破坏了搜索引擎的信誉度。 这时候搜索引擎可就要站出来了,它是就对不会让这种情况继续下去的。它肯定会站出来整顿这种混乱的局面,打击违规内容,保障用户的利益,否则不仅垃圾网页会越来越多,搜索引擎的用户也会渐渐流失。 搜索引擎打击违规内容的做法就是更新算法。当各种作弊手段逐渐浮出水面的时候,搜索引擎对它们也就看得一清二楚了,因此就会实行更严密的算法对网页进行过滤,通过作弊获得的排名一夜之间消失了。这时候就需要重新摸索搜索引擎的新算法,以更好地迎合搜索引擎的排名机制。 这就是一个算法更新的过程。因此可见,搜索引擎算法是有生命周期的。当它进行算法更新的时候,必定会于一大批网站死掉,就像今年六月份的K站事件。 然而可悲的是,在算法大调整的过程中,很多人并不知道是怎么回事,不知道自己的排名为什么下降或者网站被关。只有那些一直一直研究搜索引擎的老手能够从中找出原因,并迅速作出调整,成为了新一代算法下的优化高手。大部分人由于搞不懂新的算法规律,或者没有意识到更新,只能使用老的seo手段继续进行盲目的优化。 最初的时候,搜索引擎的工作主要集中在打击作弊行为上,但是当人们都遵守搜索引擎法规时,大家的网站都做得不错的时候,基本上就不存在作弊这种说法了,站长们所做的一切都可以称之为合理的优化。但是为什么还是有那么多的人做不出良好的排名呢? 原因很简单,当大家的网站都做得合格之后,搜索引擎的算法还是会更新的。因为排名是永远都不会停止的,当大家做的网站都很好,搜索引擎还是要从中分出高低,只不过算法从最初的优胜劣汰功能逐渐过渡到优中选优,没有最好,只有更好。只要排名存在,算法永远不会停止更新。 所以说,搜素引擎的算法是永远在变的,人们的优化行为必须随着算法的改变而不断进行调整。这个过程是没有止境的。因为当大多数人摸清了旧的算法之后,它就会成为过时的算法,更严密的排名算法又会接踵而来,因为排名永远存在。 所以说,掌握搜索引擎算法的永远只是少数人,而且这少数人也只能大概了解这种算法规律,99%的人都是在使用过时的seo技术,那1%的人就是能把自己的网站优化到前面几页的人。输入一个关键词,会有成千上万个搜索页面,能挤进第一页的就那么几个,更多的是后面数不清的页面。往往只有前面几页(严格的说是第一页)能获得良好的收益,排在后面的,全部是没有掌握最新的seo技术的人,他们使用的是已经过时的seo技术。
|