如果你有仔细的阅读过百度的优化指南,你应该会记得其中有一条信息是关于重复页面的信息,该提示指出如果我们站点上有两个不同的URL地址指向一个相同的页面的话,那么搜索引擎只会在两者之中知其一。而搜索引擎起初并不能区分要收录哪一个页面,会将所有的重复页面都收录。虽然我们的收录之后有成倍增长,但是最终都会被搜索引擎剔除。这就导致我们的收录数量出现大的波动。而且如果出现大量重复的页面有可能会被搜索引擎直接认为是作弊的手段。当然避免重复的页面被收录也不能,我们只要通过robots屏蔽掉这些链接,或者使用重定向将这些页面重定向到标准的我们想让搜索引擎收录的页面就可以了。 在用户的友好体验与SEO上我们难免会遇到两难的局面,一个页面的质量高低,搜索引擎与用户之间的评判总是存在着一定的差异。可能我们有一个页面对于用户友好,但是对搜索引擎不友好的话,我们就可以适当的屏蔽这些页面,让搜索引擎无法收录。举一个简单的实例,我们可以发现很多论坛都开始有广告专区,这一个板块的目的方便用户发布广告,和获得广告信息,但是我们也不得不免对一个问题,就是在这一板块中可能出现内容的质量低,很多内容都是直接复制重复的,或者是文章中充满了外链等等,这些页面虽然用户看起来并不反感,但是在搜索引擎严重这些是一些质量非常低的页面,而且这些页面中链接有可能是一些被惩罚的网站的链接,假如我们放着这些页面被搜索引擎收录,无非对站点的SEO是一大打击。
一个网站的运营,死链接的出现是不可避免的。当我们删除一个栏目或者删除某一篇内容的时候,无论这一些页面收录与否,我们都需要进行屏蔽处理。有的人可能有疑惑,为什么没有收录的页面也要进行屏蔽了,其实原因很简单,搜索引擎的收录有时并不是收录后就马上放出来,而是要过一阶段才放出。这一些虽然没被放出来的但是已经收录的页面我们也不可忽视。我们可以借由404错误页面或者使用robots文件进行屏蔽处理。
对于站点的后台页面或者用户的个人中心页面,这些都是一些质量低的页面,而且如果这一些页面被收录将会导致网站的一些敏感信息泄露,对此我们也需要尽量避免这一些后台页面被搜索引擎收录取。
|