找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 725|回复: 0

[转载] 三步巧妙避免网页重复收录问题

[复制链接]
发表于 2012-9-19 17:21:35 | 显示全部楼层 |阅读模式 来自 中国–江苏–南京–鼓楼区
    一、利用ROBOT屏蔽其他网址

    一般来说每个网站都会带有两个网址,特别是一些要生成静态的网站,本身就存在一个动态的,自然生成静态后就会多出一个网址,这样当这篇文章收录时,两个网址也同时被收录了,因为搜索引擎把其中同一篇文章的两个网址看作是独立的,自然就两个都被收录了。其实很多时候,在SEO网络推广时站长们都希望自己的网站收录多,但是同样的文章重复几次的收录,对于网站优化确实存在一种增加收录的现象,但是过不了多久,同类的就会删除掉,毕竟一样的内容存在搜索引擎数据库中只会占用空间。

    二、利用网站地图引导蜘蛛

    蜘蛛爬行是首先爬行ROBOT文件,然后接着就是网站地图,再者是首页。那么通过给网站设置地图不但可以减小网站重复收录的现象,而且还让蜘蛛爬行更加的顺畅。很多站长对于网站地图不在意,其实网站地图网络推广起到的效果就像大厦的平面图,让蜘蛛一看就知道网站的全部内容,自然抓取起来就方便多了,而且拥有一个完整的网站地图,并且每次更新后生成一次地图,对于网站本身就拥有一定的帮助。而通过网络推广有了地图可以有效的减少重复收录的情况。所以,网站地图的作用不单单是把整站的内容进行归纳,而且还可以让蜘蛛爬行更加的顺畅无阻。减少页面重复收录那是一把好手。

    三、及时的清除缓存

    缓存主要是因为空间的设置不当或者是空间的性能不咋样,因为性能好的空间不会存在缓存,而且因为存取的速度快,自然就不会存在缓存一说了。很多的空间都会带有这样那样的缓存机制,对于一个秒收的网站来说,缓存不及时清除只会让搜索引擎把同样的一篇文章收录多次,因为网络推广一开始你添加完成后自然就会在空间上留下编辑的缓存,而当你全部更新完后,再生成静态或者伪静态的,又会出现一次缓存,这样一来就会出现三个网址了。所以,网络推广时对于这样的缓存不及时清楚,那么当蜘蛛爬行的时候,会连同这些一并抓取,自然就产生重复收录多次了。所以,及时的清除缓存对于解决页面重复收录是有帮助的。

发帖求助前要善用【论坛搜索】功能,那里可能会有你要找的答案;

如何回报帮助你解决问题的坛友,好办法就是点击帖子下方的评分按钮给对方加【金币】不会扣除自己的积分,做一个热心并受欢迎的人!

▶专业解决各类DiscuzX疑难杂症、discuz版本升级 、网站搬家 和 云服务器销售!▶有偿服务QQ 860855665 更多精品应用
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

QQ|侵权投诉|广告报价|手机版|小黑屋|西部数码代理|飘仙建站论坛 ( 豫ICP备2022021143号-1 )|网站地图

GMT+8, 2026-1-21 20:34 , Processed in 0.041241 second(s), 10 queries , Redis On.

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表