|
物极必反!当你在某个分区或者论坛发帖的时候,你会发现开始的时候效果很好,搜索引擎给予的关照很多,但是随着你的贴发地越来越多就会出现下降的情 况。所以我们需要大范围的铺设外链,而不仅是局限于在某些论坛里面。外链的广泛性是一个非常重要的指标,发多不如发广。这样一来不但可以扩大范围的寻在潜 在用户,还可以提高网站的综合排名。
1。现在的SEOER都恨不得自己的网站全给蜘蛛抓住,所以往往都忽略了robots.txt,而不去添加,以为蜘蛛就会自动默认抓取全部的页面,这个是误区,切记切记,因为每次用户访问不存在的url的时候,服务器都会自动添加上一个错误那就是404的错误,而我们每当搜索的时候,蜘蛛去寻找我们搜索的网站,而恰恰没有robots.txt,那么也会自动加上一条404的错误,累积太多后,引擎就判断你这个网站淘宝皇冠店铺导航是不存在的,直接把你判刑了!直接不收录了。
2。我们可以在robots.txt里稍微设置一下,就可以和引擎蜘蛛交好哦,蜘蛛最讨厌的是什么?后台管理文件、程序脚本、附件、数据库文件、编码、样式表、模板、导航图片和背景图片,这些全是蜘蛛最恶心的东西,好,那么我们全都屏蔽了!怎么做?写入Disallow: /cgi-bin,就OK了!蜘蛛就会发现你人真够哥们,让我来的这么舒服,好,给你个优!下次直接过来了!,哈哈,很简单吧?,不明白的同学可以看一下有关网站的书籍,或者不精通网站的同学,SEOer,本人也是不精通,乱来的,可以先学习一下,以后碰到瓶颈了也可以当一个参考看看。
3。要不然就是把robots.txt全部都设置为可被蜘蛛抓取,这样可以全部增加网站曝光率?哈哈,这也是错误的哦,打个比方,你叫一个邮递员送货到你家,其实你只需要告诉你需要送往的地方就可以了,可你偏偏不,而是把自己的姨妈姑妈老妈干**地址全说了一遍,你觉得这个邮递员会不会觉得你有点问题?明白我的意思了吗?浪费服务器资源!引擎最讨厌这样,所以出现这样的情况,引擎也会把你判刑了。你丫的胆敢浪费我的资源,吾赐予你死亡!
4。robots.txt还能让我们轻松很多,站长朋友都应该知道提交sitemap是很繁琐的吧?嘿嘿,其实我们有个好技巧,就是把sitemap直接写在robots.txt就可以了,这样蜘蛛每次过来就会直接读取里面的sitemap了,哇卡卡,天才的技巧啊,真不知道是哪个牛人编写出来的,在这里和我一起膜拜他一下吧!我只是用到而已。
|
|