找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 489|回复: 0

[杂谈] 突破搜索引擎robots.txt限制:让搜索引擎给你的网站做外链

[复制链接]
发表于 2015-1-15 13:15:56 | 显示全部楼层 |阅读模式 来自 中国–河南–商丘
突破搜索引擎robots.txt限制:让搜索引擎给你的网站做外链我们知道搜索引擎的产品线很长,多个产品之间总不可能完全完美地配合,因此在robots.txt的限制收录那里就产生了一个可以被利用的漏洞。
原理分析(以搜狗为例)

搜狗针对各个搜索引擎,对搜索结果页面进行了屏蔽处理。其中“/sogou?”、“/web?”等路径均是结果页面的路径,那么,会不会有这样一种情况?搜狗存在其他的搜索结果页面路径,但是在robots.txt中却没有申明屏蔽?为了验证这一猜想,我们到百度中搜索搜狗。

我们可以看到其中“/sie?”、“/sgo?”均为搜狗搜索结果页面的路径,但是在robots.txt文件中却没有被申明屏蔽!即是说这样路径的页面时允许被搜索引擎收录,如果这样的页面的搜索结果全部都是自己的网站呢?那么就实现了让搜索引擎给自己网站做外链的效果!
那么问题来了?如果让搜索结果全部都是自己的站点呢?很自然地就会想到站内搜索!具体寻找站内搜索参数的方式请自行搜索相关资料,此处直接说明结果:搜狗的站内搜索参数为insite,那么组装成这样一个网址:
http://www.sogou.com/sgo?query=SEO&insite=meeaxu.com
这个网址时可被收录的、这个页面的所有搜索结果均是指定网站的,将类似的网址在互联网上进行传播,蜘蛛爬行到之后最终会入库建立索引,最后达到了我们的目的:让搜索引擎给自己的网站链接。
写在最后
这种方法的时效性不高,很多人都使用之后就会被修复。之所以要将原理清楚地描述出来,是为了描述黑帽方法的发现过程。黑帽并不是简单地做什么站群、群发外链什么的,更多的是利用搜索引擎本身的漏洞来进行优化。本文仅仅是示例了一个非常简单的黑帽方法发现过程,更多大神都非常低调,其发现的方法也并未在互联网上传播。本文仅仅是为了让大家更了解黑帽,并非鼓励大家使用黑帽的方式来进行网站优化,不仅伤害用户也为互联网带来了更多污染。我希望大家更多地去考虑用户体验,去配合搜索引擎,同样能够达到最终目的。9年品牌麒麟广告联盟 ,正规诱惑、游戏、秀场类广告,点击率高,收入赞 欢迎测试广告  另外 年底巨型双活动进行中 100%中奖详情www.70e.com/58768.html



发帖求助前要善用【论坛搜索】功能,那里可能会有你要找的答案;

如何回报帮助你解决问题的坛友,好办法就是点击帖子下方的评分按钮给对方加【金币】不会扣除自己的积分,做一个热心并受欢迎的人!

▶专业解决各类DiscuzX疑难杂症、discuz版本升级 、网站搬家 和 云服务器销售!▶有偿服务QQ 860855665 更多精品应用
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则 需要先绑定手机号

关闭

站长推荐上一条 /1 下一条

QQ|侵权投诉|广告报价|手机版|小黑屋|西部数码代理|飘仙建站论坛 ( 豫ICP备2022021143号-1 )

GMT+8, 2025-2-4 22:07 , Processed in 0.040654 second(s), 8 queries , Redis On.

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表