找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 4834|回复: 0

[分享] robots文件对网站的作用及常用详写方法

  [复制链接]
发表于 2019-11-5 15:47:09 | 显示全部楼层 |阅读模式 来自 河南省郑州市

网站制作好之后上线,作为一个新网站,看到的人不会太多,毕竟有这么多的网站,你的网站只是其中一员,想要网站让更多的人看到,需要有很好的排名,可以做竞价排名,还可以做搜索引擎优化,做搜索引擎优化,在布局之前要做一个相对比较重要的文件——robots文件。


  这个文件根据自己网站情况,可以设定想要搜索引擎抓取哪些内容,不抓取哪些内容,或是指定哪个搜索引擎抓取。我们在设置robots文件时也需要注意规则不要写错,我们一起来看看robots文件格式和写法。


  robots文件里一般写这三行规则:


  User-agent:


  Allow:


  Disallow:


  这三种


  User-agent后面可以跟指定的搜索引擎蜘蛛,比如:User-agent:Baiduspider,就是适配百度蜘蛛,只允许百度蜘蛛抓取。


  User-agent:*是适配所有搜索引擎蜘蛛,都可以抓取。


  Disallow是禁止搜索引擎抓取网站的某些文件,你可以根据网站情况设置。


  Allow后面可以填写蜘蛛可以抓取的页面,文件。举例写法:


  仅禁止Baiduspider访问您的网站


  User-agent:Baiduspider


  Disallow:/


  禁止所有搜索引擎访问网站的任何部分


  User-agent:*


  Disallow:/


  允许所有的robot访问


  User-agent:*


  Allow:/


评分

参与人数 1金币 -500 收起 理由
天外飘仙 -500 低质分享,纯为混外链

查看全部评分

发帖求助前要善用【论坛搜索】功能,那里可能会有你要找的答案;

如何回报帮助你解决问题的坛友,好办法就是点击帖子下方的评分按钮给对方加【金币】不会扣除自己的积分,做一个热心并受欢迎的人!

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则 需要先绑定手机号

关闭

站长推荐上一条 /1 下一条

QQ|侵权投诉|广告报价|手机版|小黑屋|西部数码代理|飘仙建站论坛 ( 豫ICP备2022021143号-1 )

GMT+8, 2024-4-25 03:55 , Processed in 0.037973 second(s), 10 queries , Redis On.

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表