找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 2859|回复: 0

[已解决] robots.txt文件是啥

  [复制链接]
发表于 2013-2-18 14:55:09 | 显示全部楼层 |阅读模式 来自 中国–浙江–杭州
       首先要说的是 robots 只是个协议而非命令,这个文件的效果主要是取决于搜索引擎是否遵守该协议。
  robots协议(也称为爬虫协议、爬虫规则、机器人协议等)也就是robots.txt,网站通过robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。Robots协议是网站国际互联网界通行的道德规范,其目的是保护网站数据和敏感信息、确保用户个人信息和隐私不被侵犯。因其不是命令,故需要搜索引擎自觉遵守。一些病毒如malware(马威尔病毒)经常通过忽略robots协议的方式,获取网站后台数据和个人信息。
  robots.txt文件是一个文本文件,使用任何一个常见的文本编辑器,比如Windows系统自带的Notepad,就可以创建和编辑它。robots.txt是一个协议,而不是一个命令。robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。
  文件写法
  User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符
  Disallow: /admin/ 这里定义是禁止爬寻admin目录下面的目录
  Disallow: /require/ 这里定义是禁止爬寻require目录下面的目录
  Disallow: /ABC/ 这里定义是禁止爬寻ABC目录下面的目录
  Disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下的所有以".htm"为后缀的URL(包含子目录)。
  Disallow: /*?* 禁止访问网站中所有包含问号 (?) 的网址
  Disallow: /.jpg$ 禁止抓取网页所有的.jpg格式的图片
  Disallow:/ab/adc.html 禁止爬取ab文件夹下面的adc.html文件。
  Allow: /cgi-bin/ 这里定义是允许爬寻cgi-bin目录下面的目录
  Allow: /tmp 这里定义是允许爬寻tmp的整个目录
  Allow: .htm$ 仅允许访问以".htm"为后缀的URL。
  Allow: .gif$ 允许抓取网页和gif格式图片
  文件用法
  例1. 禁止所有搜索引擎访问网站的任何部分
  User-agent: *
  Disallow: /
  实例分析:淘宝网的 Robots.txt文件
  User-agent: Baiduspider
  Disallow: /
  User-agent: baiduspider
  Disallow: /
  很显然淘宝不允许百度的机器人访问其网站下其所有的目录。
  例2. 允许所有的robot访问 (或者也可以建一个空文件 “/robots.txt” file)
  User-agent: *
  Allow: /
  例3. 禁止某个搜索引擎的访问
  User-agent: BadBot
  Disallow: /
  例4. 允许某个搜索引擎的访问
  User-agent: Baiduspider
  allow:/

评分

参与人数 1金币 -75 收起 理由
天外飘仙 -75 非求助类帖子

查看全部评分

发帖求助前要善用【论坛搜索】功能,那里可能会有你要找的答案;

如何回报帮助你解决问题的坛友,好办法就是点击帖子下方的评分按钮给对方加【金币】不会扣除自己的积分,做一个热心并受欢迎的人!

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则 需要先绑定手机号

关闭

站长推荐上一条 /1 下一条

QQ|侵权投诉|广告报价|手机版|小黑屋|西部数码代理|飘仙建站论坛 ( 豫ICP备2022021143号-1 )

GMT+8, 2024-11-22 19:38 , Processed in 0.052121 second(s), 13 queries , Redis On.

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表