栏目导航
热点推荐
- SEO教程:搜索引擎收录页面流程原
- SEO作弊方法和SEO作弊认定准则
- 最新的SEO优化公式
- 网站优化SEO相关知识问答
- 展现最优质内容 正确配置Robots
- 什么是Meta标签?
- SEO简介与给网站带来的好处
- 搜索引擎优化(SEO)的细节内容
- SEO专业术语,效果,服务及前景
- 学好seo的六条经典秘诀
- 什么是搜索引擎优化?
- 404页面该怎么做?
阅览排行
展现最优质内容 正确配置Robots文件
www.jz123.cn 2009-01-15 来源: 中国建站 编辑整理 我要投递新闻
一个网站要建立好良好的形象,必定要“扬长避短”。通过robots.txt来限制蜘蛛的爬行页面,不让蜘蛛爬行质量比较低劣的网页。
Google,雅虎,微软就合作共同遵守统一的Sitemaps标准,又宣布,共同遵守的robots.txt文件标准。Google,雅虎,微软各自在自己的官方博客上发了一篇帖子,公布三家都支持的robots.txt文件及Meta标签的标准,以及一些各自特有的标准。下面做一个总结。
三家都支持的robots文件记录包括:
Disallow - 告诉蜘蛛不要抓取某些文件或目录。如下面代码将阻止蜘蛛抓取所有的网站文件:
User-agent: *
Disallow: /
Allow - 告诉蜘蛛应该抓取某些文件。Allow和Disallow配合使用,可以告诉蜘蛛某个目录下,大部分都不抓取,只抓取一部分。如下面代码将使蜘蛛不抓取ab目录下其他文件,而只抓取其中cd下的文件:
User-agent: *
Disallow: /ab/
Allow: /ab/cd
$通配符 - 匹配URL结尾的字符。如下面代码将允许蜘蛛访问以.htm为后缀的URL:
User-agent: *
Allow: .htm$
*通配符 - 告诉蜘蛛匹配任意一段字符。如下面一段代码将禁止蜘蛛抓取所有htm文件:
User-agent: *
Disallow: /*.htm
Sitemaps位置 - 告诉蜘蛛你的网站地图在哪里,格式为:
Sitemap:
上一篇:通过谷歌网站管理员工具改变您的网站设置 下一篇:入门:网站SEO计划书