网站导航网学 原创论文 原创专题 网站设计 最新系统 原创论文 论文降重 发表论文 论文发表 UI设计定制 论文答辩PPT格式排版 期刊发表 论文专题
返回网学首页
网学原创论文
最新论文 推荐专题 热门论文 论文专题
当前位置: 网学 > 设计资源 > SEO优化教程 > 正文

我们怎么写网站的robots.txt来限制搜索引擎抓取

论文降重修改服务、格式排版等 获取论文 论文降重及排版 论文发表 相关服务
 做网站当然希望搜索引擎抓取我们网站的内容,但我们做SEO优化 href="http://www.seowindows.com/" target=_blank>SEO优化时候并不希望所有的信息都公布于众,比如后台隐私,或者其它一些杂七杂八的信息。
 
那么这时候我们就可以能过robots.txt 文件来控制网站在搜索引擎中的展示,robots.txt是一个纯文本文件,通过在这个文件中声明该网站中不想被搜索引擎 robots 访问的部分。
 
如果你还不太了解 robots.txt,可以先看看SEO教程 href="http://www.seowindows.com/" target=_blank>免费SEO教程网 robots.txt的写法。
 
先来看看带“*”的一种写法:
----------------------------------------------------------------------------------------
User-agent: *
Disallow: /ad*
Allow: /ad/img/
Disallow: /*.php$
Disallow: /*.jsp$
Disallow: /*.css$
----------------------------------------------------------------------------------------
这种写法允许所有蜘蛛访问,但会限制以“ad”开头的目录及文件,并限制抓取.php文件、.jsp文件和.css文件。其中 Disallow: /ad* 会连同附件目录(即你上传的图片、软件等)一起限制抓取,如果想让搜索引擎抓取img目录中的内容,需要将写上第三行“Allow: /ad/img/“。
 
再来看来较合理的一种写法:
----------------------------------------------------------------------------------------
User-agent: *
Disallow: /admin
Disallow: /content/plugins
Disallow: /content/themes
Disallow: /includes
Disallow: /?s=
Sitemap: http://www.seowindows.com/SiteMap/Article1.htm
----------------------------------------------------------------------------------------
采用这种写法允许所有搜索引擎抓取,并逐一列举需要限制的目录,同时限制抓取网站的搜索结果,最后一行代码是你网站的 Sitemap 路径,大多数搜索引擎都会识别它。
 
如果对自己写的robots.txt不放心,建议你使用 Google管理员工具中的“工具 -> 测试 robots.txt”来对你的 robots.txt进行测试,确保你的修改正确。
  • 上一篇资讯: 被搜索引擎省略了相似内容的条目该怎么办
  • 下一篇资讯: 通过SEO优化提高淘宝网店的销量
  • 相关资讯

    网学推荐

    原创论文

    文章排行榜

    设为首页 | 加入收藏 | 网学首页 | 原创论文 | 计算机原创
    版权所有 网学网 [Myeducs.cn] 您电脑的分辨率是 像素
    Copyright 2008-2020 myeducs.Cn www.myeducs.Cn All Rights Reserved 湘ICP备09003080号 常年法律顾问:王律师