首页 > 其他 > 详细

Robots 限制搜索引擎蜘蛛抓取哪些文件

时间:2015-09-12 02:04:17      阅读:237      评论:0      收藏:0      [点我收藏+]

编辑一份 Robots 文件,另存为robots.txt,存在到服务器的根目录里

User-agent: * 
Disallow: /plus/ad_js.php
Disallow: /plus/advancedsearch.php
Disallow: /plus/car.php
Disallow: /plus/carbuyaction.php
Disallow: /plus/shops_buyaction.php
Disallow: /plus/erraddsave.php
Disallow: /plus/posttocar.php
Disallow: /plus/disdls.php
Disallow: /plus/feedback_js.php
Disallow: /plus/mytag_js.php
Disallow: /plus/rss.php
Disallow: /plus/search.php
Disallow: /plus/recommend.php
Disallow: /plus/stow.php
Disallow: /plus/count.php
Disallow: /include
Disallow: /templets

?

效果图:
bubuko.com,布布扣
?

打开百度站长链接:http://zhanzhang.baidu.com/robots/index

输入域名或子域名

bubuko.com,布布扣
?
bubuko.com,布布扣

?

robots.txt文件用法举例
bubuko.com,布布扣
??

?

Robots 限制搜索引擎蜘蛛抓取哪些文件

原文:http://onestopweb.iteye.com/blog/2242748

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!