CSS基础
CSS培训
CSS学研室
免费注册
登录
帮助
CSS论坛
»
SEO交流区
» 巧用robots文件提高网站排名
‹‹ 上一主题
|
下一主题 ››
发新话题
发布投票
发布商品
发布悬赏
发布活动
发布辩论
发布视频
打印
巧用robots文件提高网站排名
哎伊呀伊哟
新手上路
发短消息
加为好友
当前离线
1
#
大
中
小
发表于 2012-3-27 14:20
只看该作者
巧用robots文件提高网站排名
Robots文件是网站和蜘蛛程序之间的“君子协议”——robots文件不仅仅可以节省网站的资源,还可以帮助蜘蛛更加有效的抓取,从而提高
上海SEO公司
网站排名。
1:只允许谷歌bot
如果要拦截除谷歌bot之外的所有爬虫:
User-agent:*
disallow:/
Uer-agent:允许的蜘蛛名
Disallow:
2:“/folder/”和“/folder”的区别
举个例子:
User-agent:*
Disallow:/folder/
Disallow:/folder
“Disallow:/folder/”表示拦截的是一个目录,该目录文件下的所有文件不允许被抓取,但是允许抓取folder.hlml。
“Disallow:/folder”:对/folder/下的所有文件和folder.html都不能被抓取。
3:“*”匹配任意字符
User-agent:*
表示屏蔽所有的蜘蛛。当我们做了伪静态处理之后,会同时又动态网页和静态网页,网页内容一模一样,视为镜态页面,所以我们要屏蔽掉动态的网页,可以用*号来屏蔽动态的网页
User-agent:*
Disallow:/?*?/
4:$匹配网址结束
如果要拦截以某个字符串结束的网址,就可以使用$,例如,要拦截以.asp结束的网址:
User-agent:*
Disallow:/*.asp$
也可以打开比较优秀的网站,看他们的robots文件是如何书写的,然后根据自己的需求进行相应的修改。Robots文件可以让蜘蛛把更多的时间花在要抓取的内容上,所以优化robots文件是很有必要的。
本文由
上海搜索引擎优化公司
–
夏易网络提供。
UID
13471
帖子
115
精华
0
积分
0
阅读权限
10
在线时间
28 小时
注册时间
2012-3-15
最后登录
2012-5-24
查看详细资料
TOP
‹‹ 上一主题
|
下一主题 ››
最近访问的版块
css新人指导(指示牌)
CSS提问(问题解决)区
CSS树根(掌握与打牢基础)
css新人指导(指示牌)
CSS常见问题和精华
CSS提问(问题解决)区
网页制作基础(html基础)
CSS资源共享(模板、特效、模块)区
CSS站务与公告
CSS树枝(交流分享掌握全面)
新大陆(新发现)
SEO交流区
CSS模板制作交流
网店装修(如淘宝、空间)区
Photoshop+Cdr网页设计专区
CSS开花结果(合作与交易)
CSS制作任务
网页模板交易
网站程序交易
友情链接交换与合作
控制面板首页
编辑个人资料
积分交易
积分记录
公众用户组