百度关键词优化三天上首页!同行都是朋友, 欢迎一起互利共赢。谢绝一切非正规行业服务,感谢以下同行、团队、平台和代理的支持:

百度站长平台、MIP开发小组、SEO焦大老友、SEO每天一贴ZAC大哥、卢松松大哥、海瑶SEO兄弟、附子SEO兄弟、探索者SEO、帮站SEO好友、互点宝、超快排平台

百亿互刷宝、下拉天下、SEO自学网、SEO研究中心、小明SEO、王德春SEO、马海祥博客、踏雪无痕挂机工作室、SEO云优化好友、云客网、杭州思亿欧、网赚吧、北京SEO韩非老弟

需要了解以上同仁的相关信息,我们已经给你做好了搜索框,看右上角绿色那个,输入搜索即刻直达

网站统计: 共有读稿:14367部 / 今日更新:1篇 / 评论:12条 / 会员:48 名 / 阅读:382491
您好,请 【登陆】【注册】
技术学习内容页横幅广告
您现在的位置:SEO平台 > SEO技术学习 >

SEO教程之Robots设置优化

2016.11.19

浏览:

【导语】如果您觉得本篇内容还不错,请点击文章下面的赞,然后分享给朋友哦!...

SEO教程之Robots设置优化...请看详情...

seo

seo

u=3268763733,2871354573&fm=11&gp=0.jpg

1.什么是Robots?

robots文件的使用相信很多站长都会比较熟悉,但是在细节上会有所疏忽,不是特别的精通。因为robots优化的相关信息搜索引擎并没有给出比较详尽的声明及运用方法,以及每个站长对于robots的需求不同等特点,导致robot的优化方式更加灵活善变,那么robots到底是什么呢?我们可以简单的理解为通过这个robots位于网站根目录的文件协议来告诉蜘蛛哪些是可以访问收录哪些是不可以访问收录的!当蜘蛛访问您的网站的时候他首先会先检测您的网站是否设置的有robots文件协议,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索机器人就会沿着链接抓取。


2.Robots优化写作方法:

首先,我们来看一个robots.txt范例:

# robots .txt file from http://www.seozf.com

#All robots will spider the domain

User-agent:.

Disallow:

以上文本表达的意思是允许所有的搜索机器人访问www.seozf.com站点

下的所有文件。具体语法分析如下。

    #后而文字为说明信息;

    User-agent后面为搜索机器人的名称,如果是“。”,则泛指所有的搜索机器人;

    Disallow后面是不允许访问的文件目录,如目录为空则不起任何禁止作用。

    下而,列举一些robots.txt的具体用法。

    允许所有的robot访问,格式如下:

User-agent:.

Disallow:

    或者也可以建一个空robots.txt文件。

    禁止所有搜索引擎访问网站的任何部分,格式如下:

User-agent:.

Disallow:/

    禁止所有搜索引擎访问网站的某几个部分,比如下例中禁止访问01, 02, 03

目录:

User-agent

Disallow:/aa/

Disallow:/bb/

Disallow:/cc/

禁止某个搜索引擎的访问,比如下例中的BadBot:

User-agent:BadBot

Disallow:/

只允许某个搜索引擎的访问,比如下例中的Crawler:

User-agent:Crawler


1
赞一个
关键词: robots优化 seo教程
☆喜欢这篇文章吗?分享给你的好友吧!点击这里复制网址☆
共有10人阅读,期待你的评论!评论
请先登陆后才能发表评论哦!没账号?赶紧注册一个吧!
最新评论
热门标签
回到顶部