会员登录 | 会员注册 | 意见建议 | 网站地图

站长资源综合门户

当前位置:首页 > 搜索引擎 > 站长如何制作住正确的robots来

站长如何制作住正确的robots来

时间:2012-05-28 18:44:19   作者:   来源:   点击:

搜索引擎优化优化的手艺吵嘴不但仅在于内容和外链上,更重要的是一些细节上的措置,因为内容和外链相对来讲需要掌握的要点不是很多,并且易于操作、容易理解;而网站优化的其他一些细节措置,相对来讲平时接触的少,对这些体会的也很少,真正要措置时却遇到很多问题,比如搜索引擎优化优化常规的404页面的制作,301重定向的措置,robots的一个成立等,对网站来讲都是不成或缺的一部分。

下面来讲说robots,首先它是一个协议,对网站的抓取取到重要作用,成立robots的意义在于它可让蜘蛛听从命令从命放置,解决了网站的一些隐私和不需要抓取的页面,同时也可以强调某一部分必须抓取。robots看似一个很是简单的操作,但平时如果没有太注意或多操作,你写的robots未必就是正确的,因为里面涉及到一些指令,没有写对可能会影响网站的抓取。

百度站长平台推出了robots东西(http://zhanzhang.百度/robots),只要注册下,认证下网站就ok了,它可以很好的查验你的robots写的是否正确,该东西可以检测您的网站是否有robots.txt文件,及robots.txt文件内容,并能依照您的需求生成正确的robots.txt文件,为robots文件的制作起到了很年夜的帮忙。

一、可以检测到网站是否有robots文件

通过网站验证后,你可以任意测试网站,看该是否有制作robots,如果有它会一一列出你网站设置的情况,比如什么文件有抓取,什么文件被屏蔽了,一目了然,并且提示是否有毛病的处所;而没做robots协议的,他也会提示:“您的网站没有robots.txt文件,暗示您允许搜索引擎可以抓取您网站全部的内容”。如图所示(chinaz的robots检测成果):

2、可以检测到网站robots是否正确

很多朋友都是想当然,认为robots书写很简单,真正测试一下就会发现是毛病的。在robots添加网站地图相信是年夜家都很熟悉的,主要目的是让搜索引擎蜘蛛顺利抓取网站地图,屏蔽蜘蛛是用Disallow,允许抓取时用Allow,想当然很多站长为了让蜘蛛抓取网站,直接把网站地图定义为:Allow: .***/sitemap.html,成果检测一下原来是毛病的,如图:

百度一下才发现,原来格局为Sitemap: .***/sitemap.html,虽然这个操作很简单,但如果没有robots东西的辅助,你可能长时间也不会发现这个问题。

三、按你的需求生成正确的robots.txt文件

如果你不懂如何制作robots文件,里面有很详细的内容介绍,包含robots的概念、如何制作等,操纵表格的形式一一列出来,并且还有多方面的例子,比起百度百科要清晰明了的多,体会了概念后,当然就是手动制作了,它能够很好的依照你的想法一一生成内容,比如你不想让制作抓取联系我们这个页面,你便可以直接在上面操作:

完成后只需要将文件下载下来,放到网站的根目录就年夜功成功了,感触感染是不是比看百度百科要清晰明了的多了?别的很多操作的细节操纵百度是没体例解决的,事实成果网站上的内容或不雅点很多都是有误的,只能好好操纵百度官方的东西才是最好的!文章由淘宝网登岸 http://jyxxjc 小编原创,转载请加上文章中链接,谢谢合作。

分享到:

网友评论