几乎每个网站都有robots文件,robots文件可以规定哪些蜘蛛可以抓取网站的哪些文件,屏蔽掉不想被访问的蜘蛛,节省资源以及避免被不必要的采集。屏蔽掉不需要被蜘蛛访问的特定目录,节省蜘蛛资源,把蜘蛛引导到更需要的目录去,提高蜘蛛抓取效率,从而达到我们seo的目的。 Robots文件的好处大家都知道,但是由于没有正确的处理好robots文件,而造成不可预计的后果,这也是经常有的事。比如小编曾经操作过一个网站,网站的博客子域名始终不收录,无论怎么加内链和外链,都不能收录。后来觉得奇怪,仔细找了下原因,才知道是因为在robots里,把这个子域名给屏蔽掉了。 可见robtos的重要性。经常对网站的robots文件进行检测,也是非常有必要的。爱站就有这样一个robots文件检测工具,可以自动检测robots文件的问题。
|