zblog的robots.txt怎么写?zblog的robots.txt文件示例下载

robots.txt对于比较seo的站长来说是一个很重要的东西,经常有朋友再问zblog的robots怎么写?本文就来详细说明下。


首先来解释下robots.txt是什么?robots.txt有什么作用?


robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。

以上内容来自百度百科。


看了上面的内容就能了解robots.txt是告诉搜索们该收录哪些页面, 所以我们就要知道zblog程序里面哪有文件夹是给蜘蛛爬的哪些文件夹不能给蜘蛛爬。请参考“https://www.txcstx.cn/post/1085.html”。


给大家一个示范的robots.txt也就是本站的robots.txt文件:


Markup

User-agent: *

Disallow: /zb_users/

Disallow: /zb_system/

Sitemap:https://www.zbloghub.com/sitemap.xml

上面的robots.txt意思是让蜘蛛不要爬zb_users和zb_system这两个文件夹,另外本站的“Sitemap”文件是“seo工具大全”插件生成的,你们可以下载其他插件(https://app.zblogcn.com/search.php?q=Sitemap)生成Sitemap文件。


转载请说明出处内容投诉
zblog资源网 » zblog的robots.txt怎么写?zblog的robots.txt文件示例下载

发表评论

欢迎 访客 发表评论

加入会员,享受更优质的zblog技术服务!

马上加入 会员说明 联系客服