robots协议怎么写 作用是什么?

1、robots协议是什么

robots协议也叫 robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不应被搜索引擎的漫游器获取的,哪些是可以被漫游器获取的。

2、robots协议怎么写

因为一些系统中的URL是大小写敏感的,所以robots.txt的文件名应统一为小写。

User-agent: *

Disallow:

allow:

“*”和”$”的含义

Baiduspider支持使用通配符”*”和”$”来模糊匹配url。

“$” 匹配行结束符。

“*” 匹配0或多个任意字符。

对于一般企业可以这样的去写,在Disallow掉不想被搜索引擎抓取的文件即可,比如我们的网站数据,图片等等。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至253000106@qq.com举报,一经查实,本站将立刻删除。

发布者:SEO优化专员,转转请注明出处:https://www.chuangxiangniao.com/p/903721.html

(0)
上一篇 2025年1月4日 03:36:40
下一篇 2025年1月4日 03:37:01

AD推荐 黄金广告位招租... 更多推荐

相关推荐

  • robots具体应该禁止些什么文件

    网上robots的写法,说法一大堆,也不知谁对谁错,到底robots该禁止那些文件呢? 今天大概总结一下: 首先说明一点:每天百度派出的蜘蛛是有限的,robots写出来是为了节省蜘蛛资源让蜘蛛能更快的进行有效爬取和收录! 针对企业站来说,本…

    搜索优化 2025年1月4日
    100
  • 百度站长平台检测robots.txt 提示301错误代码 怎么解决

    今天我们来讲解一个小问题,很多朋友更新了robots.txt文件以后,然后去百度站长平台监测 robots.txt是否正确,却被提示:百度暂时无法链接服务器,错误301代码,这个时候我们应该怎么解 决那?其实解决方法并不是很难,今天就教大家…

    2025年1月4日
    200
  • robots文件编写秘籍 新手必看

    当我们的网站上线之后,一定会有一些不想让百度抓取的页面、文件,针对这种问题,我们就要使用协议去屏蔽。那么这个协议是什么?究竟怎么写这个协议呢? 一、什么是搜索引擎协议: 搜索引擎协议也就是我们常说的robots.txt。这是我们网站和搜索引…

    网站运营 2025年1月4日
    200

发表回复

登录后才能评论

联系我们

156-6553-5169

在线咨询: QQ交谈

邮件:253000106@qq.com

工作时间:周一至周五,9:30-18:30,节假日休息

联系微信