UU在线工具 UU在线工具
首页 酷工具 最新 热门 历史 收藏

在线Robots.txt生成工具

工具加载中...

在线 Robots.txt 生成工具介绍

在线 Robots.txt 生成工具可帮助站长快速生成标准 robots.txt 规则文件,支持设置全站爬虫策略、指定搜索引擎规则、限制目录、抓取间隔和 Sitemap 地址,并支持一键复制或下载文件。

生成后的 robots.txt 建议放置在网站根目录(如 https://yourdomain.com/robots.txt),便于搜索引擎蜘蛛按规则抓取页面,提升抓取效率与站点可控性。

核心功能

  • 规则可视化配置:无需手写语法,勾选即可生成标准文本。
  • 多搜索引擎策略:支持按国内、国外、特殊爬虫分别设置默认/允许/拒绝。
  • 目录限制管理:可批量添加 Disallow 目录规则。
  • Sitemap 与 Crawl-delay:支持追加站点地图地址与爬取间隔。
  • 一键导出:支持复制结果与下载 robots.txt 文件。

使用教程

  1. 先设置“所有搜索引擎”策略(允许或拒绝)。
  2. 按需为特定搜索引擎单独配置抓取权限。
  3. 填写要限制抓取的目录(必须以 / 开头)。
  4. 按需填写 Crawl-delay(秒)与 Sitemap 地址。
  5. 点击“生成 Robots.txt”,复制或下载后上传到网站根目录。

字段说明

  • User-agent:指定规则作用的爬虫,* 表示所有爬虫。
  • Disallow:禁止访问路径,Disallow: / 表示禁止整站。
  • Allow:允许访问路径,用于覆盖更细粒度规则。
  • Crawl-delay:爬虫抓取间隔,单位为秒。
  • Sitemap:声明站点地图地址,方便搜索引擎发现页面。

常见问题

1. robots.txt 是必须的吗?

强烈建议配置。即使规则较少,也应在根目录提供可访问的 robots.txt,避免搜索引擎读取异常。

2. 限制目录为什么必须以 / 开头?

这是 robots 规则常用路径写法,确保规则按网站根路径匹配,避免无效配置。

3. 设置 Disallow: / 会怎样?

表示禁止对应爬虫抓取整站,请谨慎使用,避免影响收录。

4. Sitemap 可以写多个吗?

可以。工具支持添加多个 Sitemap 地址,适用于多语言或分模块站点。