我的 robots.txt 看起来像这样:

User-agent: *
Disallow: /admin
Disallow: /test

User-Agent: Googlebot
Disallow: /maps

现在 Google 忽略了 user-agent * 部分,只遵守特定的 Googlebot 指令 (/maps)。这是正常行为吗,不应该也遵守 useragent * 指令 (/admin,/test)?

必须为每个用户代理添加每一行似乎很奇怪?

最佳答案

没关系,谷歌声明如下:

关于seo - robots.txt 中用户代理的顺序,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/14065889/

10-13 00:12