Gerenciador de Robots.txt
Edite e valide o seu robots.txt diretamente do painel do WordPress
Gerenciador de Robots.txt
O Gerenciador de Robots.txt permite editar e manter o seu arquivo robots.txt diretamente do painel de administração do WordPress, sem precisar de FTP ou acesso ao servidor. Disponível no Plano Basic.
O que é robots.txt?
O arquivo robots.txt é o primeiro arquivo lido pelo Google, Bing e outros rastreadores de mecanismos de busca ao visitar o seu site. Ele controla quais partes do seu site podem ou não ser indexadas.
Um erro no robots.txt pode bloquear todo o seu site dos resultados de pesquisa — por isso é fundamental ter um editor com validação integrada.
Recursos
- Editor direto — Edite o robots.txt pelo Admin do WordPress, sem FTP
- Validação de sintaxe — Detecta erros antes de salvar
- Suporte completo a diretivas:
| Diretiva | Função |
|---|---|
| `User-agent` | Especifica a qual bot a regra se aplica |
| `Disallow` | Bloqueia o acesso a caminhos específicos |
| `Allow` | Permite explicitamente o acesso a sub-caminhos bloqueados |
| `Crawl-delay` | Define o tempo de espera entre requisições |
| `Sitemap` | Indica a URL do sitemap XML |
Exemplo de um robots.txt Correto
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
User-agent: Googlebot
Allow: /
Sitemap: https://seusite.com/sitemap.xmlProteção Contra Erros
O validador detecta automaticamente configurações que poderiam bloquear todo o site, como:
User-agent: *
Disallow: / ← BLOQUEIA O SITE INTEIRO> Dica: Após fazer alterações, use o Google Search Console → ferramenta de Teste de robots.txt para verificar que os bots do Google conseguem acessar suas páginas importantes.