logo

Gerenciador de Robots.txt

Edite e valide o seu robots.txt diretamente do painel do WordPress

Gerenciador de Robots.txt

O Gerenciador de Robots.txt permite editar e manter o seu arquivo robots.txt diretamente do painel de administração do WordPress, sem precisar de FTP ou acesso ao servidor. Disponível no Plano Basic.

O que é robots.txt?

O arquivo robots.txt é o primeiro arquivo lido pelo Google, Bing e outros rastreadores de mecanismos de busca ao visitar o seu site. Ele controla quais partes do seu site podem ou não ser indexadas.

Um erro no robots.txt pode bloquear todo o seu site dos resultados de pesquisa — por isso é fundamental ter um editor com validação integrada.

Recursos

  • Editor direto — Edite o robots.txt pelo Admin do WordPress, sem FTP
  • Validação de sintaxe — Detecta erros antes de salvar
  • Suporte completo a diretivas:
DiretivaFunção
`User-agent`Especifica a qual bot a regra se aplica
`Disallow`Bloqueia o acesso a caminhos específicos
`Allow`Permite explicitamente o acesso a sub-caminhos bloqueados
`Crawl-delay`Define o tempo de espera entre requisições
`Sitemap`Indica a URL do sitemap XML

Exemplo de um robots.txt Correto

text
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

User-agent: Googlebot
Allow: /

Sitemap: https://seusite.com/sitemap.xml

Proteção Contra Erros

O validador detecta automaticamente configurações que poderiam bloquear todo o site, como:

text
User-agent: *
Disallow: /        ← BLOQUEIA O SITE INTEIRO

> Dica: Após fazer alterações, use o Google Search Console → ferramenta de Teste de robots.txt para verificar que os bots do Google conseguem acessar suas páginas importantes.