Crawler Logs
Monitorea qué bots visitan tu sitio, qué páginas rastrean y con qué frecuencia
Crawler Logs
El Crawler Logs registra automáticamente cada visita de bots y crawlers a tu sitio, dándote visibilidad completa sobre cómo los motores de búsqueda rastrean tu contenido. Disponible en el Plan Mid.
Qué se Registra
Cada entrada en el log contiene:
| Campo | Descripción |
|---|---|
| **Bot / Crawler** | Nombre identificado (Googlebot, Bingbot, DuckDuckBot, etc.) |
| **URL visitada** | Página específica que rastreó el bot |
| **Timestamp** | Fecha y hora exacta de la visita |
| **User Agent completo** | String completo del agente del crawler |
| **Frecuencia de rastreo** | Con qué regularidad visita esa URL |
Casos de Uso
Verificar que Google está Indexando
Comprueba que Googlebot visita tus páginas nuevas y actualizadas después de publicarlas. Si una página no aparece en los logs después de 2–3 semanas, puede haber un problema de indexación.
Identificar Páginas Más Rastreadas
Descubre qué contenido atrae más la atención de los crawlers — generalmente el contenido más valioso o más enlazado de tu sitio.
Detectar Bots Maliciosos
Identifica User Agents desconocidos o bots con patrones de rastreo inusuales que podrían estar haciendo scraping de tu contenido.
Timing de Crawl
Saber cuándo pasa Googlebot te permite programar publicaciones importantes justo antes de las visitas habituales.
Debug de Problemas de Indexación
Si una página no aparece en Google, los logs te indican si el bot la está visitando pero no indexando — o si directamente no la visita.
Base de Datos
Los logs se almacenan en la tabla wp_baseo_crawler_logs de tu base de datos WordPress. Los datos persisten entre sesiones y son consultables con filtros por bot, URL y rango de fechas.