logo

Crawler Logs

Monitorea qué bots visitan tu sitio, qué páginas rastrean y con qué frecuencia

Crawler Logs

El Crawler Logs registra automáticamente cada visita de bots y crawlers a tu sitio, dándote visibilidad completa sobre cómo los motores de búsqueda rastrean tu contenido. Disponible en el Plan Mid.

Qué se Registra

Cada entrada en el log contiene:

CampoDescripción
**Bot / Crawler**Nombre identificado (Googlebot, Bingbot, DuckDuckBot, etc.)
**URL visitada**Página específica que rastreó el bot
**Timestamp**Fecha y hora exacta de la visita
**User Agent completo**String completo del agente del crawler
**Frecuencia de rastreo**Con qué regularidad visita esa URL

Casos de Uso

Verificar que Google está Indexando

Comprueba que Googlebot visita tus páginas nuevas y actualizadas después de publicarlas. Si una página no aparece en los logs después de 2–3 semanas, puede haber un problema de indexación.

Identificar Páginas Más Rastreadas

Descubre qué contenido atrae más la atención de los crawlers — generalmente el contenido más valioso o más enlazado de tu sitio.

Detectar Bots Maliciosos

Identifica User Agents desconocidos o bots con patrones de rastreo inusuales que podrían estar haciendo scraping de tu contenido.

Timing de Crawl

Saber cuándo pasa Googlebot te permite programar publicaciones importantes justo antes de las visitas habituales.

Debug de Problemas de Indexación

Si una página no aparece en Google, los logs te indican si el bot la está visitando pero no indexando — o si directamente no la visita.

Base de Datos

Los logs se almacenan en la tabla wp_baseo_crawler_logs de tu base de datos WordPress. Los datos persisten entre sesiones y son consultables con filtros por bot, URL y rango de fechas.