Tiempo de lectura aprox: 1 minutos, 47 segundos

Últimamente veo mucho contenido sobre SEO técnico y logs y creo que ha llegado el momento de aterrizar todo en una única entrada.

Realizar un análisis de logs en SEO implica examinar los archivos de registro del servidor web para obtener información sobre cómo los motores de búsqueda interactúan con la web e identificar áreas de mejora. Los valiosos logs contienen datos sobre todas las solicitudes realizadas al servidor, incluidas las realizadas por bots de motores de búsqueda como Googlebot.

¿Cómo soléis realizar el análisis de logs para SEO?

Os cuento un poco mi método:

Recopilación de Logs

  • Acceso a los archivos de registro del servidor, que pueden encontrarse en diferentes ubicaciones dependiendo del servidor web.
  • Formato de Logs: los logs deben de contener información como la dirección IP, la fecha y hora de la solicitud, la URL solicitada, el código de estado HTTP, el agente de usuario (User-Agent)…

Filtrado de Datos

  • Identificación de Bots: filtramos los registros para identificar las solicitudes realizadas por bots de motores de búsqueda. Buscamos básicamente User-Agents conocidos como Googlebot, Bingbot etc.
  • Eliminación de Datos Irrelevantes: vamos excluyendo los registros que no son relevantes para el análisis SEO, como solicitudes de recursos estáticos (imágenes, CSS, JavaScript).

Análisis de Datos

1. Frecuencia de Rastreo

  • Páginas Más Rastreada: aquí puede ayudar al SEO, identificar las páginas más rastreadas por los bots, es decir, qué páginas considera importantes el motor de búsqueda.
  • Frecuencia de Rastreo: también, analizamos con que frecuencia los bots visitan la web y sus diferentes secciones.

2. Códigos de Estado HTTP

  • Errores 404: individuamos las páginas que devuelven errores 404, que pueden perjudicar nuestro posicionamiento SEO.
  • Redirecciones 301/302: analizamos redirecciones para asegurarnos de que están bien configuradas.
  • Errores 500: identifica problemas del servidor que necesitan ser resueltos.

3. Patrones de Rastreo

  • Nuevas Páginas vs. Páginas Antiguas: interesante comparar la frecuencia de rastreo de nuevas páginas VS antiguas.
  • Secciones Ignoradas: miramos si hay partes o secciones del sitio que no están siendo rastreadas adecuadamente y si no es lo que queremos, corregimos.

Herramientas de análisis de logs

  • Herramientas de Logs: Screaming Frog Log File Analyser u OnCrawl, o si lo dominas, los logs se pueden analizar utilizando lenguajes de scripting como Python.
  • Visualización de Datos: yo suelo visualizar los datos con Excel, Google Data Studio, pero también se pueden usar herramientas de Business Intelligence para presentar los resultados de manera clara.

Correcciones tras el análisis

  • Optimización de Rastreo: utilizamos el archivo robots.txt y las etiquetas meta robots para guiar a los bots de búsqueda y optimizar su comportamiento de rastreo.
  • Corrección de Errores: corregimos los errores 404, ajustamos las redirecciones y solucionamos los problemas del servidor detectados anteriormente.
  • Optimización de Contenidos: hay que asegurarse de que las páginas más rastreadas contengan contenido relevante y optimizado para SEO.

Monitorización continua

  • Revisiones Periódicas: el análisis de logs se debería realizar de manera regular (dependiendo del proyecto), para detectar problemas recurrentes y nuevas oportunidades.
  • Ajustes estratégicos: Ajustamos las estrategias SEO coherentemente con los patrones de rastreo y comportamiento de los bots que hemos detectado analizando los logs.

¿Y tu?

¿Analizas logs o necesitas alguien que te eche una mano con esto? Hablemos 🙂