Marketing publicidad

Análisis de logs para el SEO

 

El análisis de logs para el SEO, y la posterior corrección de problemas encontrados en los registros, es una de las acciones técnicas que más nos ayudará a conseguir mejores posiciones en el buscador, ya que:

  • Demasiados errores de respuesta pueden reducir el rastreo de Google sobre nuestro sitio web (e incluso nuestra posición).
  • Nos servirá para asegurarnos de que los motores de búsqueda están rastreando todo el contenido (nuevo y antiguo) que deseamos que aparezca y se posicione en la SERP.
  • Es crucial para asegurar que todas las redirecciones pasarán adecuadamente el link juice.

¿Qué son los logs?

Los servidores, sistemas operativos, dispositivos de red y aplicaciones generan automáticamente una entrada de registro (log entry) cada vez que realizan una acción/evento. En un contexto de SEO y marketing digital, este tipo de acción se refiere a una página es solicitada por un bot o persona.

Por tanto un log (archivo de registro), es un registro de actividad de un sistema (servidor, sistema operativo, apps…) que se guarda en un fichero de texto sobre el cual podemos ver las acciones (peticiones de páginas) que se han realizado sobre nuestra web.

 

¿Qué es el análisis de logs?

El análisis de logs (log analytics) es el proceso de analizar los archivos de registro para sacar información sobre sus datos.

Suele utilizarse para:

  • Solución de problemas de red– Averiguar y arreglar los errores del sistema en una red
  • Atención al cliente– Determinar lo ocurrido cuando los clientes tienen un problema con un producto técnico
  • Seguridad– Investigación de ataques de piratería y otras intrusiones
  • SEO técnico– Análisis de cómo los buscadores rastrean nuestra web

Cómo hacer el análisis de logs

Si un sitio web tiene 1000 usuarios que visitan 10 páginas al día, entonces el servidor creará un log diario con 10.000 registros.

Como nadie suele tener tiempo para analizarlo a mano os dejamos tres formas sencillas para hacer análisis de logs para el SEO:

  • Utilizando Excel
  • Utilizando herramientas de pago como Splunk o Sumo-logic
  • Utilizando software de código abierto como ELK Stack

Tim Resnik creó una buena guía sobre la exportación de un conjunto de archivos de registro en Excel.

Esta es una forma (relativamente) rápida y fácil de hacer análisis de logs, pero el inconveniente es que uno verá solamente los datos de un período concreto de tiempo y no las tendencias globales.

Si queremos obtener mejor información para el análisis, tendremos que utilizar alguna herramienta que nos facilite el trabajo.

*Para aquellos que estéis interesados en implementar ELK esta guía os ayudará bastante.

 

Aspectos de Interés SEO en el análisis de LOGS

Independientemente de cómo acceder y entender los logs, hay muchas cuestiones de SEO importantes para analizar y abordar.

Volumen de rastreo del Bot

 

1

 

Es importante conocer el número de solicitudes presentadas por Baidu, Bingbot, GoogleBot, Yahoo, Yandex… etc en un determinado período de tiempo, ya que, si por ejemplo deseamos posicionarnos en Rusia pero Yandex no está rastreando nuestra web, tendríamos un serio problema (ver Yandex Webmaster https://webmaster.yandex.com/  y ver este artículo en Search Engine Land. )

 

Códigos de respuesta (Errores)

 

2

 

Moz tiene una gran introducción a los significados de los diferentes códigos de estado . Es muy útil tener una configuración del sistema que nos alerte inmediatamente sobre los errores 4XX y 5XX ya que son muy significativos.

También podéis echarle un vistazo a Wikipedia.

 

Redirecciones Temporales

Las redirecciones 302 no traspasan la popularidad de los backlinks de la antigua URL a la nueva. Casi siempre deben cambiarse por redirecciones 301. Los logs nos dirán cuáles tenemos y qué cantidad de peticiones reciben dichas páginas.

 

3

 

 

Límite de rastreo

 

5

 

Google asigna un límite de rastreo para cada sitio web basado en numerosos factores . Si nuestro límite de rastreo es, por ejemplo , 100 páginas por día (o la cantidad equivalente de datos), entonces debemos asegurarnos de que todos las 100 páginas son las que deseamos que aparezcan en las SERPs. No importa lo que escribamos en las meta-robots tags y robots.txt , todavía podríamos estar perdiendo presupuesto de rastreo en las páginas de aterrizaje de publicidad, scripts internos, y demás. Los logs nos darán esta información (ver los dos ejemplos basados ​​en scripts en rojo).

Si llegamos a nuestro límite de rastreo y sigue quedando nuevo contenido que debe indexarse, Google podría abandonar nuestra web antes de encontrarlo.

 

URLs duplicadas en el rastreo

 

4

Las urls con parámetros añadidos (típicamente utilizadas para etiquetar y medir estrategias publicitarias) a veces suponen un gasto de nuestro límite de crawling al rastrear diferentes urls con el mismo contenido.

Para saber cómo abordar este problema, hay varios buenos artículos como:

https://support.google.com/webmasters/answer/6080550?hl=es

http://searchengineland.com/google-lets-you-tell-them-which-url-parameters-to-ignore-25925

https://productforums.google.com/forum/#!topic/webmasters/oIuGJ_4fQuM

 

Prioridad de Rastreo

 

6

 

Un buscador puede ignorar (no rastreando o indexando) una página fundamental o sección de nuestro sitio web. Los logs revelan las URLs/directorios y que están recibiendo más y menos atención de Google.

Si, por ejemplo, hemos publicado un ebook que queremos posicionar pero se encuentra en un directorio de nuestra web que Google sólo visita una vez cada seis meses, no obtendremos ningún tráfico de búsqueda orgánica hacia el ebook hasta dentro de seis meses.

Si una parte de nuestra web no está siendo crawleada a menudo – y se actualiza con bastante frecuencia – entonces deberíamos revisar nuestra estructura de enlaces internos y las prioridades de rastreo en el Sitemap.xml

 

Última fecha de Rastreo

 

7

¿Has subido algo que quieres que se indexe rápido? El log te dirá cuándo Google lo ha rastreado.

 

Crawl budget

 

8

 

El presupuesto de rastreo que el motor de búsqueda asigna a nuestra web es un indicador aproximado de lo mucho (o poco) que “le gusta” el sitio, ya que Google no quiere perder su valioso tiempo de rastreo en un mal sitio web.

Por ejemplo, si vemos que Googlebot ha enviado 154 solicitudes de nuestra nueva página web en las últimas 24 horas podemos respirar tranquilos, aunque todo es mejorable.

En resumen

Los logs contienen los únicos datos 100% fiables en relación al rastreo de los motores de búsqueda sobre nuestra web. Por tanto, con un buen análisis de logs facilitaremos el trabajo a Googlebot (rastrear adecuadamente nuestro sitio web) consiguiendo establecer la base de una buena estrategia de optimización en buscadores.

Este artículo está basado en el post de Samuel Scott En Moz 

 

 

1 Estrella2 Estrellas3 Estrellas4 Estrellas5 Estrellas (2 votos, promedio: 5,00 de 5)
Cargando…

Sé generoso. Comparte :)

¿Quién ha escrito esto?

Diana García

Responsable de proyectos SEO y Analítica Web en MarketingPublicidad. Inmersa en el análisis y la optimización, siempre en la zona de aprendizaje, tratando de crecer a base de experiencia y motivación :)

Comenta, queremos saber tu opinión