Ir al contenido

Auditoría SEO de una web (Parte I)

¡¡Hola!!

Tras un tiempo sin poder escribir por distintos motivos (trabajo, vacaciones,…) he logrado sacar tiempo y en los próximos artículos trataremos una serie de puntos para realizar una auditoría SEO web.

En este proceso de auditoria trataremos 6 bloques que incluyen factores tanto onpage, como off page y como he mencionado desgranare en los siguientes posts:

  1. Antecedentes históricos.
  2. Accesibilidad de la web por parte de bots.
  3. Popularidad de la web en Internet.
  4. Visibilidad de la web en buscadores.
  5. Grado de optimización SEO.
  6. Usabilidad de la web por parte del usuario.

I. Antecedentes web

El primer aspecto a la hora de auditar la web es conocer tanto su estado actual, como su historial. Nuestro objetivo es conocer si nuestro proyecto ha sufrido en el pasado o arrastra algún tipo de penalización tanto manual, como algorítmica.

¿ Como sabemos que hemos sido penalizados y que tipo de penalización tenemos?

Actualmente disponemos de diferentes herramientas de pago y gratuitas que nos pueden ayudar a conocer si hemos sido penalizados de alguna manera ya que usualmente una penalización se traduce en un impacto en las visitas de la web.

Detectar el tipo de penalización algorítmica no siempre es fácil, aunque en el caso de penalizaciones por “pinguin” el golpe es relativamente rápido de destapar, ya que tiene un gran impacto en las visitas de manera inmediata.

Penalización por Pinguin

Las penalizaciones por “Panda” son más complicadas de detectar, ya que el su impacto se traduce en una bajada progresiva en las impresiones y visitas a la web.

e

Herramientas

Afortunadamente disponemos de diferentes tipos de herramientas que nos ayudaran a conocer que le pasa o ha pasado a nuestra web.

Penalizaciones manuales: Google Search Console

En el caso de penalizaciones manuales por parte de Google suelen deberse a contenido inadecuado o Spam. Para descubrir estas penalizaciones bastara con acudir a Google Seearch Console (antiguo webmaster tools) y nos indicara en el caso de sufrir alguna penalización el motivo y nos dará una serie de indicaciones para subsanarla.

Penalizaciones algorítmicas

Las mas usuales suelen ser “Panda” y “Pinguin”, para detectarlas disponemos de las siguientes herramientas:

  • Google analytics: Nuestro pilar básico e indispensable de analítica web, además es gratuita.
  • Pinguin tool de Barracuda: Se trata de una herramienta gratuita que toma datos de nuestras cuentas de google Analytics y muestra de manera grafica los diferentes cambios en el algoritmo y su influencia en nuestras visitas.
  • Semrush: Esta completa herramienta muestra la evolución del tráfico orgánico, no nos señala los cambios algorítmicos, aunque nos sirve para detectar estas penalizaciones como se muestra en los ejemplos anteriores.
  • Google Updates de Sistrix: Uno de los módulos gratuitos de esta herramienta, nos muestra como han influido los cambios del buscador en nuestra visibilidad en Google.

¿por qué es importante conocer el histórico de nuestra web?

Conocer nuestra web nos ayudara a marcar una hoja de ruta y en caso de contar con una web penalizada deberemos de centrarnos en eliminar estas posibles dificultades.

II.Accesibilidad e indexabilidad

El segundo aspecto que trataremos será ver si disponemos de una web accesible para los robots de los buscadores con el objetivo final de que estos bots logren indexar la web correctamente.

Aunque nos centraremos en el bot de Google dada la importancia de este buscador en nuestro país no debemos de olvidar que existen otros buscadores y que cada uno posee un robots que accede a nuestra web para indexarla y es que si nuestra web no indexa o no lo hace al menos de la manera que nosotros deseamos tendremos un grave problema.

Los principales elementos de los que disponemos para facilitar la accesibilidad de nuestra web a los buscadores son los archivos robots.txt y el sitemap del sitio.

Robots.txt

Este archivo indica a las arañas de los buscadores que páginas deben de seguir dentro de nuestra web, bloqueando aquellas que no queramos que entren e indexen.

Se trata de un método muy eficaz para controlar nuestra web y salvaguardarnos de posibles penalizaciones tipo panda.

Para impedir la indexación de partes de nuestra web emplearemos el comando “Disallow: /+nombre de la carpeta o url a bloquear”

Recomendación de elementos a bloquear:

  • Paginas de “tags” o “categorías” del blog/noticias.
  • Paginas internas y páginas privadas.
  • Páginas con escaso contenido.
  • Paginas con contenido muy similar a otras webs, como por ejemplo aviso de cookies, protección de datos y similares, páginas de proveedores,…
  • Protección contra bots externos que no deseemos que accedan a nuestra web ( pueden ser bots de otros buscadores u aplicaciones tipo Xenu, screaming frog,…).
  • Paginas que incluyen elementos en flash, aspx o PDFs externos.

Ejemplo de archivo robots.txt

Ejemplo de archivo robots.txt

 

Bonus: Meta Robots

Emplear este meta etiqueta nos ayudara a ser mas preciso ala hora de señalar aquellas páginas o grupo de páginas que no deseemos indexar y no deja tanta huella como el archivo robots.txt.

Su formulación es meta name=”robots” content=” index ( o noindex), follow (o nofollow)

Indexabilidad

¿Se están indexando nuestra web como queremos? Para responder a esta pregunta realizaremos una comparación de las páginas indexadas en google y las páginas que enviamos mediante el sitemap.

Comando site vs sitemap

El primer método consiste en analizar cuantas páginas se encuentran indexadas en Google mediante el comando “site:www.midominio.es” y compararlas con las páginas incluidas y enviadas a Google a través de Google Search Console.

Pueden darse tres posibles escenarios:

Páginas indexadas menor que páginas sitemap

Primer caso en el que Google no esta indexando correctamente nuestra web.

Las principales causas suelen ser:

  • Mala estructuración de la web que impide a los bots llegar a todas paginas.
  • Penalizaciones de algún tipo (algorítmicas o manuales).

Páginas indexadas igual ( o bastante aproximado )a páginas sitemap

Es la situación ideal para una web, ya que Google esta indexando todas las páginas que le enviamos a través del sitemap..

Páginas indexadas mayor páginas sitemap

Se trata de la otra posibilidad de mala estructuración de nuestra web, ya que supone una situación de desequilibrio y las posible causa suele ser la presencia de contenido duplicado en nuestra web. Para solucionarlo disponemos de diferentes herramientas como por ejemplo las mejoras de HTML de Google Seach Console o filtrar por duplicados en Screaming frog (url, titles,…).

Bonus: Otro indicador de que la web se esta indexando correctamente y que no pasan cosas raras en ella es ver si el primer resultado que nos arroja “site:” es nuestra home.

Errores 404

Los errores 404 son causados cuando el robots de Google pasa por nuestra y no encuentra una determinada página por los siguientes motivos:

  • La página no existe.
  • La página ha cambiado de URL.
  • El enlace esta mal.

Este tipo de errores es una de las principales causas de perdida de posicionamiento de una web por lo que se deben de solucionar lo antes posible mediante la redirección de estas url a la página correcta o la corrección de los enlaces.

Hasta aquí la primera parte de estos consejos para realizar correctamente una auditoria de nuestra web desde el punto de vista SEO.

Publicado enSEO (Posicionamiento orgánico)

Se el primero en comentar

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR