Cómo hacer un análisis seo de tu web

|
0 Comments
|

Vamos a seguir en el análisis seo de una web, o auditoría web, auditoría seo, análisis web, etc… como se quiera llamar, aunque siempre enfocado en el SEO. En el anterior artículo cómo realizar una auditoría web, vimos los puntos a seguir para la realización de la auditoría web o del análisis seo de la web. Como son muchos y es muy extenso, he decidido compartir el análisis seo en varios artículos. Vamos a seguir en el punto donde lo dejamos:

analisis seo

3. Análisis SEO: ESTADO DE LA WEB.

Es de vital importancia identificar las actuales carencias de la web con el objetivo de planificar y llevar a cabo las acciones más adecuadas.

Durante este primer estudio se analizarán, principalmente, los siguientes aspectos:

3.1. ACCESIBILIDAD E INDEXABILIDAD DE LA WEB

La accesibilidad de usuarios y buscadores y la indexabilidad de contenidos por parte de los buscadores son dos de los aspectos más importantes de una web de cara al SEO.

Si usuarios y buscadores encuentran dificultades o no pueden acceder a nuestro sitio o alguna de sus secciones es como si la web o esas secciones no existiesen. Por lo tanto, el primer aspecto en el que nos debemos centrar es en el análisis de la accesibilidad e indexabilidad.

Nuestro trabajo será facilitar a los buscadores que su visita sea lo más productiva posible, de forma que siempre debemos ofrecer un contenido relevante y una navegación interna rápida y eficaz.

Para lograr que las arañas de los buscadores sean capaces de rastrear el mayor número de páginas en el menor tiempo posible, debemos planificar una estructura correcta y una eficaz red de enlaces.

Asimismo, para asegurarnos que la visita es realmente productiva, debemos asegurarnos de que las páginas que ofrecemos para la indexación sean realmente relevantes, por lo que debemos planificar y cuidar la calidad de nuestro contenido. Según vayamos avanzando en el análisis de la web dentro de la presente auditoría, localizaremos secciones a las cuales es conveniente limitar el acceso a los distintos buscadores y si aquellos contenidos que pudiesen haber sido redirigidos lo hacen de la forma más correcta y a las ubicaciones más aconsejables.

Para valorar el grado de accesibilidad e indexabilidad de una web requiere un estudio detallado de una serie de aspectos que se valoran en los siguientes apartados.

3.1.1. ARCHIVO ROBOTS.TXT

El archivo robots.txt es el primer archivo que visita un motor de búsqueda al visitar nuestra web. En él se incluirán las directivas que permitirán o impedirán a los buscadores el acceso a determinadas secciones de la web o a toda ella.

Con el archivo robots.txt podremos impedir el acceso a determinados robots, limitar el acceso a determinadas zonas de la web, eliminar el contenido duplicado o indicar la ubicación del archivo sitemap.xml (mapa del sitio de la web).

Supongamos que en xxxx.es el archivo robots.txt está OK. Salvo que no indica el sitemap.

Faltaría crear un sitemap e indicarlo en el archivo robots.txt. No se encuentra en xxxx.es/sitemap.xml ni en ninguna url parecida. Os voy a poner dos ejemplos , uno de robots.txt:

User-Agent: *   
Allow: /wp-includes/js/wp-emoji-release.min.js?ver=4.6.1
Allow: /wp-includes/js/jquery/jquery.js?ver=1.12.4
Allow: /wp-includes/js/jquery/jquery-migrate.min.js?ver=1.4.1
Allow: /wp-includes/js/wp-embed.min.js?ver=4.6.1
Allow: /wp-admin/admin-ajax.php
Disallow: /category/blog/
Host: www.globalmarketingasesores.com
Sitemap: https://www.globalmarketingasesores.com/sitemap.xml
Disallow: /?s=   
Disallow: /search
Allow: /feed/$ 

Allow: /*.js$
Allow: /*.css$

User-agent: Googlebot-Image
Allow: /wp-content/uploads/

User-agent: Adsbot-Google
Allow: /

User-agent: Googlebot-Mobile
Allow: /

User-agent: MSIECrawler
Disallow: /

User-agent: WebCopier
Disallow: /

User-agent: HTTrack
Disallow: /

User-agent: Microsoft.URL.Control
Disallow: /

User-agent: libwww
Disallow: /

User-agent: * 

Disallow: /cgi-bin 
Disallow: /wp-includes/ 
Disallow: /wp-admin/
Disallow: /sitemap/
Disallow: /author/
Disallow: /?format=feed&type=rss
Disallow: /wp-register.php
Disallow: /xmlrpc.php
Disallow: /template.html
Disallow: /wp-comments
Disallow: /cgi-bin
Disallow: /trackback
Disallow: /feed
Disallow: /comments
Disallow: /comment-page
Disallow: /replytocom=
Disallow: /author
Disallow: /?author=
Disallow: /tag
Disallow: /?feed=
Disallow: /?s=
Disallow: /?se=
Disallow: /prueba
Disallow: *?replytocom
Disallow: /?s=
Disallow: /author/*/$
# Impedir que /permalink/feed/ sea indexado pues el feed de comentarios suele posicionarse antes de los post.
# Impedir URLs terminadas en /trackback/ que sirven como Trackback URI (contenido duplicado).   
Disallow: /comments/feed   
Disallow: /*/feed/$   
Disallow: /*/feed/rss/$   
Disallow: /*/trackback/$   
Disallow: /*/*/feed/$   
Disallow: /*/*/feed/rss/$   
Disallow: /*/*/trackback/$   
Disallow: /*/*/*/feed/$   
Disallow: /*/*/*/feed/rss/$   
Disallow: /*/*/*/trackback/$
archivo robots

En otro momento o artículo explicaré las características y lo que significan los comandos de un archivo robots.txt. 
Ahora os pongo un ejemplo de sitemap:
URL of sub-sitemapLast modified (GMT)
https://www.globalmarketingasesores.com/sitemap-misc.html2017-03-15 08:57
https://www.globalmarketingasesores.com/sitemap-pt-post-2017-03.html2017-03-15 08:57
https://www.globalmarketingasesores.com/sitemap-pt-post-2017-02.html2017-03-13 19:54
https://www.globalmarketingasesores.com/sitemap-pt-post-2016-12.html2017-03-13 20:14
https://www.globalmarketingasesores.com/sitemap-pt-post-2016-09.html2017-02-01 18:15
https://www.globalmarketingasesores.com/sitemap-pt-post-2016-08.html2016-08-02 10:27
https://www.globalmarketingasesores.com/sitemap-pt-post-2016-07.html2017-02-18 09:23
https://www.globalmarketingasesores.com/sitemap-pt-post-2016-02.html2016-12-09 16:00
https://www.globalmarketingasesores.com/sitemap-pt-post-2016-01.html2016-01-10 16:40

Aquí el amigo Álvaro Rondón ( colega de profesión, consultor seo ) nos lo explica bastante bien.

3.1.2. META TAGS ROBOTS

Del mismo modo que el archivo robots.txt, el acceso a los buscadores se puede limitar también utilizando la etiqueta o meta tag robots. Éste puede ser utilizado en la cabecera de cada página de la web y permitirá o limitará el acceso de los buscadores para esa página específica.

3.1.3. ETIQUETAS DOCTYPE Y HTML

Todo documento html ha de iniciarse con las etiqueta doctype y html.

La etiqueta doctype es la declaración de la estructura o tipo de documento que se presenta. En html5, el doctype es muy simple:

<html lang=”es”>

La etiqueta html, que se cerrará al final del documento, viene acompañada con el idioma en el que se presenta la página. Una página española debería tener la siguiente etiqueta html:

 

En xxxx.es la etiqueta doctype se presenta de forma correcta, y también por idiomas en cada versión.

3.1.4. RESPUESTAS DEL SERVIDOR. CÓDIGOS DE ESTADO HTTP.

El HTTP es el protocolo utilizado para transmitir la información a través de internet entre el servidor y el cliente que solicita una petición.

Cuando el robot de un buscador o cuando un usuario accede a una página de la web a través del navegador, el servidor en el que se aloja el sitio devuelve información acerca del estado de la página solicitada. Esta información viene definida por códigos de estado HTTP.

Los códigos de respuesta pueden indicar, a grandes rasgos que:

– se ha completado satisfactoriamente la petición del cliente
– la solicitud ha sido devuelta y que el contenido ha sido cambiado de ubicación
– se ha producido un error en la petición realizada por el cliente
– se ha producido un error en el lado del servidor

A nivel de SEO es muy importante el control de las respuestas del servidor y su correcta utilización. La situación ideal es la de que todas las páginas y recursos enlazados devuelvan un estado 200 o correcto. En todo caso, debemos lograr que no exista ningún código de error (recurso no disponible).
Utilizando las herramientas más adecuadas se ha realizado un informe completo de las respuestas http que devuelve cada página. Dicho informe se puede ver en un excel Crawler y se puede resumir en los siguientes puntos:

Páginas HTML:

– 280 páginas devuelven código 200 – peticiones correctas
– 2 páginas están redirigidas de forma permanente a otras ubicaciones – código 301
– 2 páginas devuelven un código de respuesta de error código 404, que habría que corregir.

Otros recursos (imágenes, css, javascript, xml, flash…):

Se pueden revisar en el excel comentado anteriormente previamente descargado de screaming frog, por ejemplo.  Si quieres saber algo mas sobre protocolos de estado en este artículo hablamos sobre ello:

HTML como base de la web y del SEO on page

3.1.5. PÁGINAS REALMENTE INDEXADAS POR GOOGLE

Si realizamos una consulta directa en el índice de Google acerca del número de páginas indexadas por éste, correspondientes al dominio xxxx.es, nos encontramos con que existen un total de de 133 resultados. Dicho número de páginas es muy diferente a la información ofrecida en el apartado anterior de la auditoría. Debemos investigar más a fondo para encontrar lo que en este punto resulta obvio, existe un problema en la web: falta contenido de calidad.

3.1.6. MAPA DEL SITIO O ARCHIVO SITEMAP.XML

Una de las herramientas básicas a la hora de facilitar la indexabilidad del sitio es contar con uno o varios archivos sitemap. Ellos han de ser para Google y para el resto de buscadores lo mismo que un índice en un libro. Pero en un sitemap sólo deben mostrarse aquellas páginas que aporten un valor real a nuestro sitio y al usuario.

sitemap web

xxxx.es carece de archivo sitemap.xml. Recomendamos encarecidamente la creación de dicho archivo en el que se listarán y actualizarán de forma automática el conjunto de todas las urls que ofrezcan valor real al sitio.

Supongamos que la web está hecha en drupal,  recomendamos activar algún módulo para Drupal si no estuviese activado.

Es de vital importancia para alcanzar el éxito en el posicionamiento orgánico en buscadores realizar un exhaustivo estudio del tipo de urls que deben ser incluidas en dicho sitemap, así como identificar aquellas otras que actualmente se encuentran indexadas y no debieran estar. Asimismo, se deberá estudiar cuáles de estas urls deben ser redirigidas hacia contenidos de calidad dentro de nuestra web y qué otras deberán ser objeto de solicitud de desindexación por parte de Google.

Dichos aspectos se estudiarán a lo largo de la presente auditoría web o análisis seo de ejemplo.

3.1.7. ARQUITECTURA DE LA WEB

La arquitectura de una web es otro de los factores clave en el éxito de un proyecto online. De ella dependerá la facilidad con la que los robots de búsqueda y nuestros propios clientes accederán a nuestro contenido.

Para crear una estructura adecuada que conduzca a una indexación óptima de la web por parte de los buscadores, ha de realizarse una clasificación jerárquica de los contenidos de forma que ninguna página de la web se encuentre a más de tres clicks de ratón de cualquiera de las páginas en las que nos encontremos ( es un ejemplo ). Además, los contenidos más importantes de la web han de ser los más fácilmente accesibles dentro de la jerarquía.

El objetivo es crear una red de enlaces internos efectiva para lograr una óptima accesibilidad e indexabilidad del contenido.

Supongamos que en xxxx.es existen los siguientes tipos de páginas:

– Home (nivel 0)
– Aceites Aromatizados (nivel 1)
– Aceites de Frutos Secos (nivel 1)
– Vinagretas (nivel 1)
– Aceites de Oliva (nivel 1)
– Regalos (nivel 1)
– Noticias (nivel 1) – Blog. Sería conveniente destacarlo
– Categorías de producto (nivel 2). Sería bueno crearlas.
– Fichas (nivel 3)
– Categorías del blog (nivel 2)
– Tags del blog (nivel 3)
– Posts del blog (nivel 3)

Las páginas “corporativas” se encuentran a 1 clic de distancia. Las subcategorías a 2 y los productos, tags del blog y los post se encuentran a 3 clics de distancia. Sería recomendable destacar más el blog.

En resumen, todo el contenido de la web se encuentra a 1, 2 ó 3 clics de distancia de la home por lo que no se deberían encontrar problemas de indexabilidad o accesibilidad por una excesiva profundidad en la estructura.
De todas formas, se recomienda enlazar los posts más importantes del blog desde otras páginas internas para favorecer la indexabilidad de ese contenido.

3.1.8. ENLACES INTERNOS. INLINKS Y OUTLINKS.

Una adecuada planificación de la estructura de enlaces internos será clave en el éxito de la web y, a medida que ésta crezca en cuanto a su contenido, deberá ser revisada.

Los enlaces internos son aquellos que apuntan hacia otras páginas o secciones de nuestra web. Éstos facilitan la navegación al usuario, relacionan los contenidos, establecen la jerarquía de la información, propagan el zumo de popularidad de las páginas más importantes al resto y, además, son fundamentales para una óptima indexación.

Las páginas que sean más enlazadas van a recibir una mayor popularidad, especialmente si recibe enlaces desde las más importantes de la web. Eso sí, es importante saber que la popularidad de una página se reparte entre todas las páginas a las que enlaza y que, de existir un enlace repetido dentro de una misma página, sólo contará el primer enlace.

Además, los motores de búsqueda tienen un límite aproximado de rastreo de unos 150 enlaces por página. Si bien este número es flexible, especialmente en las páginas más importantes, lo más prudente es no sobrepasar este número para que sea más segura la indexabilidad de todas las páginas de la web.

Por todo ello, se debe evitar enlazar a contenidos que no aporten un valor real. Del mismo modo, se debe procurar no repetir un enlace desde una misma página, salvo que sea necesario en situaciones excepcionales por razones de usabilidad.

Se debe elaborar un archivo Crawler. en el cual se debe incluir un listado del número de enlaces internos aproximado que recibe y que aporta cada una de las páginas de la web de xxxx.es.

Este listado constaría de 4 columnas de interés:
• Url: dirección de la página estudiada
• Inlinks: número enlaces internos que recibe la página estudiada
• Outlinks: número de enlaces a otras partes de la web que tiene una página
• External Outlinks: número de enlaces externos a otras webs que tiene una página

Otro aspecto a estudiar es la formación de los enlaces internos. Es recomendable que éstos se acompañen de un “anchor text” (parte visible del enlace) y de una etiqueta “title” que han de contener palabras clave relevantes que definan correctamente a la página enlazada. Estas palabras clave serán positivas para el posicionamiento, pero se ha de evitar que los anchor text sean siempre idénticos, ya que puede considerarse como spam.

En xxxx.es se utiliza la herramienta title en la formación de enlaces internos y se recomienda su utilización. Por lo que es un punto a su favor.

En el próximo post o artículo sobre análisis seo o auditoría web. auditoría seo, seguiremos hablando de WPO,

ELEMENTOS DE navegación flash y javascript.

Espero que os esté gustando esta guía o puntos a seguir para la realización de una auditoría web o análisis seo. Nos vemos en el próximo, si te ha gustado déjame un comentario, si crees que me falta algo, igual.




Agencia Seo Sevilla

Average Rating: 5
Votes: 6
Reviews: 6

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

quince − Diez =