ANÁLISIS SEO

Revisión SEO general- Auditorías SEO web

Auditar una web es un proceso seo que te permite entender dónde estás estancado para luego saber cuál es el mejor camino a seguir. El SEO es un proceso complejo que requiere tiempo y paciencia. Por ello, es necesario que priorices qué cambios o ajustes deseas hacer en tu sitio web primero. Sé que además de perder tiempo, puedes caer en prácticas que terminan dañando tu posicionamiento.

Mi nombre es Joaquin Rios, y soy formador y consultor Seo. En esta página de Análisis SEO, te voy a mostrar cómo analizar con lupa todos los aspectos necesarios para saber la situación actual de tu web respecto a Seo, y realizar las optimizaciones necesarias que te ayuden a despegar el tráfico orgánico de tu sitio web.

Aunque si tampoco te ves capaz, o si tu web es demasiado grande y quieres o necesitas un trabajo mas profesional, siempre puedes pedir presupuesto para que te la realice un análisis web y optimices esos puntos para que tu web despegue en Google.

análisis seo

Analizar factores SEO On Page. Evaluar aspectos de usabilidad y experiencia del usuario que pueden estar afectando tu rendimiento. Realiza un análisis preciso de factores externos, tanto de tu sitio web como de la competencia.

Verificar la indexación en Google

Hay tres pasos básicos, que hay que tener en cuenta, que realiza el buscador para determinar si una página puede posicionarse o no. El primer paso es que el "bot" llega a una página web y rastrea el contenido, y ese contenido, luego, lo pasa a la siguiente instancia: "indexación", si es que determina que forme parte de su índice. Una vez que el sitio se indexa, si Google determina que un sitio es relevante y cumple con los requisitos, los factores necesarios para posicionarse, lo envía al último nivel que sería: "Posicionamiento", para otorgarle una visibilidad, una posición privilegiada en los resultados de búsqueda.

En consecuencia, analizar que el sitio primero sea rastreado correctamente y, segundo, que las páginas se indexen, son dos pasos fundamentales. Podemos hacer rápidamente una revisión de este elemento, utilizando un operador de búsqueda en Google. Este va a ser nuestro primer paso en este proceso de auditoría. Vamos a verificar la cantidad de páginas indexadas. Y, además, el orden de indexación para determinar, de una forma, a qué elementos, a qué páginas Google le otorga mayor prioridad.

¿Qué páginas tienen mayor autoridad según los ojos de Google?
Vamos a ingresar justamente a "Google.com", y vamos a utilizar el operador de búsquedas:
Site:tudominio.com
¿Qué más debemos analizar? Y desde aquí también podemos analizar, por ejemplo, algunos elementos importantes respecto de la arquitectura del sitio y cómo apropiadamente debe distribuirse la reputación de un dominio.
De hecho, tenemos nuestro primer análisis inicial: entender el volumen de páginas indexadas y ver algunos inconvenientes relacionados a cómo se distribuye la autoridad del dominio a lo largo del sitio.

Evaluar términos de marca en Google

Los términos o consultas de marca, son aquellos a los cuales deberías dedicar todo tu esfuerzo y prioridad, al momento de desarrollar tu estrategia SEO. Piensa lo siguiente, el tráfico de buscadores es el tráfico que mayor nivel de intencionalidad tiene, cuando una persona hace una consulta lo que está haciendo es buscando proactivamente un producto, servicio o resolviendo una necesidad de información.

Por lo tanto, una persona que está buscando tu marca, claramente quiere interactuar con tu contenido o con lo que ofreces ya sea productos, servicios o experiencia de marca. Con lo cual, ese tráfico es sumamente valioso y, dado que tú eres el dueño de esa marca, tienes que tener una visibilidad destacada, tienes que ser el primer resultado, cuando una persona hace una consulta relacionada. En consecuencia, si cuando alguien busca tu marca no estás allí arriba, eso es un grave problema por resolver".

¿Qué vamos a hacer? Vamos primero, a hacer un listado de todas aquellas palabras clave, consultas relacionadas a tu marca que pueden interesarte que la gente puede llegar a buscar. A mí me interesa, por ejemplo, esta empresa Global Marketing Asesores. Por supuesto. Es una palabra clave importante y quiero saber en qué posición me encuentro. Pero además, esta agencia seo tiene distintos servicios. Cada uno con una marca o palabra clave única, razón por la cual quiero saber cuál es el resultado para cada uno de ellos, por ejemplo seo internacional.
Efectivamente, no solamente hay visibilidad destacada cuando buscamos Global Marketing Asesores, y estamos primero, sino que tenemos "side links", lo cual es una buena señal que indica que la arquitectura del sitio es buena, que Google puede detectar secciones importantes dentro del sitio y las incluye para esta consulta, con lo cual, primer punto positivo, primera posición.

Entonces, los términos de marca son aquellos a los cuales debes dedicarle todo tu esfuerzo, en esa primera instancia de trabajo de optimización SEO. Tienen alto nivel de intencionalidad, son clientes que ya conocen tus productos, tu marca y pueden transformarse en clientes.

Quiero analizar mi web

Su nombre (requerido)

Su Teléfono (requerido)

Su e-mail (requerido)

Servicio que necesita (requerido)

Url sobre la que se va a trabajar

Díganos que necesita (Total confidencialidad)

Ver páginas cacheadas en Google

El caché de Google es una copia de tu sitio almacenada en los servidores de Google, que está para que los usuarios cuando ingresan, justamente a través Google, puedan cargar más rápido los elementos de su sitio y así ofrecer una mejor experiencia de usuario. Ver la fecha de la última versión almacenada por Google puede ayudarnos a determinar lo saludable que es la frecuencia que tenemos de rastreo, con qué frecuencia pasa Google por nuestro sitio. Veamos cómo podemos hacerlo.

Utilizando Google nuevamente, hacemos una consulta. Utilizando el operador "site" que incluya el dominio que queremos analizar, en este caso, globalmarketingasesores.com.

snipet cacheDesactivamos SEOquake. Ahora tenemos resultados más limpios. Y en este pequeño ítem, esta pequeña flechita de abajo al lado del sitio web, de la URL, cliqueamos y vemos la versión en caché. Aquí tenemos la copia de nuestro sitio almacenada en los servidores de Google.

Y en la parte superior vemos la fecha en la que se almacenó esa página. En este caso, 4 de mayo de 2017. Este dato vamos a almacenarlo. Y es indicador de que el rastreador de Google, de que Google mismo pasa con frecuencia por nuestro sitio, Google pasa por casa seguido. Haremos lo mismo para algunas páginas adicionales. Y algo más que podemos hacer aquí es ver la versión de solo texto.

Esta versión de solo texto lo que hace es eliminar las hojas de estilo, algunos JavaScript y nos muestra en texto plano cómo Google analiza y ve nuestro sitio. Vamos a probarlo. Cliqueamos en "Versión de solo texto". Y ahí podemos ver la estructura, como verán se eliminan gran parte de los estilos. Y vemos el orden de prioridad con los que están los elementos, en primera instancia carrito, home, el menú de navegación.

Analizamos cosas como si la página tiene bastante o poco contenido, cuestión que puede llegar a jugar en nuestra contra. Cantidad de enlaces, cantidad de contenido, poca o mucha relevancia a los ojos de Google. Así que también lo analizamos. Este proceso de analizar la versión de caché y ver la versión de solo texto, deberías hacerlo en las páginas más prioritarias e importantes de tu sitio. Y se documenta todo.

Y así podemos ver la fecha de caché, con qué frecuencia pasa Google por tu sitio, la versión solo texto para detectar inconvenientes de contenido; solamente utilizando Google.

Verificar los resultados móviles

Hoy día, el uso de dispositivos móviles para navegar la web supera el uso de escritorios, eso por un lado. En lo que respecta a SEO, Google recientemente anunció que va a tener algoritmos independientes para evaluar qué resultados posicionan en escritorio, por un lado, y en móviles, por el otro. ¿Qué factores determinan que un sitio se vea correctamente y escale posiciones en móviles? Por un lado, los factores tradicionales como reputación de dominio, contenido, relevancia, pero además ofrecer una buena experiencia.

Entonces, es muy probable que al momento de hacer búsquedas desde un móvil o escritorio te encuentres que la posición de tus resultados es distinta. Y eso es lo que vamos a corroborar en esta instancia. Quiero que veamos cuáles son los resultados móviles cuando hacemos consultas de marca y determinar si hay fluctuaciones o variaciones. Veamos cómo hacerlo. Vamos a ingresar a Google y no vamos a ingresar desde el móvil para verificar la búsqueda móvil.

Tenemos un pequeño truquito que podemos aplicar fácilmente para hacerlo desde nuestro PC, desde nuestro Mac. ¿Cómo lo vamos a hacer? Ingresamos al "Menú" superior de Chrome, activamos dentro de "Herramientas". "Herramientas para Desarrolladores". Y tenemos esta pequeña ventana, este menú nuevo, en el que no vamos a indagar en cada elemento sino jugar con uno en particular, que es este pequeño icono, que tiene un móvil y una tablet, y que si lo activamos achica las dimensiones de la pantalla y nos permite elegir con qué dispositivo simular la navegación.

Entonces, desde tu propio navegador, en computadora de escritorio, puedes simular una búsqueda móvil. Aquí voy a elegir Nexus 5X. Y Refrescamos. Fíjense que ya nos aparece la versión "mobile" de Google. Y aquí podemos hacer una consulta. Por ejemplo, utilizando un término de marca, "Global Marketing Asesores." Y vamos analizando los resultados. Y así con los servicios también.

Si no estamos en el top 5, ya requiere de demasiado esfuerzo. Podríamos decir tranquilamente que un top 5 desde móviles es un top 10 de escritorio, con lo cual estar en la sexta posición es como estar en la segunda página, es decir, no existimos. Así que esto hay que remarcarlo. Esto hay que repetirlo para las palabras de marca más principales e ir contrastando con las búsquedas en escritorio para detectar anomalías que pueden estar relacionadas a una mala experiencia móvil.

Factores Seo On Page

Verificar títulos y meta descripciones SEO

El uso correcto de "títulos" y "meta descripciones" son dos de los elementos más importantes a la hora de optimizar y mejorar para lograr buenos resultados y escalar posiciones en los resultados de búsqueda. El "título" que podemos indicarlo en la parte superior de la pestaña, hablamos del "título" como etiqueta "title HTML". Es decir, si hacemos una consulta, la etiqueta "title" compone este elemento de más arriba y la url y la "meta descripción" es lo que completa el "snippet".

Tenemos "título", la "URL" y la "meta descripción". El "título" es un elemento que tiene una importancia enorme en lo que respecta a la "relevancia", es decir, incluir la palabra clave en el "título" tiene un impacto positivo en la posición. No en el uso de "meta descripciones", es decir, si ponemos palabras claves en la "meta descripción" no vamos a escalar posiciones, pero sí un uso correcto, incluyendo llamados a la acción, incitando al clic, favorece a capturar un mayor volumen de tráfico.

En consecuencia, evaluar que cada página tenga un "título" único y optimizado y una "meta descripción" optimizada es un paso fundamental en tu auditoría. ¿Cómo vamos a hacerlo? Dos formas, la primera es haciendo un análisis rápidamente viendo el código de fuente de la página. Clic derecho. "Ver código de fuente". Y podemos buscar la etiqueta "title" e identificar, primero, que esté presente, que tenga contenido, igual nos podemos dar cuenta rápidamente porque está en la parte superior, es el mismo valor que toma la pestaña.

Pero también que esté optimizado, es decir, que tenga las palabras clave correctas. En este caso al tratarse de la página principal, es común que tenga solamente el nombre de la marca, pero vamos a evaluar distintas páginas para corroborar que haya consistencia y un uso correcto. Entonces, elementos a tener en cuenta. Primero, que el "título" esté presente, que no haya "títulos" duplicados, que haya presencia de palabras clave y que no exceda la longitud recomendada.

Esto aplica tanto para "títulos" como "meta descripciones". Entonces, de la misma forma que podemos verificar que esté presente el "Título", podemos aplicar aquí una nueva búsqueda, aunque no es necesario, aquí tenemos meta name="description". Y podemos ver que el contenido es justamente " Agencia seo. ¿Quieres posicionar tu página web? Consultor seo, Experto en SEO, SEM, reputación online. Llámenos. +34 665977485.".

Es decir, esta página principal es la página más importante del sitio, tiene una descripción acorde, pero… y si nos encontramos por casualidad una que tiene como "meta descripción" "Shop powered by Prestashop" ¿Qué les parece?, ¿Está optimizado eso? ¡Para nada! Recuerden que este contenido, es el que toma Google para el "snippet", que si no es lo suficientemente extenso, lo autocompleta de forma automática, con lo cual lo dejamos al azar, no lo optimizamos ni incitamos al clic.

Todo hay que documentarlo. Vamos a poner: "Página principal" Tenemos el título, "Título ok", "Meta descripción", para corregir. ¿Qué hay que corregir? Hay que personalizarla. Otra cosa que hay que verificar es que no haya "títulos" duplicados. Por ejemplo, tenemos la página principal y la tienda. Y ya podemos darnos cuenta rápidamente que ambas páginas tienen el mismo "título", las dos páginas compiten la una con la otra, con lo cual ya encontramos otro problema.

"Duplicación de títulos entre tienda y página principal". Esto es muy común, es uno de los errores más frecuentes en los sitios web, no tener en cuenta los "títulos", siendo el factor más importante de relevancia, después del contenido de calidad, por supuesto, que le quita potencial básicamente. Estas páginas van a competir una con la otra, cuando podrían tranquilamente enfocarse, utilizando palabras claves en distintos segmentos y capturar mayor volumen de tráfico.

Y ya que estamos en la tienda, podríamos corroborar también que la "meta descripción" esté presente, que no esté duplicada como veíamos en el "título". Esto lo vamos a hacer ahora con otra herramienta, la herramienta va a ser "SEOquake", la cual nos evita hacer ese análisis poco práctico del código de fuente. Cliqueando en la herramienta, habilitándola, tenemos una opción que dice "DIAGNÓSTICO" y nos va a decir: el Título, la cantidad de carácteres, dice óptimo, no supera lo que muestra Google, en los resultados de búsqueda.

Imaginemos que la "metadescripción" está duplicada y sigue siendo la misma, no tiene nada de valor para el usuario y dice "Shop powered by PrestaShop". ¿Qué tipo de "metadescripción" deberían utilizar en este sitio? ¿Y algo más relevante respecto del sitio? y utilizar algún elemento, una palabra que llame e incite a la acción. Por ejemplo, "Somos una tienda online que ofrece productos naturales, como tés, suplementos dietarios. Ingrese más para ver nuestros productos.

¿Qué les parece eso? ¿Más atractivo y relevante lo que acabo de proponerles? ¿O un "Shop powered by PrestaShop"? No cabe duda que este tipo de "metadescripción" no llama la atención en absoluto. Entonces, segundo problema. "Metadescripciones" "en tienda", duplicada, "como en sitio principal." Y esto hay que hacerlo en todas las páginas, estamos haciendo un análisis bastante superficial.

Lo más práctico es hacer un análisis al por mayor utilizando una herramienta como "Screaming Frog SEO", un escáner. Pero rápidamente, fíjense como detectamos inconvenientes muy importantes, que le quitan potencial "SEO" al sitio. La falta de presencia de palabras clave, títulos duplicados, metadescripciónes ausentes o no optimizadas son errores que rápidamente podemos ajustar y van a tener un impacto muy importante en nuestro rendimiento.

Verificar la presencia de palabras clave para un mejor SEO

La densidad de palabras clave dejó de ser un factor de importancia SEO hace mucho tiempo. Quizá al mismo tiempo de que se dejaron de utilizar los meta "keywords". Sin embargo, optimizar el contenido, enfocándose en los usuarios, pero además en que la redacción incluya variaciones de términos. Una frecuencia considerable de esos términos de los que pretendemos que Google nos de visibilidad, sigue siendo muy importante. Lo que no hay que cometer el error, es pensar que mientras más repetimos una palabra, más relevante nuestro contenido, eso es SEO del pasado.

El SEO actual implica hacer contenidos para los usuarios, repito, y redactado de forma tal que incluya pluralidad de contenido, pluralidad de palabras clave y conceptos para que Google nos vea relevante. Vemos cómo analizar el contenido del sitio para identificar la frecuencia y repetición de términos, para garantizar que haya presencia y evitar pasarnos de la raya, excedernos en la densidad y mostrarnos como "spamming" a los ojos de Google.

Vamos a utilizar la herramienta "SEOQuake", una extensión de Google Chrome. Y voy a activar la función de "Densidad". Lo que hace esta herramienta es analizar todo el contenido y mostrarme la densidad, basándose en la cantidad de veces que se repite la palabra. Por ejemplo, supongamos que tenemos una tienda online de tés, acá tenemos: "tizana", "sabor", "línea", "verde", "infusiones", "hierba", "té negro", "para", "rojo"... y los porcentajes correspondientes a cada término.

¿Cómo podemos utilizar esta información? Lo primero que hay que tener en cuenta, es que la optimización del contenido tiene que estar enfocada en el término, concepto o palabra clave para la cual queremos lograr visibilidad. Con esto, voy a mencionar que si mi página —dice el título: "Global Marketing Asesores"— no hace mención a un producto, servicio, concepto o palabra clave concreta, es difícil entender qué tipo de palabras clave debería enfocar mi análisis como para entender la densidad de palabras clave correctas, pero si en el título tengo “agencia seo”, ya me puedo hacer una idea sobre ello.

Dicho de otra forma, primero hay que entender cuál es el objetivo de esa página, para qué quiero posicionar y, luego, buscar formas de optimizar este tipo de análisis, buscar formas de redactar el contenido de forma tal que nos permita lograr ese objetivo. Entonces... decíamos, ¿qué hay que evitar? Hay que evitar sobrepasar la densidad. Normalmente, cuando no hay un trabajo SEO detrás, la densidad no es grande, y perjudica. Hablamos de densidad, demasiado "spamming" cuando supera el 10%, 15%, ya eso sería sobre-optimizar.

Y lo que tenemos que hacer es prestar atención en —en estas páginas principales deberías repetirlo en tu sitio— qué términos se repiten con mayor frecuencia. Supongamos que en el caso del sitio principal, la home, tenemos que "tizana", "sabor" y "línea" son los términos de mayor frecuencia.

Y en la tienda, vamos a hacer lo mismo. Tenemos "carrito", "dollar" y "ver". Bueno ahí nos damos cuenta rápidamente que hay un problema con la cantidad de contenido porque este tipo de frecuencia para términos tan irrelevantes, no ayuda en nada. En el sitio principal, no está tan mal, pero díganme ¿qué opinan de la tienda? Hay mucho por hacer.

Hay mucho por hacer porque, a los ojos de Google, eso no transmite ningún tipo de relevancia. En la tienda, estamos optimizando para "carrito", para "dollar" —que es la moneda de usa— y "ver". ¿Comprenden cuál es el enfoque? Hacemos unos últimos ajustes aquí, y nuestro documento va tomando forma. Recuerden, la densidad de palabras clave ya no es un factor de posicionamiento, ahora hay conceptos mucho más avanzados como "Latent Semantic Indexing". El algoritmo es mucho más sofisticado, pero sí hay que tener en cuenta la frecuencia en el uso de términos para detectar si el contenido requiere optimización o no, y eso es lo que acabamos de hacer.

Verificar el uso de H1 y encabezados

Las etiquetas H1, H2, H3, H4, etcétera son unas etiquetas HTML creadas para indicar usos de encabezados, para indicar encabezados y su respectiva jerarquía. Con esto quiero decir que haré un nivel jerárquico dentro de un artículo, imaginen una nota del diario. H1 sería el título principal y a medida que vamos estructurando el contenido, H2, H3, H4, hablamos de subencabezados que van indicando distintas partes de un contenido.

Por ejemplo, miren la url de Wikipedia "Scarface". ¿Cuál creen que es el H1? Por supuesto, es el título principal, por eso es el H1, el encabezado principal de un artículo. Y en lo que respecta a SEO, esto tiene varias implicaciones. Primero, el H1 debe ser único por página. No se debe repetir el H1. Imaginen la nota de un diario.

Nunca vamos a ver un encabezado principal y hablando de esa misma nota, dentro de la nota, otro encabezado con la misma jerarquía. No. La arquitectura de ese contenido estaría mal estructurada de esa forma. Con lo cual, y ya paso al segundo factor, utilizar subencabezados correctamente, le permite a Google entender las distintas partes dentro del contenido, lo cual le facilita una lectura y nos suma puntos desde una perspectiva de SEO. Resumen: Necesitamos un H1 único por página y el uso de subencabezados que permitan estructurar correctamente el contenido al mejor estilo Wikipedia.

estructura encabezados seo¿Cómo hacemos eso? Bueno, tenemos muchas formas. La más sencilla es ingresando a un contenido cualquiera. Vamos a hacerlo aquí en Wikipedia. Podemos hacer clic derecho, "Inspeccionar" y podemos ver que la etiqueta H1 corresponda al título principal. Wikipedia es una enorme inspiración en temas de optimización de contenido por este motivo. Es muy eficiente al momento de organizar las notas para que sea más fácil su lectura e interpretación por los buscadores. Entonces, decíamos, un H1 por página. Y esto debería indicar que el siguiente subencabezado debe ser un H2 o al menos un encabezado de categoría inferior. En este caso es un "spam", con lo cual cumple, y justamente está dentro de un H2, aquí está.

Esto es una buena práctica y debería estar en nuestro sitio, debería estar en tu sitio web.. ¿De acuerdo? De la misma forma que lo tenemos en esta nota de "Scarface", fíjense que en este caso la etiqueta H1 repite la etiqueta "Title" y esto es la práctica más común. Yo recomiendo quizás aplicar una pequeña variación. Pero sí hay que sacarle provecho. Aprovechar esa etiqueta para incluir términos que nos sumen desde un aspecto de relevancia. Podemos verificar la presencia de un H1 utilizando SEO Quake. Vamos a cliquear en la herramienta "Diagnóstico". Y ahí podemos desplazarnos y vemos que tenemos encabezados con alertas que no están presentes, ni el H1, ni el H2, ni el H3, ni el H4, ni el H5 ni el H6. Imaginemos que hay presencia de encabezados. Vamos a corroborarlo también en la página principal haciendo el mismo ejercicio. "Diagnóstico". Y tampoco tenemos presencia de encabezados. En ninguna página. Este mismo ejercicio deberías replicarlo en tu sitio web y a modo de inspiración es muy útil analizar cómo hace Wikipedia.

Un encabezado principal y subencabezados para cada una de las secciones que desarrollan el contenido, el H1, subencabezado H2. Esto desarrolla el contenido en forma de cascada y además le facilita a Google interpretar de qué se trata el contenido. En detalle, y esto nos favorece en un aspecto SEO. Es tu turno.

Optimización de imágenes para SEO

El uso de imágenes optimizadas para SEO es una de las oportunidades que más veo desaprovechar a todos los sitios web. Hagamos un ejercicio. Al momento de hacer una consulta en Google, ya sea con índole gráfica o no, por ejemplo, aquí tenemos Messi, vamos a ver que tenemos resultados de noticias, videos, enlaces a blogs, y además, las imágenes en la parte superior. Antes las imágenes se veían solamente desde la búsqueda específica de imágenes.

Pero desde que se implementó Google Universal Search, las imágenes toman mucha más predominancia dentro de los resultados de búsqueda. Y hablando de la predominancia visual que tiene una imagen, imaginen lo siguiente: Van caminando por un pasillo y tenemos todas cajas blancas y una caja roja. ¿Hacia dónde se va la mirada? Por supuesto, la mirada se va a ir al elemento que se destaca. Y esto pasa también en los resultados de búsqueda.

Si logramos optimizar imágenes para que aparezcan dentro de los resultados orgánicos más allá de la posición, es muy probable que la imagen se gane mayor exposición y eso se traduzca en un mayor volumen de clics. Es decir, sin estar primeros en los resultados podemos tener un mayor volumen de clics que el primer resultado. ¿Cómo se hace eso? Bueno, al momento de auditar la optimización de imágenes tenemos que evaluar primero, la presencia de imágenes en el índice de Google.

Y segundo, tenemos que analizar que las imágenes cumplan con los fundamentos, reglas básicas de optimización. Presencia de imágenes en el index. ¿Cómo verificamos la presencia de imágenes? Bueno, vamos a hacer uso de un operador. "Site".

El nombre de dominio y en vez de ver todos limitamos la búsqueda solamente a imágenes. Y aquí podemos ver que tenemos un total de imágenes, pero no lo vemos específicamente este total. Pero si tenemos una gran cantidad de imágenes indexadas, es un buen indicador. Y ¿qué elementos tenemos que tener en cuenta respecto a la optimización? Primero, nombre de la imagen. Imágenes que incluyen una palabra clave en el nombre, posicionan mejor que aquellas que no. Es decir, si subimos una imagen que tiene como nombre "123443abc123.jpg" tiene mucho menos peso, en términos SEO, que una imagen que tiene "agenciaseo.jpg".

¿Comprenden? Incluir la palabra clave dentro del nombre le suma potencial de optimización, lo hace más "SEO friendly", más amistosa para Google. Entonces, vamos a tomar una imagen al azar, Y vamos a revisar el nombre.
¿Cómo hacemos eso? Cliqueando en "Ver imagen" y aquí podemos corroborar que el nombre es o no es para nada "SEO friendly".El segundo elemento a tener en cuenta, básico de optimización es el uso de atributos ALT. El atributo ALT viene de alternativo y es un texto que se incluye dentro de la etiqueta HTML de la imagen que originalmente se creó para indicar a navegadores orientados a personas con discapacidad para que cuando estos navegadores analicen el contenido y leen lo que está en la página web puedan identificar de qué se trata la imagen.

De ahí viene el nombre de ALT. Nombre alternativo o descripción alternativa. Además de su uso orientado a temas de accesibilidad el uso del atributo ALT tiene un impacto en SEO. Es una buena práctica incluirlo ya que enriquece el contexto de la imagen y permite lograr mejores posiciones. Entonces, vamos a revisar ahora el contenido del sitio. Y analizar una imagen en busca de un atributo ALT. Aquí tenemos un producto.

Vamos a ingresar y para evaluar si tiene el atributo ALT presente clic derecho "Inspeccionar" y vamos a analizar la etiqueta de imagen. El título también es otro elemento que podemos incorporar y el atributo ALT, que es más importante. Y así es cómo rápidamente podemos determinar si se está haciendo un uso correcto de imágenes para potenciar el SEO del sitio.
Ahora es momento de que hagas lo mismo en tu web.

Verificar que las URLs sean amistosas

El uso de URLs amistosas es uno de esos factores que ha perdido un poco de peso con el correr del tiempo pero que, sin embargo, sigue sumando ese granito de arena que puede ayudarnos a hacer crecer nuestro rendimiento SEO. Además, tiene un impacto en la usabilidad y experiencia del usuario, dado que URLs fáciles de recordar permiten que el usuario, por ejemplo, no tenga que buscarnos en el buscador sino tipear directamente nuestra URL y así facilitar el acceso y navegación de los contenidos. ¿Qué es una buena arquitectura o un buen uso de URLs? Bueno, algo parecido a lo que tenemos aquí en Wikipedia.

Tenemos la página "Scarface" y la URL incluye el mismo nombre es una práctica común tomar como referencia el título e incluirlo en la URL y también, por ejemplo, al momento de navegar por el sitio las distintas secciones se vean reflejadas en la URL. En este caso, si nos vamos a la sección de "Actualidad", que la extensión de la url cambie a "Actualidad" , esto tiene un valor más por la usabilidad y experiencia del usuario que de SEO, sin embargo, sigue siendo importante.

Entonces, hay que corroborar que tu sitio web cumpla con esa buena práctica. ¿Cómo lo hacemos? Bueno, navegando y comprobando las extensiones y los títulos de las mismas. Un elemento importante para la experiencia del usuario que aporta su pequeño granito de arena para SEO y que es necesario corregirlo si hay un inconveniente. Es hora de que lo chequees en tu sitio.

Análisis Seo de contenidos- Marketing de contenidos

Verificar la calidad del contenido del sitio

Uno de los pocos factores SEO que prevalece con el paso del tiempo es "el contenido es el rey". Es imposible posicionar un sitio web, si no cuenta con contenido único de calidad y optimizado para cumplir con tus objetivos de posicionamiento. Una regla básica, que tengo en cuenta a la hora de auditar un sitio web, es que cada página tenga al menos 250 palabras.

Cada página debe tener contenido único y relevante. Una buena práctica —basada en mi experiencia— es ese número: 250 palabras, aunque yo impongo para mis clientes 750 palabras mínimo, dependiendo del nicho, claro está.
Esto podemos verificarlo rápidamente, y mientras vamos documentando páginas con contenido de al menos 250 palabras. Y vamos revisando algunas páginas, principalmente las "home page". ¿Cómo hacemos eso? Utilizamos nuestra herramienta preferida SEOquake, cliqueando en la parte superior, activando y utilizando la pestaña de densidad.

Aquí nos dice la frecuencia con que se utilizan distintos términos. En la parte superior, encontramos que tenemos X palabras.
Tenemos que hacer también, aparte de un análisis cuantitativo, un análisis cualitativo para entender la calidad de ese contenido. Ahora pasamos a ese punto.
Analizando rápidamente el contenido de la "home", del sitio, vemos que aquí sí tenemos o no contenido de calidad, si hay demasiados enlaces y a la vez poco contenido, si está demasiado disperso o no, si está en el body principal de la web, si hay contenido en el body secundario, como sidebars, footers, etc… .

En el caso de que debería mejorar su contenido la web, hay muchas formas de hacerlo, podríamos incorporar un módulo en la parte superior; expandir la cantidad de caracteres en la descripción de cada producto e incluso mejorar el "H1" que ya forma parte de nuestra auditoría.

Mejorar e incorporar contenido relevante. Analizar las páginas importantes: como son las páginas de productos o servicios. Corroboramos cómo se ve cada una de ellas. Sería también importante evaluar categorías, subcategorías y otras páginas importantes que por supuesto dependen de la estructura y objetivo de cada sitio. No obstante, el contenido en todo contexto, en todo objetivo, siempre es el rey, siempre es importante optimizarlo tanto en calidad como en cantidad para que sea lo más relevante posible y así mejorar nuestro rendimiento.

Identifica el uso de subdominios

El uso de subdominios tiene dos implicaciones desde una perspectiva SEO. La primera tiene que ver con el tratamiento. Cómo ve Google a los subdominios en relación, por ejemplo, a los subdirectorios. Los subdominios son nombres de host distintos, por lo cual, al enlazar desde el dominio raíz hacia un subdominio el paso de Page al jugo de links es distinto cuando se trata del dominio raíz hacia un subdirectorio.

Por otro lado, dependiendo de la estructura del sitio muchas veces los subdominios se ven desconectados del dominio principal, con lo cual, el rastreador, el bot de Google nunca llega a encontrarlos y ese contenido valioso, esa página que tenemos ahí nunca llega a ser indexada, perdiendo, por supuesto, potencial de posicionamiento.

Entonces, es muy importante identificar si hay uso de subdominios en el sitio y evaluar que estén conectados correctamente, para hacer las acciones correctivas necesarias, para lograr mejores resultados. Vamos a hacer lo siguiente, vamos a escanear nuestro sitio y navegarlo en busca de subdominios. Una manera más práctica para escanear el sitio sería a través de Screaming Frog SEO.

Buscar si tenemos resultados con "www y sin www", eso puede generar algún inconveniente. Técnicamente "www" también es un subdominio. Reconocer el uso de subdominios es un muy buen primer paso para empezar a diagramar la arquitectura del sitio y hacer correctamente el paso de jugo de links.
Asegurarnos de que todas las secciones reciban la visita del crawler para que sean indexadas y después trabajar en su posicionamiento.

Verificar que no haya contenido duplicado

El contenido duplicado es una de las principales causas de un mal rendimiento en términos de SEO. Es muy común, sobre todo en tiendas de comercio electrónico que en vez de redactar la descripción para cada producto lo que hacen es, ir al proveedor, copiar la descripción y pegarla en su sitio. ¿Qué sucede? Google no penaliza esta práctica. Es decir, Google no va a decir: "este sitio que desaparezca de los resultados". Pero lo que hará es elegir qué versión es la única, la original y va a tener que elegir entre una única versión.

Por la fecha de publicación del contenido y también por la reputación del dominio siempre va a elegir la versión original. Es decir, si publicamos: "tenemos una tienda con productos Sony" ponemos una descripción de Play Station, Google va a saber determinar que la versión original la que primero se publicó fue la que estaba en la tienda oficial de Sony. Entonces, si tu contenido es duplicado no vas a poder posicionar si el contenido del sitio es duplicado de nuevo, no va a haber oportunidad de que escale posiciones.

¿Cómo verificamos este tipo de incidente? Podemos hacerlo rápidamente usando Google. ¿Cómo, dirás? Puedes hacerlo copiando el contenido de la página en cuestión. Copiamos una pequeña porción de texto, un párrafo y lo pegamos en Google.

Si aparecen otros resultados significa que el contenido es duplicado. Si algún resultado tiene una descripción prácticamente igual a la que está en una página de producto tuya, puede causar un daño enorme, porque si Google elige la página, más allá de que sea perteneciente a esta empresa, quien no tiene la opción de comprar estamos perdiendo el potencial de ese tráfico de mucha calidad que puede generar una transacción que puede generar ingresos.

Pequeño "tip": si ponemos entre comillas el contenido solamente vamos a ver resultados exactos. Por ejemplo, de aquí hasta aquí. Copiamos una porción más pequeña. Comillas y ahí tenemos un resultado.
Por ejemplo, si tenemos tres resultados de otras páginas, como "duplicación interna" 2 URL con el mismo contenido y duplicación en un sitio externo. Tenemos un Gran problema. Google tendrá que determinar cuál de estas opciones es la más relevante. Y elegirá la opción original. También puede afectar nuestro rendimiento si elige la opción incorrecta dentro de nuestro site con duplicidades. Por ejemplo, como es elegir una ficha de un producto que no ofrece la opción de comprar.

Podemos, también, buscar o limitar la búsqueda de contenido duplicado a un dominio concreto, es decir, duplicado dentro del mismo sitio utilizando el operador "site".
Site:tudominio.com”trozo de texto”
Si nos muestra de nuevo esa página que a pesar de tener distintos títulos tiene el mismo contenido. Un desperdicio. Esto también se llama "canibalización", porque a pesar de tener distinto títulos puede que sea un poco más relevante pero aun así, mismo contenido, poco valor, pocas oportunidades de posicionar. Hazlo en tu sitio y documenta para ver qué se puede hacer para corregirlo.

Identifica que haya versión canónica del sitio

Una cuestión SEO fundamental que tiene que quedar grabada en tu cabeza es que hay que evitar tener distintas versiones de un mismo contenido. Es decir, un mismo contenido en múltiples páginas. La gestión de ese tipo de escenarios se llama "canonización" y hay dos formas de corregirlo. La primera es mediante el uso de redirecciones 301, y la segunda mediante el uso de "rel canonical". Un tag hecho específicamente para indicar a Google la versión original de un contenido.

Un error muy frecuente es respecto de la "home page". Distintas versiones de la página principal, con "w" o sin "w", con ".html", ".index", "html", todas que representan el mismo contenido, y que cuando llega el bot puede interpretarlo como distintas entidades, generando inconvenientes a la hora de determinar cuál es la versión original.

Lo primero que debemos hacer para continuar nuestro análisis seo, es determinar que no haya distintas versiones de la "home page", es decir, con "w" y sin "w". Vamos a probar a ver si sucede eso o no. Lo vamos a hacer básicamente ingresando a la página sin www, y si se queda sin las www, entonces después le añadimos www. Y lo óptimo sería que esta acción me redireccione de vuelta a la versión sin "www".
Si también tenemos al final de la url el famoso index.php o .html, hacemos igual. Ya que si no redirecciona, es tener el mismo contenido en dos direcciones diferentes, y es contenido duplicado, de lo que hablamos en el anterior apartado. Vamos a ver qué sucede si lo quitamos. Lo óptimo sería que redireccione a "index.php", si no lo hace, tenemos un problema.

Si ninguna redirecciona, entonces, tenemos tres versiones, cuatro en realidad, con "w", sin "w", con "index.php", sin "index.php", todas de la "home page", todas de un mismo contenido. ¿Qué versión elegimos por defecto? Mi recomendación es utilizar la que Google utiliza con más frecuencia. Esto podemos verificarlo si buscamos el dominio usando el operador "site". Así que la recomendación en este escenario sería direccionar todo a la versión sin "w". ¿Qué paso adicional se podría hacer aquí? Dentro de google search console se puede especificar la preferencia, ya sea con "w" o sin "w". Eso sería un paso adicional importante para asegurar el cambio, que se refleje correctamente.

Entonces, si en un contenido, —y esto es normal en las tiendas online— se repite varias veces la misma descripción, deberíamos incluir dentro de los metadatos el "rel canonical" identificando la versión original.

Accesibilidad e Indexación web

Verificar el robots.txt

Google otorga una cuota limitada de "crawling" o rastreo a cada sitio. Esta va a depender de las dimensiones del sitio, cuántas páginas tiene, la frecuencia de actualización y otros factores relacionados a cuestiones técnicas.

Dado que esa energía es limitada, es una buena idea determinarle a Google, indicarle, sobre qué contenidos realmente no vale la pena pasar el crawler, que no deseas que sean rastreados ni indexados. Para hacer eso, podemos utilizar el "robots.txt", que es un protocolo, es un documento que debemos cargar en nuestro dominio raíz que nos permite indicarle a Google a qué páginas no debería dar la atención.

Parte de la auditoría seo, consiste también en identificar ese tipo de documento, dado que, como mencionábamos anteriormente, se trata de un recurso limitado, deberíamos evitar indexar páginas con poco valor o páginas que tienen información sensible, que igual, de todos modos, no sería una buena idea publicarlas en Internet. Por ejemplo, en una tienda, páginas que no tienen mucho valor pueden ser: La página de "login", pasos en el proceso de compra, y otras páginas que tengan este tipo de características.

¿Qué debemos corroborar en el sitio? Que haya presencia de un "robots.txt" y estas páginas estén bloqueadas. ¿Cómo lo hacemos? El "robots.txt" se carga en el dominio raíz. Así que, ingresando "/Robots.txt" en la URL deberíamos poder ingresar, y si no lo tenemos disponible, no estamos aprovechando al máximo esa cuota limitada de "crawling" que nos está ofreciendo Google.

Es importante recordar que este protocolo, el "robots.txt", no solamente funciona para Google sino para todos los buscadores. Es un estándar soportado por los buscadores más populares. Así que tenlo en cuenta a la hora de desarrollarlo. Entonces, para dar a un cierre a este paso en la auditoría. Chequear páginas con poco valor. Primer paso. Segundo paso. Buscar formas de evitar su indexación. El protocolo, la forma más estándar de hacerlo es mediante el "robots.txt".

Cambiar el user agent

Dentro del mundo SEO hay dos categorías de prácticas por un lado tenemos "White Hat" que vendría a ser lo avalado por Google, sombrero blanco y por otro "Black Hat", es decir, todas esas prácticas que buscan encontrar trampitas en la forma en que Google interpreta el contenido para escalar posiciones.

Una de estas prácticas se llama "cloaking" que es básicamente mostrar a los usuarios un contenido y cuando llega el "bot" mostrar algo totalmente distinto. Por ejemplo, podemos mostrar a los usuarios un contenido muy bonito amistoso, fácil de leer, no "spamming" y a Google mostrarle algo mucho más optimizado para SEO que, en definitiva, puede que funcione, pero a largo plazo todos sabemos que las trampas o las mentiras tienen patas cortas.

Entonces, por ajustes técnicos, por ejemplo, es muy común ver en sitios que tienen distintas variaciones, dependiendo del país o el idioma, que redireccionan o cambian la experiencia del usuario dependiendo del "User agent", es decir, quién ingresa al sitio. Puede que Google interprete ese contenido como "cloaking" y, por supuesto, nos penalice totalmente inocente de nuestra parte por una cuestión técnica que está enfocada en mejorar incluso la experiencia del usuario.

Entonces, es importante determinar si hay este tipo de inconveniente y eso podemos hacerlo cambiando el "User agent". Para hacer esta validación, para ubicar este elemento vamos a usar una extensión de Google Chrome que se llama "User Agent Switcher" que podemos instalar de forma gratuita, añadimos, y lo que vamos a hacer es agregar un "User agent" que va a ser el "User Agent de Googlebot".

Vamos a simular, como si accediéramos al sitio, siendo el bot de Google. Vamos a buscar "User agent Googlebot" y el resultado que nos interesa es http://www.useragentstring.com que nos muestra cómo está configurado el bot de Google. Y dentro de " User Agent Switcher" vamos a hacer lo siguiente. Vamos a copiar este valor, Googlebot/2.1 (+http://www.googlebot.com/bot.html) Ingresar a la configuración de la herramienta, clic derecho, y en "Configuración", aquí podemos agregar un nuevo 'User agent".
En este caso va a ser Googlebot. Copiamos el "string", este que tenemos aquí. Googlebot/2.1 (+http://www.googlebot.com/bot.html).
Ahora lo que vamos a hacer es ingresar al sitio web utilizando ese "User agent" y determinar si hay algún inconveniente. No lo vamos a utilizar ahora, antes quiero decirte algo interesante, que es que si cambiamos el "User agent" a Android, simularía que estamos accediendo desde un móvil.

En este caso no sucede nada. En el caso de una tienda online, hay que fijarse si el contenido varía dependiendo si ingresamos con un "User agent" de escritorio o uno móvil. Debería de detectarlo.
Pero nos falta también corroborar qué sucede con el bot de Google. Vamos a ingresar "Default" Googlebot, se va a refrescar la página y deberíamos ver el mismo contenido. Vamos a hacer lo mismo con la tienda online. Ingresamos a una página de producto y como resultado y conclusión podemos determinar si hay o no hay inconvenientes de "cloaking".

Verificar que haya sitemap.xml

El "Sitemap.XML" es un archivo creado para indicar a los buscadores qué páginas debería indexar y cuál es la frecuencia de actualización. Este archivo ayuda, no es determinante en el sentido de que el no cargarlo no quiere decir que nuestro sitio nunca se indexe, pero sí facilita a los buscadores el trabajo de identificar aquellos contenidos del sitio que debería indexar, con lo cual es una buena práctica tenerlo en nuestro sitio.

Dentro de la auditoria lo que necesitamos hacer es verificar que el "Sitemap" esté cargado y la ruta más común donde se suele cargar, sobre todo si se trata de un CMS, es en el directorio raíz.

¿Cómo lo verificamos? Incluyendo "Sitemap.XML" luego de la barra.
¿Qué sí es determinante para que un sitio se indexe? Una buena arquitectura del sitio, conectar bien las distintas secciones y facilitar al bot el trabajo de rastreo, creando rutas o caminos que permitan que el zumo de links, el "pagerank" pase de la página principal hacia todas las secciones del sitio.

Verificar bloqueos meta

Además del "robots.txt", otra forma de indicarle a Google que no rastree o no indexe una determinada página, es mediante "etiquetas meta", las etiquetas "meta Robots": "noindex", "nofollow". Estas etiquetas, desde un punto de vista de la utilidad, podemos utilizarlas para decirle: "Esta página, Google, no la indexes".

Pero también es un error común cargar estas etiquetas en páginas que sí deberían estar indexadas. Entonces, parte de la auditoría consiste en determinar que no hay páginas importantes bloqueadas y que las páginas de poco valor sí estén bloqueadas.

Esto lo podemos corroborar ingresando al sitio web y... primera forma, "viendo el código de fuente" "Ctrl+U", de nuevo “Ctrl+F” ponemos "noindex", y corroboramos que no está ninguna etiqueta con ese valor. Podemos poner "nofollow" también. Y eso también podemos hacerlo con la extensión "SEOquake".

Activándola. Viendo la "información de la página", o "Diagnóstico", y verificar que no haya referencia a "etiquetas meta" "bloqueantes". En este caso no tenemos ningún inconveniente. También decíamos que sería importante bloquear páginas de poco valor. Esto lo podemos corroborar también, ingresando por ejemplo a la página de "Log In".

Identifica redirecciones y errores 404

Identificar errores "404" es un paso fundamental en tu auditoria, dado que se trata de oportunidades de rápida mejora, en la que se pueden obtener excelentes resultados con muy poco esfuerzo. Este trabajo es difícil hacerlo manual, así que te recomiendo utilizar una herramienta muy potente: "Screamming Frog SEO".

Y al momento de cliquear "Start", la herramienta va a comenzar a escanear el sitio web. Y te va a mostrar, al lado de cada URL, una serie de datos muy importantes relacionados al SEO de la página, incluido si hay errores "404" o redirecciones.
La versión gratuita de "Screamming Frog" solamente limita 500 URL.
Cuando tengamos listo el análisis y podemos comenzar a filtrar para identificar redirecciones y páginas "no encontradas". ¿Cómo hacemos esto? En la columna lateral. Vamos a bajar un poquito hasta "Response Codes". Y ahí vamos a elegir la que dice: "Client Error 4XX". Aquí podemos ver las que tienen acceso prohibido, y las que nos interesan, "Error 404".

Hay que ver si estas páginas son enlazadas desde un contenido, con lo cual la buena práctica indica que desde este contenido, desde esta página inexistente, deberíamos hacer una redirección "301" que lleve a una página con el mismo contenido o en la página principal, por ejemplo, para no perder el "Phaser" acumulado que puede tener esta URL.

Para analizar las redirecciones, podemos hacer lo mismo que el paso anterior, en vez de ir a "Client Error", vamos a "Redirection". Y aquí tenemos tres redirecciones que tienen un "Status Code 302", es decir, "movido temporalmente". La relación entre "Redirecciones" y paso de "Pagerank" es muy importante. ¿Por qué? Las direcciones "301" pasan casi toda la totalidad del "Pagerank" o linkjuice que tiene una página, porque es una redirección permanente, para siempre.
Por el contrario, redirecciones "302" no pasan "Pagerank", con lo cual páginas que estemos enlazando, redireccionando no van a pasar el respectivo "Pagerank" que deberíamos esperar.

Arquitectura de enlaces SEO

Verificar la arquitectura de enlaces

Cada vez que agregamos un enlace en nuestro sitio hacia una página externa o interna, estamos pasando una parte del "page rank" de esa página a la siguiente. Es por eso que es recomendable controlar la cantidad de enlaces por página para mantener consistentemente el volumen de "page rank" que contiene cada página. La recomendación, según algunos hablaban de no más de 100 enlaces; es que no haya más de 50 enlaces por página. De otra forma, el "page rank" se diluye demasiado.

Veamos cómo hacerlo. Vamos a ingresar a dos páginas, las páginas principales que son las que suelen tener mayor volumen de enlaces entrantes y en consecuencia, mayor reputación o "page rank", y con SEOQuake, vamos a activar la herramienta. Podemos rápidamente verificar la cantidad de enlaces internos y externos. Si cliqueamos en interno, podemos ver que tenemos un total de X enlaces, si tenemos más de 50 superaría lo recomendado.

Las medidas correctivas para este tipo de inconveniente es limitar la cantidad de enlaces o hacer uso de la etiqueta "no follow" para restringir el paso de "page rank".

Así fácilmente podemos verificar el volumen de enlaces, limitándolo a 50, que es la recomendación que sugiero, y así controlar de forma inteligente a qué páginas pasamos "page rank" o no.

Verificar el uso de anchors o textos de ancla

Cada enlace que recibe nuestro sitio o también enlaces de nuestra página hacia otros sitios o páginas internas es un voto, en el cual se pasa reputación, es decir "pagerank", y también relevancia. No todos los votos son iguales. No es lo mismo recibir un enlace desde la página principal de Wikipedia, no solamente por el volumen, de tráfico que enviaría, sino por la reputación misma del dominio, que de un sitio que acaba de publicarse y que no tiene contenido, que no tiene "pagerank", que no tiene un historial, ni autoridad acumulada.

¿Cómo hacen los enlaces para pasar relevancia? Esto lo hacen a través del contexto donde está el enlace, es decir, si el enlace se encuentra dentro de un artículo de destinos turísticos en Japón y mi sitio web trata de esa temática está pasando un montón de importancia y relevancia acumulada por el contexto, no solamente del sitio que envía el enlace sino por la relación que hay con el contenido de mi sitio. Y, además, se pasa a través del uso de "anchors" o textos anclas, es decir, las palabras que se utilizan para incluir el enlace.

Cuando hablamos de "interlinks", quiere decir, enlaces internos, también hay que tener en cuenta esa regla. Dado que podemos utilizar palabras ambiguas como: "Ingresa aquí", "Página siguiente" o lo que fuere, o usar palabras clave, relevantes que aumenten el valor o potencial de ese enlace. Veamos cómo podemos hacerlo. Vamos a ingresar al sitio y con SEOquake podemos activar el informe de enlaces internos y vamos a ver todos los enlaces que se encuentran en la página y debajo el texto ancla.

Verificar links nofollow

La etiqueta de "rel="nofollow" es un atributo que se incluye dentro de un enlace para indicarle a Google que no pase "PageRank". Es algo que dentro de SEO llamamos esculpir el "PageRank" controlando a qué enlaces queremos pasar esa relevancia, ese jugo de links, y a qué enlaces no. Por un lado, tenemos que usar "nofollow" para bloquear de vuelta sitios a los que no queremos hacer "PageRank". Pero por otro, también tenemos que corroborar al momento de auditar que no estemos bloqueando el paso de jugo de links a páginas que si debería llegarle.

Verificar esto es muy sencillo, podemos hacerlo ingresando al sitio correspondiente. Vamos a habilitar SEOquake y cliquear en el "Informe de enlaces internos". Y aquí podemos, dentro de las opciones del menú de reporte, cliquear en "nofollow" e identificar qué enlaces estamos bloqueando el paso de "PageRank".

Y vamos a poner el estado completo de URLs bloqueadas Estas son la página de "Orden" y la página de "Mi Cuenta". Ahora vamos hacer lo mismo con el sitio principal. Activamos SEOquake.

Vamos al informe de enlaces y podemos ver que en "nofollow" no hay ningún enlace, y el volumen de enlaces de esta página excede bastante la recomendación. Con lo cual lo que vamos a hacer es tomar nota. "Dominio principal puede que sea necesario el uso "nofollow" por su volumen de enlaces." Vamos a corroborar ahora enlaces externos.

Imaginemos que tenemos 10 enlaces totales externos, de los cuales ninguno tiene "nofollow" y hay algunos a Facebook y google+. Por ejemplo, ¿qué sentido tiene pasar jugo de links a dominios como "plus.google.com" o "Facebook"? Estos sitios pueden llegar a justificarse, porque se tratan de dominios que pertenecen a la empresa, pero "Google", "Facebook" no tienen ningún sentido pasar "PageRank".

Así que podemos bloquear el paso de jugo de links, mediante la etiqueta "nofollow". Entonces, usar el atributo "rel="nofollow" nos permite controlar, esculpir, a qué sitios web, a qué páginas internas, debemos pasar "PageRank".
De esa forma, podemos incrementar la autoridad de las páginas importantes de nuestro sitio.

Aspectos técnicos, velocidad web y seo internacional

Evalúa el sitio en GTMetrix

Hacer que tu sitio cargue rápido es una prioridad absoluta. Los sitios lentos ofrecen una mala experiencia, lo que hace que los usuarios abandonen el sitio y no compren con todo lo que eso conlleva, y que todos sabemos cada vez que ingresamos en un sitio y pasamos por eso.

Por lo que respecta a SEO, un sitio pesado, lento en cargar hace más difícil al crawler del buscador analizar el contenido. En consecuencia, esa cuota de "crawling" que tenemos —que nos dedica el buscador— se va acabando rápidamente y limita también el potencial de otras páginas que podrían tener buenos resultados.

Recientemente, el tiempo de carga es un factor de posicionamiento. Con lo cual, sitios que cargan rápido obtienen mejores posiciones. Un sitio con un tiempo de carga óptimo tendría que cargarse completamente en unos 5 segundos. Por tanto, como parte de la auditoría, tenemos que corroborarlo. Para hacerlo, utilizamos una herramienta llamada GTmetrix que nos va a dar un puntaje y nos dice cuál es el tiempo de carga de nuestro sitio.

Recuerda, el tiempo óptimo debe ser menos de 5 segundos. Veamos si cumplimos con esa regla. Ingresamos a gtmetrix.com La herramienta es muy fácil de utilizar. Copiamos la URL. Pegamos. Cliqueamos en el botón grande azul de "Analizar" y dejamos que la herramienta haga su trabajo. Lleva unos segundos. Esta herramienta es muy poderosa.

Aquí tenemos un detalle muy completo, que va desde optimizar las imágenes... La gran oportunidad de todo sitio para mejorar el tiempo de carga es comenzar desde lo básico, imágenes, hasta utilizar caché, minimizar archivos y demás. Por tanto, los sitios rápidos ofrecen una buena experiencia, la gente compra más en los sitios rápidos y además los sitios rápidos consiguen un mejor rendimiento en los buscadores, obtienen un mejor SEO. Muy a tener en cuenta.

Analizar la experiencia móvil

El hecho de que hoy día el tráfico de Internet móvil supera al de escritorio debería ser un argumento más que suficiente para dedicar tiempo y recursos a mejorar la experiencia de tu sitio desde esos dispositivos. No obstante, también tiene una influencia directa con el aspecto SEO, dado que sitios que ofrecen una buena experiencia móvil, obtienen posiciones más altas desde ese dispositivo. En consecuencia, es muy importante que analices e identifiques problemas de usabilidad que puedan estar afectando la experiencia móvil.

Para hacer esto, vamos a utilizar una herramienta que es la prueba de optimización para móviles de Google. Pueden probar aquí: https://search.google.com/search-console/mobile-friendly?utm_source=mft&utm_medium=redirect&utm_campaign=mft-redirect&hl=es. Prueba de optimización para móviles. La herramienta es muy fácil de utilizar, copiamos una URL. Pegamos y analizamos.

Supongamos que no está optimizada. Y se trata de un gran inconveniente, un gran problema porque, como mencionaba, puede que las páginas estén recibiendo actualmente tráfico de móviles y brindando una muy mala experiencia. Tráfico de calidad, tráfico que ingresa buscando consultas en Google con mucha intencionalidad, y que sean una página, y no pueden completar, por ejemplo, una acción tan sencilla como realizar una compra o navegar un contenido.

Eso por un lado, y por el otro, todo el potencial SEO que estamos perdiendo por no optimizar la experiencia móvil. Entonces, fundamental hacer un análisis, con la prueba de optimización para móviles, documentar la información y luego hacer los ajustes necesarios para dar una buena experiencia.

Identifica versiones internacionales y de idioma

Cuando creamos versiones de nuestro sitio por país o por idioma en lo que llamamos SEO internacional, hay una serie de buenas prácticas que debemos seguir para garantizar que todo se indexe correctamente, y que no haya inconvenientes de contenido duplicado. Una de ellas es utilizar el atributo "hreflang", el cual nos permite indicar el idioma de esa página y la URL concreta donde se encuentra esa versión de idioma. Esta parte de la auditoría consiste en identificar si hay versiones internacionales, es decir, por país o de idioma, y determinar si existe este atributo: El atributo "hreflang".

Para hacerlo, vamos a navegar al sitio, y en el caso del dominio principal, la página principal, supongamos que tenemos versión en español en este caso y una versión en inglés dentro del directorio "/ingles". Vamos a corroborar si "hreflang" se encuentra cargado correctamente. ¿Cómo lo hacemos esto? Primero: La etiqueta "hreflang" debe estar en la página principal, es decir, desde el sitio en español debe indicarse la página en inglés. Y desde la página en inglés debe indicarse con la etiqueta, con el atributo "hreflang", la versión en español. Entonces, aquí deberíamos tener, como justamente recién mencionaba, vamos a ver el código de fuente, clic derecho.

Ver código de fuente. Control + F Y vamos a escribir "hreflang" Y vemos si la etiqueta está presente. Vamos a hacer el mismo ejercicio en la versión en español, que, de nuevo, debería apuntar a la versión en inglés.

Enlaces, Reputación Online y medición en Seo

Verificar volumen de enlaces entrantes

Cuando hablamos de factores de posicionamiento, sabemos que tenemos factores internos, en el cual solemos mencionar que el contenido es el rey, el contenido de calidad es lo más importante. Pero también tenemos los factores externos. Y un buen SEO no se puede dar si no tenemos los dos ingredientes dentro de la receta. Entonces, ¿qué elemento fundamental determina la reputación de un sitio, la importancia de autoridad de un dominio?
Principalmente, la calidad de los enlaces entrantes. Entonces, esencial en una auditoría SEO evaluar ese factor.


Cuántos enlaces entrantes tiene un sitio, es decir, un análisis cuantitativo, y la calidad de esos enlaces: entender de dónde vienen, qué reputación y autoridad tienen los dominios que enlazan. Para lograr esto, vamos a usar una herramienta llamada Open Site Explorer que pertenece a Moz. Podemos googlearla también... Open Site Explorer... Muy fácil de utilizar. Con solo incluir el dominio...
Copiamos y pegamos... Va a hacer un análisis, en el cual vamos a tener un ranking. Conclusión: Se debe trabajar factores externos. Recuerda lo siguiente: una buena estrategia SEO debe tener dos ingredientes: factores internos y factores externos. Si uno falla, la estrategia falla por completo.

Identifica competidores mediante estrategias SEO

Una buena palabra clave se compone de tres elementos básicos. Primero: relevancia. La consulta que hace el usuario tiene que tener intencionalidad y relación con lo que ofrecemos. Es decir, imaginen que tenemos un hotel económico en Valencia. Una persona que llega a nuestro sitio buscando hotel económico en Barcelona no es relevante, por más que tenga volumen de tráfico, por más que genere visitas, esa persona que llega no va a transformarse en cliente. Eso es un punto esencial a la hora de determinar la calidad de una palabra clave.

Segundo: volumen. Este factor depende del negocio, es decir, de la capacidad de atacar todas las palabras posibles porque se tengan recursos, o de si por el contrario, estos son limitados. La consulta tiene que generar clics, tiene que generar tráfico de calidad, pero también que sea lo suficiente como para generar rentabilidad en nuestro sitio.

Yo siempre aconsejo a mis clientes atacar cualquier palabra clave que me traiga tráfico a mi web, y si son long tails muy específicas mejor, ya que estas son las que más convierten normalmente.
Por ejemplo, siguiendo con el mismo ejemplo "hoteles en Valencia" puede ser una buena palabra clave. "Hoteles en Valencia, baratos, que aceptan mascotas" puede parecer demasiado "longtail" y es evidente que por la longitud de la consulta el volumen de tráfico no va a ser suficiente, pero en realidad si lo es, ya que apenas vas a tener competencia y el tráfico que vas a ganar es el mejor que puedas conseguir.

Para estas palabras log tail, se elabora una estrategia de contenidos en el blog, donde se atacan estos términos y se sitúan en la página del producto o servicio en cuestión como valor añadido en forma de enlaces. Inbound Marketing.

. El último punto es: la competencia. Puede que una palabra sea sumamente relevante, personas que buscan lo que nosotros ofrecemos pero que compitamos con sitios masivos que resulte imposible superarlos. Por ejemplo: hoteles en Valencia propiamente. Estaríamos compitiendo contra Booking, TripAdvisor, Niumba, Milanuncios y otros sitios que realmente invierten millones de dólares para mantener esa posición privilegiada.

Con lo cual no es viable que esperemos tener una posición en esos resultados. "Hoteles, Valencia, económicos, baratos con descuento" puede ser más viable. Entonces, analizar la competencia es un paso fundamental para determinar cuáles son nuestras opciones, cuál es el mejor camino a seguir. Para eso, tenemos que tener en claro cuáles son nuestras palabras clave. Un buen Keyword research es indispensable a la hora de elaborar la arquitectura web, calidad y elaboración de contenidos en las páginas, fichas de productos y estrategia de contenidos en el blog.

A la hora de analizar una búsqueda, escribimos en google la consulta. Si activamos "SEOquake" vamos a ver una serie de datos contextuales que nos van a permitir determinar la competencia. En este caso, dos elementos a mirar. Primero: la cantidad de resultados. ¿Contra quién competimos? Analizamos los resultados, debe de haber un poco de todo, incluso videos y PDF.

Una forma más precisa de determinar los competidores reales es usar el atributo "allintitle: y la palabra clave en comillas. Esto va a restringir los resultados, solamente a aquellos sitios que tienen en el título esa palabra clave exacta.
Este mismo ejercicio deberíamos repetirlo para todas las palabras clave y de esa forma podemos determinar realmente cuáles son las consultas, las palabras clave donde hay que poner todo el esfuerzo, donde hay que apuntar los cañones de nuestra estrategia. Así, sabemos que todo el trabajo que estamos haciendo es factible y en algún momento nos dé resultados.

Evalúa la presencia en redes sociales

La presencia en redes sociales no es en sí un factor de posicionamiento SEO, pero sí es una importante herramienta para generar enlaces de marca, relevancia de la misma y ampliar el alcance de nuestros contenidos que, en definitiva, eso sí tiene un impacto en nuestros factores externos, es decir, en la generación de autoridad.

Evaluar la presencia en redes sociales, básicamente, requiere ingresar al sitio y determinar si hay perfiles, y, sobre todo, perfiles activos donde haya una comunidad y donde se invierta tiempo para publicar contenido.
Por ejemplo, si tenemos presencia en Facebook. Vemos si tiene likes. Los contenidos... Podemos evaluar la frecuencia de publicación, si hay actividad. Si hay engagement. Aquí también podemos llegar a la cuenta de Instagram.
Otra herramienta que podemos utilizar para hacer este tipo de análisis es una de mis herramientas favoritas, se llama Similar Web, con la cual, solamente poniendo la URL del sitio web, va a hacer un análisis de distintos factores, el cual incluye también la presencia social. Conclusiones: La presencia en redes sociales no es directamente un factor de posicionamiento SEO, pero sí un factor amplificador. Es un catalizador que nos ayuda a mejorar nuestros resultados de forma indirecta ampliando el alcance y generando presencia de marca.

Google Analytics y SEO Search Console

Generar tráfico SEO es solamente una parte de la carrera, es solamente una parte del proceso. Porque todos nuestros esfuerzos que estamos haciendo para lograr mejores resultados, mejores posiciones, tienen que traducirse en resultados; y resultados no solamente es tráfico, resultados es que ese tráfico genere rentabilidad, ese tráfico genere ingresos para nuestro proyecto. Y ahí toma mucha importancia el hecho de medir efectivamente nuestras acciones, y la herramienta por excelencia para hacer eso es "Google Analytics".

Entonces, este proceso de auditoría consiste en determinar si "Google Analytics" está instalado correctamente. ¿Cómo lo vamos a hacer? Utilizando una extensión de Google Chrome llamada "Google Tag Assistant". La buscamos en Google. Primer resultado, es una extensión de Google Chrome. Vamos a instalarla.

Y esta extensión lo que nos permite hacer es verificar si "Analytics" está instalado en un sitio, y además, si está instalado correctamente. Vamos a habilitarla, cliqueando en el ícono en la parte superior, primero aceptamos la configuración, cliqueamos en "Enable", refrescamos y vemos si el sitio tiene "Google Analytics" y "Google Tag Manager", aparecerá en verde, carita feliz, parecerá que está todo "OK", pero si sale en rojo, no.

Entonces, de esta forma y con esta útil extensión de Google Chrome, podemos determinar en cualquier sitio, si está instalado "Google Analytics". Recuerden, un paso fundamental, medir correctamente, no se trata solamente de obtener tráfico, sino que ese tráfico se traduzca en resultados, se traduzca en rentabilidad.

De esta forma podremos realizar un análisis seo sencillo para nuestra web, aunque hay que analizar algunos puntos mas y de forma más profunda y detallada. Si necesitas que un consultor seo analice tu web puedes solicitarnos un análisis seo aquí.