logo-small
Funciones Precios
Noticias 0
Últimas noticias Ver todos

No disponible temporalmente. Por favor, visítanos en otro momento.

Ver todos
Webinars 0
Próximos webinars Ver todos
Próximos webinars

Lo sentimos, no se han podido encontrar próximos webinars.

Visualiza los webinars grabados
Blog 0
Posts recientes Ver todos

No disponible temporalmente. Por favor, visítanos en otro momento.

Ver todos
Brandon Díaz

80% más tráfico orgánico sin enlaces

Brandon Díaz
80% más tráfico orgánico sin enlaces

¿Qué es más importante, la optimización interna de un sitio o construirle enlaces? Muchos dirán que el linkbuiding es lo más importante, incluso mucho más que optimizar internamente un sitio. Pero realmente no es así, la optimización interna es igual de importante que crear enlaces. De hecho es la base sobre la que se hace linkbuilding. No estoy diciendo que no hay que crear enlaces… en muchos mercados es imposible posicionarse sin hacerlo. Pero antes de crear enlaces hay trabajo que hacer internamente en el sitio que queramos posicionar.

¿Tengo pruebas para afirmar lo que digo?

¡Claro que sí! La más reciente: el sitio de un cliente que aumentó poco más del 70% su tráfico orgánico en 1 mes. Sin crearle un solo enlace. Todo gracias a algo que muchas personas (hasta SEOs) descuidan al momento de comenzar a posicionar un sitio: Una Auditoría SEO. Y en este caso de estudio les voy a mostrar qué fue lo que se hizo para realizarla, paso a paso.

Tip: Si al contratar a un SEO o agencia para posicionar tu sitio lo primero que hace es comenzar a crearte enlaces sin haber analizado a fondo tu sitio… desconfía. 

Pero primero, resultados: Antes y después

Por confidencialidad no revelaré el nombre de mi cliente, solo diré que es un blog más o menos conocido cuya temática es Salud. Lo que sí puedo poner, es la evolución del tráfico a partir de la auditoría y de la implementación de los cambios:

grafico semrush

grafico analytics 

Específicamente paso de tener en promedio 70,000 visitas por semana a 128,000. Poco más del 80%.

¿Qué tal? Nada mal para no haber hecho nada de linkbuilding ¿No?

Ahora sí, el problema y los objetivos

Este sitio en particular recibe grandes cantidades de tráfico, pero sobre todo por Facebook. Realmente nunca se había preocupado mucho por el tráfico desde los buscadores.

Cada vez las páginas de Facebook tienen menos alcance y los Ads en Facebook cada vez irán costando más y convirtiendo menos (el mercado se irá saturando), así que vio que era necesario buscar otro canal de visitas.

El problema es que sus competidores ya llevan rato haciendo SEO, principalmente linkbuilding, mucho. Entonces, dominan casi cualquier búsqueda relacionada a su mercado.

La conclusión era obvia, primero había que analizar a fondo el sitio para corregir cualquier error y tenerlo bien optimizado. Después seguiría el linkbuilding, no al revés.

 ¿Y cómo hice esta Auditoría SEO?

Aquí viene lo interesante. Les voy a explicar paso por paso de manera general lo que hice, con qué herramientas, que errores encontré y como solucionarlos. 

Primeros pasos, análisis general (accesibilidad e indexabilidad)

Lo primero que hay que revisar es la indexabilidad y la accesibilidad del sitio. Es decir, ¿Qué tan fácil es para los bots de los buscadores leer e indexar el contenido? ¿Qué tan fácil les es navegar por el sitio?

Las herramientas que uso principalmente para este análisis son:

  • Google Search Console (antes Herramientas para Webmasters)
  • Google Analytics
  • Screaming Frog

Revisando en el Search Console, de las cosas principales que reviso son:

Errores de rastreo: 

errores rastreo

Aquí podemos encontrar páginas que devuelvan un error 404, lo cual puede ser muy útil en varios casos.

Por ejemplo, en este caso específico el sitio había cambiado de dominio una vez, eliminó varios artículos y no se preocupó por redireccionarlos a páginas que sí existieran. Entonces, había varias URLs que devolvían un 404 pero que tenían varios enlaces de distintas páginas. Solo fue necesario enlistar esas páginas, redireccionarlas a alguna página existente que tuviera un tema similar (no hay que redireccionar todo al home nada más porque sí) y listo, se recuperaron varios enlaces que apuntaban a páginas inexistentes.

Estado de Indexación:

estado indexacion

Aquí suelo revisar en la sección “Avanzada” para incluir también las páginas bloqueadas por el robots.txt. Porque aunque estén bloqueadas ahí, pueden ser indexadas.

Con esto sabemos aproximadamente cuántas páginas tiene indexadas Google.

Ahora, vamos a compararlas con las páginas que reciben tráfico desde Google. Para esto nos vamos a Google Analytics y revisamos las páginas de destino:

referencias

paginas destino

Para esto suelo tomar en cuenta el tráfico de mínimo un año antes, para tener los datos lo más completo posibles.

Al final, podemos ver debajo aproximadamente cuantas páginas han tenido tráfico orgánico:

numero paginas trafico

Y ahora nos toca comparar estos dos números que obtuvimos. Generalmente hay dos casos posibles:

  • Ambos números son similares: En general estas son estimaciones, por lo que no esperen que sean iguales. Pero si no hay tanta diferencia entre ambos, no hay problema.
  • Hay muchas más páginas indexadas que las que están recibiendo tráfico: Aquí puede tratarse del llamado Index Bloat (algo así como, índice inflado), que pasa cuando tienes muchas páginas indexadas y pocas reciben tráfico.

En este caso, sí que había index bloat, con 4 veces más páginas indexadas que las que recibían tráfico. Esto se debía a la indexación de parámetros, de paginaciones y etiquetas.

La solución consistió en evitar que Google indexara las paginaciones y las etiquetas. Para los parámetros, primero revisar que cada página tuviera una etiqueta canónica hacía sí misma.

Entonces, sí Google veía una URL del estilo sitio.com/pagina.html?parametro=true, supiera que su página “canónica” era sitio.com/pagina.html

Y después, especificarle a Google como manejar cada parámetro aquí:

parametros url

Con Screaming Frog básicamente busco páginas que devuelvan un 404 (no encontradas) o un 301 o 302 (redireccionadas). De preferencia las redirecciones, si serán permanentes, deben hacerse con un 302. También aprovecho para revisar las etiquetas canónicas y la meta etiqueta robots.

Tip: Exportando los datos de Screaming Frog a Excel, podemos comprobar rápidamente con una fórmula si la URL y su canónica son iguales. Si no lo son, hay que revisar porqué apunta a otra página.

Un ejemplo usando mi blog:

urls canonicas

Aquí las páginas donde su canónica no es igual a sí misma, es por la utilización de parámetros. En este caso no hay ningún problema.

Para terminar este análisis me enfoque en analizar la velocidad de carga de algunas de las páginas. Para saber cómo hacer este análisis, que herramientas usar y como corregir los problemas que surjan, puedes leer este post sobre WPO (Web Performance Optimization).

No olvides que no solo hay que analizar la página de inicio! También analiza algunas páginas internas, es importante que carguen también lo más rápido posible. 

Después: Análisis OnPage

Después de analizar de manera general el sitio, siguió el análisis OnPage, para determinar la optimización de cada página.

Afortunadamente los elementos básicos los tenían cubiertos: Interenlazado, optimización de meta etiquetas title y description, optimización de imágenes, uso de palabras clave y variantes en los encabezados y el texto en general… sin embargo, tenía dos problemas:

  1. Contenido duplicado indexado
  2. Páginas de error 404 mal configuradas      

El primer problema tiene que ver con lo que ya mencioné de los parámetros en la URL.

Tip: Una forma para detectar si puedes tener contenido duplicado es usando el comando site: en Google y añadiendo al final de la URL de búsqueda: &990.

resultados omitidos

Si te aparece algo similar, es probable que tengas contenido duplicado o de baja calidad. Las causas más comunes (y sus soluciones) son:

  1. Parámetros en URLs – solución ya dada
  2. Páginas de etiquetas o categorías con muy pocas entradas – En este caso hay que considerar reestructurar el sitio, si el problema es tener demasiadas categorías, y evitar la indexación de ese tipo de páginas
  3. Paginaciones – Añadir las meta etiquetas rel y prev para indicar que son paginaciones. También se puede evitar su indexación

El segundo problema fue más bien raro. Además de que la página de error 404 era la página por default, y que ya fue mejorada haciendo que aparecieran algunas entradas aleatorias para evitar que se vayan los usuarios del sitio, resulta que esa página no devolvía un 404, sino un 200…

Cuando una página devuelve un código HTTP 200, quiere decir que todo está correcto, que la página está bien. Y debería estar devolviendo un código 404, indicando que de hecho la página no existe. A esto se le conoce como un error 404 “suave” (soft 404).

El problema es que al estar devolviendo un 200, los buscadores pueden pensar que es una página normal e indexarla. Además que dificulta el encontrar enlaces rotos pues al no devolver un 404 muchos programas pueden interpretar eso como que no hay páginas así.

Esto se puede detectar directamente desde las herramientas para desarrolladores de los navegadores, o usando algún sitio como RedBot. Es algo muy sencillo de verificar y que muchas veces no se tiene ni en cuenta. En este caso, el problema lo ocasionaba un plugin llamado FlexiCache.

Y por último, algo que hay que tener ya muy en cuenta es si el sitio se ve bien en móviles o no.

El primero paso para revisar esto es igual en Google Search Console, en la parte de usabilidad móvil:

usabilidad movil

Después, revisar como se ve el sitio en móviles. Esto puede ser tan sencillo como redimensionar el navegador o usar algún sitio como Responsinator.

Y si el diseño no se adapta a la pantalla, puede que estén sirviendo contenido distinto dependiendo del visitante. Para verificarlo accede al sitio desde un móvil o usa alguna extensión para cambiar tu “User Agent” como User-Agent Switcher para Chrome ;)

Análisis OffPage

Para terminar esta Auditoria, analicé los enlaces de mi cliente y los comparé con el perfil de enlaces de los competidores.

Y bueno… como dije al inicio, aquí es donde su competencia ha invertido desde hace ya un par de años. Por lo que está en clara desventaja.

Una muestra analizando y comparando los enlaces del sitio y sus competidores:

majestic comparar enlaces

Si bien la cantidad de enlaces que tiene no es nada despreciable, es mucho menor que la de sus competidores posicionados en primer lugar.

Como dije al inicio, una Auditoria no sustituye al linkbuilding, pero es igual de importante y no hay que olvidarla centrándose solo en crear enlaces.

En fin, ¿Qué revisar al analizar enlaces?

Hay varios puntos, los más importantes:

  1. % de anchor text con la palabra clave a posicionar exacta
  2. % de enlaces nofollow y ‘dofollow’
  3. Volumen de enlaces - ¿Cuántos enlaces tiene?
  4. Velocidad de enlaces - ¿Con qué velocidad los ha obtenido?
  5. Calidad de enlaces – Difícil de saber en realidad, se puede estimar con métricas como el Page Authority y el Domain Authority de Moz o el Trust Flow de Majestic.
  6. La relación entre (# de enlaces)/(# de dominios enlazantes). Mientras menor sea, mejor, pues quiere decir que hay una buena diversidad de dominios

¿Y qué porcentaje de enlaces deben tener la palabra clave exacta? ¿Cuántos deben ser nofollow? ¿Cuántos enlaces hay que construir?

No hay una respuesta exacta para esto, depende de cada mercado y para saber más o menos que hacer es buena idea ver lo que han hecho los demás. No siempre es perjudicial tener un alto % de enlaces entrantes con la palabra clave deseada. Al respecto les recomiendo leer este post: Desmontando 3 mitos del link building actual

Terminando la Auditoría: Priorizar acciones y comenzar con la implementación

Una vez terminada la auditoría y de haber encontrado los problemas que hay que resolver, y de haber propuesto las soluciones a implementar claro, sigue asignarles una prioridad y comenzar a realizar los cambios.

Si al final solo se obtiene una lista de problemas, no tuvo mucho sentido la Auditoría. Hay que proponer soluciones, los pasos a realizar y asignarle una prioridad a cada acción para que sea más sencillo implementarla. De nada sirve tanto análisis y tantas recomendaciones si al final no se implementa nada.

Yo suelo entregar algo así:

auditoria

Y en otras hojas cada recomendación desglosada. Así es bastante fácil saber que hay que hacer después. 

Conclusiones

Entonces… ¿Qué es más importante, la optimización interna de un sitio o construirle enlaces?

Espero que ahora puedan contestar que ambas y que realmente crean eso. Porque comenzar a construir enlaces sin haber optimizado lo más posible el sitio hará que pierdan tiempo y dinero, porque podrían posicionarse mejor y más rápido cubriendo los dos aspectos en lugar de centrarse en uno.

¿Han tenido buenas experiencias mejorando su tráfico al optimizar alguno de sus sitios? ¿O tienen alguna duda?

¡Espero sus comentarios por aquí! Que estaré respondiendo todo ;)

Brandon Díaz es SEO Freelance con más de 5 años de experiencia e Ingeniero en Sistemas Computacionales. Ha trabajado con varias empresas en España, México, Argentina, República Dominicana y algunos países más.
Actualmente escribe sobre SEO en su propio blog seo-diaz.com.

2000 es el número máximo de caracteres permitido
Have a Suggestion?