La lucha por mantenerse al día con actualizaciones continuas y tratando de evitar problemas técnicos en la web es parte de la vida diaria de los webmasters.
Incluso si ya eres consciente del número de problemas que tiene tu sitio, puede llegar a ser muy difícil mantener su salud en el mundo cambiante del SEO.
Sin embargo, entender firmemente cuáles son los errores más comunes (y potencialmente perjudiciales), te dará la oportunidad de mantener los errores técnicos al mínimo y el rendimiento de tu web al máximo.
Esta guía te ofrece una lista exhaustiva de qué es una auditoría web, ayudándote a ser un buen webmaster, sin importar el tamaño de tu sitio.
Cómo reunimos los datos
Hemos analizado 250.000 webs de un gran número de nichos, incluyendo salud, viajes, deportes y ciencias, a través de la herramienta de SEMrush Site Audit para encontrar los errores SEO más frecuentes que los frenaban.
En total hemos analizado:
-
310.161.067 páginas webs
-
28.561.137.301 links
-
6.910.489.415 imágenes
La amplitud del análisis nos ha dado información suficiente para crear una plantilla de auditoría del sitio que los webmasters pueden utilizar para evitar errores.
Crear una plantilla de auditoría del sitio respaldada por una investigación previa
Realizar una auditoría del sitio correctamente consume una gran cantidad de tiempo, es un hecho cierto que no admite réplica.
Nuestro estudio ha revelado 27 errores muy comunes que, obviamente, no pueden ser solucionados de una sola vez.
Por ello, hemos desglosado la lista en partes más asimilables que puedas usar como plantilla.
Haz clic en cualquiera de las categorías a continuación para ir a la sección que necesites:
-
Descuidar la optimización de los enlaces internos y externos.
-
La importancia de aprovechar las herramientas, consejos y trucos de las auditorías web.
Ignorar el estado de HTTP y los problemas del servidor
Los problemas técnicos más críticos de una web a menudo están relacionados con su estado HTTP.
Estos incluyen códigos de estado tipo “Error 404” (Página no encontrada), que indican la respuesta del servidor a la solicitud de los clientes, como un navegador o motor de búsqueda.
Cuando el diálogo entre un cliente y un servidor o, en términos más simples, entre un usuario y la web, se interrumpe y se rompe, también lo hace la confianza que el usuario tiene en el sitio.
Los problemas graves que tiene un servidor no solo pueden conducir a una pérdida del tráfico debido a un contenido al que no se puede acceder, sino que también pueden dañar su clasificación a largo plazo si Google no encuentra los resultados adecuados en tu web.
Errores que afectan a tu estado HTTP:
1.- Errores 4xx
Los códigos 4xx significan que una página está rota y no se puede acceder.
También pueden aplicarse a páginas que funcionan pero que algo las está bloqueando a la hora de ser rastreadas.
2.- Páginas no rastreadas
Sucede cuando una página no puede ser alcanzada por una de las siguientes razones:
-
El tiempo de respuesta de tu web es mayor a cinco segundos
-
Tu servidor deniega el acceso a tu web.
3.- Enlaces internos rotos
Los enlaces internos rotos llevan a los usuarios a páginas que no funcionan, lo que puede dañar tu experiencia de usuario y el SEO.
4.- Enlaces externos rotos
Son enlaces que llevan a los usuarios a páginas que no existen de otras webs, lo que manda señales negativas a los motores de búsquedas.
5.- Imágenes internas rotas
Cuando el archivo de una imagen ya no existe o su URL está mal escrita.
Otros errores HTTP comunes incluyen:
-
Redireccionamientos permanentes.
-
Redireccionamientos temporales.
Optimización insuficiente de etiquetas meta
Las meta etiquetas ayudan a los motores de búsqueda a identificar los temas principales de tus páginas para poder asociarlos con las palabras clave y frases utilizadas por los buscadores.
Crear etiquetas de título adecuadas significa elegir palabras clave relevantes para que dicho título sea único y relevante cuando los usuarios los encuentran en los resultados de búsqueda.
Las meta descripciones te dan además la oportunidad de incluir palabras clave y frases relacionadas.
Deberían ajustarse y ser lo más únicas posibles, ya que si no las creas tú mismo, Google las generará automáticamente basándose en las palabras clave de las búsquedas de los usuarios, lo que algunas veces conduce a problemas de coincidencia entre los términos de búsqueda y los resultados asociados.
Optimizar las etiquetas título y las meta descripciones significa incluir las palabras clave más apropiadas, con la longitud adecuada, así como evitar la duplicación todo lo que sea posible.
Algunas industrias, como los e-commerces de moda, no pueden crear descripciones únicas para todos y cada uno de los productos, por lo que necesitan ofrecer valor en otras áreas del texto de sus landing pages.
Si es posible implementar datos meta únicos, deberías seguir esa línea de actuación para darle a tu sitio la oportunidad de maximizar su impacto en los resultados de búsqueda.
Errores de etiquetas meta más comunes que pueden perjudicar tus posiciones:
6.- Etiquetas de título y meta descripciones duplicadas
Tener dos o más páginas con los mismos títulos y descripciones dificulta a los motores de búsqueda a determinar adecuadamente su relevancia y clasificaciones.
7.- Falta de etiquetas H1
Las etiquetas H1 ayudan a los motores de búsqueda a determinar el tema de tu contenido.
Si faltan, Google no podrá entender correctamente tu web.
8.- Falta de meta descripciones
Las meta descripciones bien escritas ayudan a Google a entender la relevancia de tu contenido y anima a los usuarios a hacer clic en tu web.
Si faltan, la tasa de clics puede caer en picado.
9.- Falta de atributos ALT
Los atributos ALT proporcionan a los motores de búsqueda y a las personas con discapacidad visual, descripciones de las imágenes de tu web.
Sin ellos, tu contenido pierde relevancia y la tasa de engagement sufre.
10.- Etiquetas H1 y de título duplicadas
Si las etiquetas H1 y de título son las mismas en una página, el contenido puede verse optimizado en exceso, perdiendo oportunidades para clasificar por otras palabras clave.
Otros errores comunes de meta etiquetas incluyen:
-
Elementos de título cortos/largos.
-
Múltiples etiquetas H1.
Crear contenido duplicado
El contenido duplicado tiene la capacidad de dañar tu posicionamiento y además, durante cierto tiempo.
Debes evitar duplicar cualquier tipo de contenido de cualquier web, ya sea un competidor directo o no.
Busca descripciones duplicadas, párrafos y secciones completas de texto, etiquetas H1 duplicadas en varias páginas y problemas de URLs, como versiones www y no www de la misma página.
Presta atención a la singularidad de cada detalle para asegurarte de que una página no solo se pueda posicionar a ojos de Google, sino que también anime a hacer clic a los usuarios.
Problemas de duplicidad más comunes que ralentizan las webs:
11.- Contenido duplicado
La herramienta Site Audit señala contenido duplicado cuando las páginas de tu web tienen la misma URL o una copia. Puede resolverse añadiendo un enlace rel=“canonical” (en inglés) a uno de las páginas duplicados o usando una redirección 301 (en inglés).
Otros problemas comunes de duplicación incluyen:
-
Etiquetas H1 y de título duplicadas.
-
Metadescripciones duplicadas.
Descuidar la optimización de los enlaces internos y externos
Los enlaces que llevan a los visitantes dentro y fuera de sus procesos de compra (buyer journeys) pueden dañar la experiencia de usuario de forma general y, en consecuencia, el rendimiento de búsqueda de tu sitio.
Google simplemente, no posicionará webs que proporcionen una pobre experiencia de usuario.
Nuestro estudio ha revelado que cerca de la mitad de los sitios que analizamos a través de la herramienta Site Audit, tienen problemas con los enlaces internos y externos, lo que sugiere que sus arquitecturas de enlaces no están optimizadas.
Algunos de los enlaces tienen guiones bajos en las URLs, contienen atributos nofollow y son HTTP en vez de HTTPS, lo que puede afectar a su posicionamiento.
Puedes arreglar los enlaces rotos de tu web con la herramienta Site Audit. Identifica cuáles tienen mayor impacto en el engagement de los usuarios y dales prioridad.
Fernando Ferreiro SEO en Indexando Marketing nos comenta lo siguiente:
Encontrarnos con enlaces rotos internos y externos en la auditoría de una web es de lo más habitual y es algo que tiene una simple solución, solo hay que invertir horas de trabajo para que esté perfecto.
¿Afecta al SEO? Pues la verdad es que no afecta al SEO si hablamos de ranking pero sí que tiene efecto si hacemos perder el tiempo a Google cuando está rastreando nuestra web.
Es decir, Google sigue cada enlace de nuestra web, tanto interno como externo, pero en el caso de los internos, si hacemos que Google investigue enlaces que no van a ningún lugar (404) o tenemos un enlazado que redirige a una URL que redirige a otra URL y así sucesivamente, hacemos que el tiempo que pierda Google sea aún mayor.
No es igual en todos los casos: no es lo mismo cuando hablamos de un dominio que tiene 100 URLs que cuando hablamos de uno con miles de URLs.
Google va a tener más problemas de indexación cuantas más URLs tenga un proyecto. A más URLs, más horas debemos de pasar analizando constantemente que todo esté perfecto.
Esto es una opinión personal:
Profundidad de rastreo: Google soltó un día que si tú escondes algo en tu dominio ¿por qué debe de enseñar esta URL en sus resultados? No es solo tener el enlazado interno correcto, hay que mirar las densidades de enlaces internos con mucho cuidado.
Atributos nofollow: estoy casi en contra de usar este atributo en muchos proyectos, si hay un link en uno de mis proyectos, ¿por qué Google no debería de rastrearlo? Si hay un link, que lo siga y en caso contrario que no se enlace.
Errores en los sitemaps: los errores en el enlazado no solo están en la web, revisar los sitemaps es fundamental para no tener 301 o 404. Sobre todo tras una migración o en webs con muchas URLs.
Anchor text de los enlaces: este es otro de los elementos a tener en cuenta en SEO. No es solo lo que enlazas, es importante también definir con qué concepto lo haces.
Muchos proyectos se empeñan en conseguir de forma casi automatizada enlaces de otras webs a la propia sin antes tener todo el onpage perfecto.
Una cosa más, siempre se habla de enlazado entre URLs pero no podemos olvidar que hay muchos sectores como el de moda que vive del tráfico de imágenes o vídeos. Si tenemos estos enlaces mal en nuestra web va a ser complicado que Google coloque dichos elementos en sus resultados.
Problemas de entrelazado más comunes que pueden afectar a tus posiciones:
12.- Enlaces que apuntan a páginas HTTP desde un sitio HTTPS
Los enlaces a páginas HTTP viejas pueden causar un diálogo no seguro entre los usuarios y el servidor, por lo que debes asegurarte de comprobar que tus enlaces están actualizados.
13.- URLs que contienen guiones bajos
Los motores de búsqueda pueden interpretar los guiones bajos y documentar incorrectamente el índice de tu web.
Utiliza guiones normales en su lugar.
Otros errores comunes de entrelazado incluyen:
-
Enlaces internos rotos.
-
Enlaces externos rotos.
-
Atributos nofollow en enlaces externos.
-
Páginas con un solo enlace interno.
-
Rastreo de páginas con una profundidad de más de 3 enlaces.
Ponerles las cosas difíciles a los rastreadores
La capacidad de rastreo, junto con los problemas de indexación, se encuentran entre los indicadores de salud más cruciales de una web.
Tienes mucho que perder y que ganar en los motores de búsqueda en lo que se refiere al rastreo de tu web.
Si ignoras cualquier problema de rastreo desde una perspectiva técnica de SEO, algunas de las páginas de tu web podrían no ser visibles para Google.
Sin embargo, si solucionas los problemas de rastreo, es más probable que Google identifique los enlaces correctamente en los motores de búsqueda.
Puedes evitar problemas técnicos evaluando tu web en busca de elementos rotos o bloqueados que restrinjan su capacidad de rastreo.
Kevin Indig, VP SEO & Content en G2dotcom, enfatiza la importancia de la sinergia entre el sitemap y el archivo robots:
Lo que me sorprende es que muchos sitemaps XML no está referenciados en el archivo robots.txt. Para mí es un estándar que se debe utilizar siempre. Lo que no es sorprendente es la gran cantidad de webs con un único enlace interno a algunas páginas o incluso páginas huérfanas. Este es el clásico problema de arquitectura que solo es relevante para los SEOs.
Una ausencia del archivo sitemap.xml en el archivo robots.txt, por ejemplo, puede hacer que los rastreadores de los motores de búsqueda malinterpreten la arquitectura del sitio, como afirma Matt Jones, SEO y CRO Manager de Rise at Seven:
Los archivos sitemap.xml pueden ayudar a los rastreadores de los motores de búsqueda a identificar y encontrar las URLs de tu web, por lo que es definitivamente una forma fantástica de ayudarles a comprender en profundidad tu sitio web y, a su vez, obtener posiciones más altas para términos más relevantes.
Problemas más comunes encontrados por los rastreadores web:
14.- Atributos nofollow en enlaces internos salientes
Los enlaces internos que contienen un atributo nofollow bloquean cualquier posible traspaso de potencial a través de tu sitio.
En relación a esto, Ana Belén Leíño Head of SEO en Valor de Ley piensa que:
Cuando se implementa un enlace nofollow en un enlace interno, nuestro objetivo es que la página del que sale no traspase su link juice a la página de destino haciendo que el crawler del motor de búsqueda no los siga. Lo paradójico es que esta acción la haces dentro de tu propia “casa” por lo que hay que ser, a mi entender, extremadamente cauteloso.
Con su implementación le estás diciendo a los robots de los buscadores que no sigan el enlace aunque la vista al usuario no se vea afectada. Bien, si varias personas entran en tu casa y le enseñas una habitación en cuyo interior tiene a su vez otra puerta y a unos cuantos de tus invitados (usuarios) les dejas acceder a ver lo que hay dentro y a otros (Google) sólo les enseñas la puerta pero les bloqueas el paso y no les dejas entrar, ¿no crees que levantarás cierta sospecha entre esos invitados?
Una diferencia entre lo que se muestra al usuario y lo que se muestra al robot de Google es uno de los mayores problemas del nofollow, especialmente si se abusa de ellos en una mal entendida “repartición de PageRank” entre las URLs de la web.
Hace tiempo fue un hábito poner nofollow a múltiples enlaces internos, por ejemplo los incluídos dentro del footer. Al repetirse los mismos enlaces en todas las páginas del site, se bloqueaban a fin de no dejar escapar el codiciado link juice pero no funciona así. Actualmente, incluso los enlaces nofollow transmiten autoridad. Cualquier enlace siempre consume PageRank sea interno o externo. Yo soy partidaria de no usarlos salvo en contadas excepciones como enlaces a URLs con login o partes privadas del site. En este caso, es mejor ser buen anfitrión y que tus invitados fluyan libremente por tu casa.
15.- Páginas incorrectas encontradas en el archivo sitemap.xml
Tu archivo sitemap.xml no debe contener páginas rotas.
Comprueba cualquier cadena de redirecciones y páginas no canonicals y asegúrate de que devuelven un código 200.
16.- Sitemap.xml no encontrada
La falta de sitemaps hace que sea más difícil para los motores búsqueda explorar, rastrear e indexar las páginas de tu web.
17.- Sitemap.xml no especificada en robots.txt
Sin un enlace a tu sitemap.xml en tu archivo robots.txt, los motores de búsqueda no serán capaces de entender la estructura de tu web.
Otros errores de rastreabilidad comunes incluyen:
-
Páginas no rastreadas.
-
Imágenes internas rotas.
-
Enlaces internos rotos.
-
URLs que contienen guiones bajos.
-
Errores 4xx.
-
Recursos formateados como enlaces de páginas.
-
Recursos externos bloqueados en robots.txt.
-
Atributos nofollow en enlaces externos salientes.
-
Bloqueo de rastreo.
-
Páginas con un solo enlace interno.
-
Páginas en el sitemap huérfanas.
-
Rastreo de páginas con una profundidad de más de 3 enlaces.
-
Redirecciones temporales.
Ignorar la indexabilidad
Unos buenos indicadores de indexabilidad son vitales para el SEO.
Por ejemplo, si una página no se indexa, no podrá ser encontrada por un motor y, por lo tanto, tampoco por los usuarios.
Hay muchos factores que pueden impedir que tu web se indexe, incluso si crees que no tienes problemas con la rastreabilidad.
Los meta datos duplicados y el contenido, por ejemplo, pueden dificultar a los motores la identificación de aquellas páginas a posicionar para términos de búsqueda similares.
Puedes ver en nuestra investigación que casi la mitad de las webs que hemos auditado sufren de problemas de indexación causados por etiquetas de título, descripciones y contenido duplicado.
Lo que significa que Google se ve forzado a tomar decisiones sobre qué páginas posicionar, a pesar del hecho de que los webmasters pueden evitar este tipo de problemas y decirle a Google lo que debe hacer.
Hay una amplia variedad de problemas que pueden afectar a la indexabilidad de tu sitio, desde un bajo recuento de palabras hasta errores de hreflang o conflictos para webs multilingües.
Problemas más comunes con las webs no indexables:
18.- Etiquetas de título cortas/largas
Las etiquetas de título con más de 60 caracteres se acortan en los motores de búsqueda, mientras que las que tienen menos están perdiendo oportunidades de optimización.
19.- Conflictos del hreflang con el código fuente de la página
Las webs multilingües pueden confundir a los motores de búsqueda si el atributo hreflang entra en conflicto con el código fuente de las páginas.
20.- Problemas con enlaces hreflang incorrectos
Los enlaces hreflang rotos pueden crear problemas de indexación si, por ejemplo, se utilizan URLs relativas en lugar de absolutas: https://yourwebsite/blog/your-article en lugar de /blog/your-article.
21.- Recuento de palabras bajo
La herramienta Site Audit puede marcar páginas que carecen de contenido, por lo que vale la pena revisarlas para asegurarse de que sean lo más informativas posibles.
22.- Atributos hreflang y lang perdidos
Este problema se desencadena cuando una página de una web multilingüe pierde los enlaces necesarios o las etiquetas para indicar a los motores de búsqueda qué ofrecer a los usuarios de cada región.
Aprende más sobre hreflang aquí.
23.- Problemas HTML con AMP
Este problema concierne a los usuarios móviles de tu web, y aparece cuando el código HTML no cumple con los estándares AMP (artículo en inglés).
Otros errores comunes de la indexabilidad incluyen:
-
Etiquetas H1 duplicadas.
-
Contenido duplicado.
-
Etiquetas de título duplicadas.
-
Meta descripciones duplicadas.
-
Falta de etiquetas H1.
-
Múltiples etiquetas H1.
-
Problemas de desajuste con el idioma hreflang.
Olvidar la aceleración de páginas móviles con AMP
Es muy importante adaptar el SEO de las páginas de tu web a los dispositivos móviles.
Ya sabemos que la compatibilidad con los dispositivos móviles será el criterio de clasificación predeterminado para móviles y ordenadores para Google en septiembre de 2020 (artículo en inglés).
Esto significa que, como webmaster, debes asegurarte de que el código HTML de tu sitio cumpla con las pautas AMP de Google antes de septiembre.
Así evitarás posibles daños en el rendimiento de tus búsquedas.
Busca paǵinas AMP inválidas en tu web con la herramienta Site Audit y arréglalas.
Pueden ser problemas con el HTML, el estilo, el diseño o la plantilla de la página.
Problema más común relacionado con la compatibilidad móvil:
Los problemas HTML con AMP, pueden estar relacionados con el estilo o el diseño y, como hemos mencionado anteriormente, pueden afectar a la indexabilidad del sitio.
A este respecto Iñaki Tovar CEO en Webpositer opina lo siguiente:
Cuando apareció AMP, todos en el sector nos lanzamos como buenos early adopters a probarlo para nuestros sitios.
La realidad es que resultó siendo algo técnicamente difícil de implementar que no siempre funcionaba como uno esperaba y que causaba más problemas que beneficios.
Con el tiempo se ha ido puliendo mucho el tema por parte de Google y hoy en día es más SEO friendly que nunca.
Aun así, a no ser que tengas un portal web de noticias, no veo la necesidad de meterse con AMP cuando se pueden conseguir velocidades de carga muy similares optimizando bien las versiones responsive de nuestros sitios.
No prestar atención al rendimiento de tu web
El tiempo de carga de las páginas es cada vez más importante en SEO.
Cuanto más lenta sea tu web, más sufrirá la tasa de engagement de los usuarios.
Puedes obtener sugerencias sobre la velocidad de las páginas para dispositivos móviles y de escritorio, directamente de Google.
Aprende a medir la velocidad de página, e identifica oportunidades que te permitan hacer tu web más rápida.
El test de velocidad de Google, junto con la herramienta de SEMrush Site Audit, podría revelar, por ejemplo, archivos JavaScript o CSS demasiado complejos (cómo sucedió en la mayoría de las webs de nuestro estudio).
Gerry White, director SEO en Rise at Seven, sugiere que minimizar el código es una manera sencilla de aumentar el rendimiento de tu web y mejorar la experiencia de usuario:
Una de las cosas que destaca en los datos es la cantidad de mejoras en la velocidad de las páginas. No se trata solo de las clasificaciones, sino también de los usuarios y las conversiones. Es en este tipo de victorias rápidas y sencillas, es dónde me gusta focalizar mi trabajo y esfuerzo. Tareas como comprimir JavaScript y CSS, solo te llevan unos minutos, pero se pueden traducir en enormes mejoras para tu web. También pueden combinarse con la verificación de que HTTPS esté habilitado con HTTP2.
Problemas más comunes con el rendimiento de las webs:
25.- Velocidad de carga de página lenta (HTML)
El tiempo que tarda un navegador en cargar completamente una página, debe ser lo más corto posible, ya que la velocidad afecta directamente a su clasificación (en inglés).
26.- Archivos JavaScript y CSS sin caché
Este problema puede estar relacionado con la velocidad de carga de tus páginas y sucede si el caché del navegador no se especifica en el encabezado de respuesta.
27.- Archivos JavaScript y CSS no minificados
Este problema se basa en hacer que los archivos JavaScript y CSS sean más pequeños.
Elimina líneas innecesarias, comentarios y espacios en blanco para mejorar la velocidad de carga de la página.
Problemas incluidos en varias categorías
En algunos casos, los errores, advertencias y avisos detectados por la herramienta Site Audit, se incluirán en varias categorías.
Esto significa que pueden causar una gran variedad de problemas en tu web, como podemos ver a continuación, por lo tanto, te recomendamos que los priorices.
La importancia de aprovechar las herramientas, consejos y trucos de las auditorías web
Cometer cualquiera de estos errores SEO puede impedir que tu web alcance su máximo potencial, por lo que es importante que hagas auditorías periódicas a tu web como un webmaster.
Ya tengas problemas con los rastreadores, impidiendo que las páginas sean indexadas, o problemas de contenido duplicado -lo que te pone en riesgo de una penalización- utiliza esta lista para evitar que los errores vayan a más.
Acostúmbrate a cuidar la salud SEO y la experiencia de usuario de tu web con herramientas como Site Audit y serás recompensado con una mayor visibilidad y mayor participación del usuario.
Descarga e imprime nuestro PDF completo sobre los principales errores SEO y ten a mano la lista en todo momento.