Hoy te voy a hablar de Google Penguin 4.0, uno de los dos algoritmos más populares y cañeros de Google ...y, seguramente, el que más dolores de cabeza ha levantado a SEOs y Webmasters.
La verdad es que, aprovechando esta actualización de Google voy a aprovechar para contarte vida y milagros del pingüino más famoso del planeta.
Así que, prepárate porque ésto va sobre enlaces, análisis de perfiles de enlaces, penalizaciones, y herramientas… pero todo ésto con el Penguin 4.0 como telón de fondo.
Antes de empezar, me voy a permitir volver a lo esencial y recordarte brevemente de que trata Google Penguin y por qué tiene sentido que exista.
¿Qué es Google Penguin?
Google Penguin es un algoritmo que analiza las webs en busca de patrones de enlaces sospechosos de haber sido generados para manipular el ranking en las SERPs y evita que lo haga.
Desde que el huevo del primer pingüino de Google eclosionó (hace ya 4 años) todo cambió para los SEOs en lo que a Linkbuilding se refiere.
A lo largo del tiempo el algoritmo ha ido sufriendo actualizaciones para mejorar la forma en la que detecta y evita estas manipulaciones de Page Rank.
El origen de Penguin 4.0
Google Penguin nace con una misión muy simple (que sigue manteniendo tal cual): evitar que generemos enlaces que nos ayuden a mejorar el ranking en las SERPs.
Pero “el pecado original” de todo esto lo cometió Google, ya que, fue él quien decidió en un principio que los enlaces generados hacia una web eran una señal de que su contenido era relevante… y claro, los SEOs primitivos (que no eran tontos) se pusieron a generar enlaces a “tutiplén”, pues así mejoraban el posicionamiento en las SERPs.
Este sistema para determinar la popularidad de una página (el PageRank), considera los enlaces entrantes a una página como “votos” que realizan otras páginas... pero es demasiado manipulable.
Llegó un momento en que basarse en estos criterios ya no aseguraba que los resultados ofrecidos fuesen realmente relevantes para el usuario, y por lo tanto había que buscar una solución.
Así es como nació el primer pingüino en Mountain View.
Cuando apareció el primer Penguin (el 24 de septiembre de 2012) se presentó como un algoritmo de “spam web”, pero enseguida se le rebautizó como “Penguin”.
Un año después lanzaron la versión 2.0 del algoritmo, y en octubre de 2014 aparece Penguin 3.0.
Esta tercera actualización prometía como gran novedad: actualizaciones más frecuentes del algoritmo.
Se hablaba de que podrían ser incluso mensuales pero, al final, nos tuvieron esperando más que nunca a la siguiente actualización de Penguin.
Y así, llegamos al Penguin 4.0 “El pingüino en tiempo real”.
A la vista de la evolución del algoritmo ya podemos tener clara una cosa: la regla de oro para evitar cualquier pingüinazo es recordar que...
A Google solamente le gustan los enlaces naturales, es algo que preocupa hasta a Batman y a Robin.
La paradoja del Linkbuilding natural
Si a Google Penguin solamente le valen los enlaces naturales es tentador pensar que la mejor forma de hacer linkbuilding es no hacer nada.
Simplemente sentarse y esperar a que los enlaces se generen de forma natural y espontánea… o simplemente que no se generen.
Pero seamos sinceros: a cualquier SEO que le digas que no haga nada para conseguir enlaces le va a dar la risa.
Mientras éste siga siendo un factor clave para determinar la relevancia de una web habrá que desarrollar estrategias que sean capaces de generar un perfil de enlaces coherente.
Para conseguir generar estos enlaces tenemos dos posibilidades:
- Generar nosotros mismos los enlaces (ya sea comprándolos o colocándolos en otras páginas) de forma que parezcan lo más “naturales” posible.
- Provocar la generación de enlaces naturales con estrategias de inbound marketing cómo el Linkbaiting.
Con la primera opción te la estarás jugando constantemente.
Porque por muy bien que lo hagas, por muy bien configurada que tengas tu PBN o por mucho cuidado que pongas en cómo y dónde compras los enlaces, lo cierto es que entras de lleno en el black hat seo y estás engañando a Google.
Eso, tarde o temprano se acaba pagando.
Por lo tanto, no te recomiendo que generes este tipo de enlaces si no estás muy seguro de lo que haces y, sobre todo, nunca con un proyecto que te da de comer.
Por definición: hacer Linkbuilding es generar enlaces y esto es cualquier cosa menos natural.
Sin embargo, provocar la generación de enlaces naturales a través de contenidos de valor y bien orientados a nuestros usuarios es siempre una apuesta segura.
Al fin y al cabo estamos trabajando con el mismo objetivo que Google: satisfacer las expectativas del usuario.
Novedades de Penguin 4.0
“El Pingüino en tiempo real”, ésta parece ser la presentación de la nueva versión del algoritmo que promete analizar enlaces y realizar penalizaciones... pero además promete hacerlo en tiempo real.
Esto va a suponer ciertas ventajas y ciertas desventajas a la hora de gestionar nuestros perfiles de enlaces.
Penalizaciones sobre la marcha
Hasta ahora el algoritmo revisaba los perfiles de enlaces cada vez que se refrescaba y cambiaba de versión.
Entonces, si encontraba un patrón de enlaces spam su filtro se ponía en marcha y ya tenías tu penalización algorítmica.
A partir de ahora, el Pingüino estará revisando perfiles de enlaces constantemente y según vaya encontrando backlinks tóxicos irá repartiendo penalizaciones algorítmicas.
Monitorización constante de nuestro perfil de enlaces
Este nuevo funcionamiento del algoritmo va a suponer algunos cambios en nuestra forma de gestionar los enlaces entrantes.
Eso que hacíamos de realizar una auditoría de backlinks muy de vez en cuando, o simplemente cuando sabíamos que Google iba a sacar una nueva actualización de Penguin… eso ya no vale.
Eso era como ponerse a estudiar la noche anterior a un examen… ¡Mal! eso siempre estuvo mal.
A partir de ahora tendremos que realizar una labor de auditoría y mantenimiento de nuestro perfil de enlaces de una manera mucho más frecuente.
Al fin y al cabo, Penguin nos puede penalizar en cualquier momento.
Recuperaciones más rápidas
En la otra cara de la moneda, está la gran ventaja que supone que el pingüino esté funcionando de forma constante.
Si tenemos al algoritmo revisando los enlaces constantemente no sólo detectará los enlaces spam rápidamente, sino que también tardará mucho menos en ver que hemos eliminado ciertos enlaces tóxicos.
Esto va a suponer un verdadero balón de oxígeno para muchos sitios web que una vez penalizados tenían que esperar hasta que el algoritmo se refrescase de nuevo para ver revertida su situación.
Esto significaba un verdadero “purgatorio” para muchos negocios online que tenían que esperar meses sufriendo pérdidas importantes de tráfico orgánico mientras veían que su negocio no esperaba a nadie.
A partir de ahora una rápida detección del problema y una inmediata acción correctiva (eliminar los enlaces tóxicos) puede suponer que se salga de la penalización algorítmica rápidamente.
Mayor dificultad para identificar las penalizaciones
Cuando una web es penalizada existen dos posibilidades: que se trate de una penalización manual o de una penalización algorítmica.
En el primer caso no hay duda.
La penalización manual la realiza una persona, por lo que sabremos que hemos sido penalizados al recibir el correspondiente mensaje en Search Console.
Por el contrario, cuando se trata de una penalización algorítmica lo primero que nos preocupa es identificar el algoritmo que nos ha penalizado para poder solucionarlo.
La comprobación que se suele hacer entonces es comparar la fecha en la que empezamos a perder tráfico orgánico con las fechas en las que los algoritmos (normalmente Penguin o Panda) se actualizaron.
Pero desde que Panda forma parte del algoritmo de núcleo de Google ya no conocemos las fechas en las que se actualiza… y aquí se plantea una cuestión interesante: ¿qué pasará con las próximas actualizaciones de Penguin?
En principio, que Google Penguin funcione en tiempo real no quiere decir que sus actualizaciones también lo sean, pero el momento de recibir una penalización del pingüino ya no va a coincidir necesariamente con el momento en el que el algoritmo se actualice.
A menudo, el momento de la penalización será cuando tengamos nuevos enlaces spam (o más bien cuando Penguin los detecte).
La solución pasa de nuevo por realizar un mantenimiento periódico de nuestro perfil de enlaces.
Pero además, cuando recibamos una bajada de tráfico orgánico a causa de una penalización algorítmica debemos de revisarlo todo (perfil de enlaces, contenidos… )
¿Cómo comportarse con Penguin 4.0?
Ya lo he dicho antes, pero no me cansaré de repetirlo: a partir de ahora no vale prepararse para la salida de una nueva versión de Penguin.
Con la actualización en tiempo real tendremos que cuidar nuestro perfil de enlaces constantemente.
Por lo tanto, lo que tienes que hacer para estar de buenas con Penguin es, en gran medida, lo que repetirás periódicamente para revisar la salud de tus backlinks.
En realidad son los dos mismos aspectos que siempre hay que vigilar para estar a salvo de cualquier pingüino:
Estrategia de Linkbuilding
Como ya mencioné antes, lo primero que tenemos que tener claro al conseguir enlaces para un sitio web es que todos los enlaces que apunten a nuestra web deben ser “naturales” ...o al menos parecerlo de manera muy convincente.
Para que tu perfil de enlaces sea “convincentemente natural” hay ciertos aspectos que debes cuidar:
-
Calidad frente a cantidad
Es siempre mejor tener pocos enlaces pero buenos que muchos malos.
-
Enlaces Dofollow y Nofollow
Obviamente un perfil de enlaces en el que todos son Dofollow llama un poco la atención.
Si para cualquier persona es obvio que no es natural… para Google Penguin no cabe la menor duda de que ahí hay spam.
Lo mejor es encontrar un equilibrio entre ambos tipos de enlaces.
La pregunta del millón: ¿qué proporción de enlaces hay que tener de cada tipo?
Bueno, pues aquí hay margen de sobra.
Pero por mi experiencia lo ideal es que los enlaces “Dofollow” estén siempre por encima del 50% del total de enlaces, pero que no alcancen cifras superiores al 75%
Pero también te digo que si tus enlaces son todos naturales casi seguro que estarán entre estas cifras.
-
Enlazar desde páginas de la misma temática
Si las webs que te enlazan son de la misma temática el enlace te dará más relevancia ante Google.
Linkbaiting
Sin duda, la mejor estrategia para conseguir enlaces naturales es que los enlaces sean realmente naturales.
Para conseguir que nos enlacen así, la mejor estrategia es el Linkbaiting.
Esta estrategia se basa en definir muy bien a nuestro “buyer persona” para ser capaces de definir qué tipos de contenido le resultarán irresistibles y le incitarán a compartir y enlazarlo.
Lo que llamamos generar el cebo (bait) más efectivo.
Auditoría de Backlinks
Siempre que te caiga un Pingüinazo acabarás haciendo este proceso de auditoría y limpieza de backlinks.
Pero esta es también una tarea que deberíamos realizar periódicamente,sobre todo, ya que el pingüino de Google va a rastrear los enlaces sin parar.
También es una buena idea realizarla ahora mismo si queremos caerle bien al nuevo Penguin sin perder ni un minuto más.
De lo que se trata es de revisar nuestro perfil de enlaces y eliminar aquellos que nos puedan perjudicar.
Pero vamos a ver los pasos que hay que seguir para realizar una auditoría y limpieza de enlaces tóxicos.
Paso 1.- Recopilación de backlinks
No por obvio es menos necesario tener un listado lo más amplio posible de todos los enlaces que apuntan a nuestra web.
Para ello podremos utilizar multitud de herramientas… y yo recomiendo utilizarlas todas (o al menos varias de ellas) puesto que ninguna será capaz de localizar la totalidad de enlaces entrantes.
Dos de las herramientas que puedes utilizar para recopilar estos enlaces son:
-
Search Console (indispensable, pues son los datos de Google).
Así, el listado que obtengamos de una herramienta podrá completar el que hayamos obtenido de la otra.
Paso 2.- Consolidar y clasificar los enlaces entrantes
Ahora que ya tenemos una lista extensa de enlaces (o más bien varias listas obtenidas de distintas herramientas) que apuntan a nuestra web, tendremos que consolidar estos listados e identificar cuáles nos pueden perjudicar y cuáles no.
Para ello, puedes utilizar algunas de las herramientas que existen en el mercado, pero yo te recomiendo que pruebes la herramienta Backlink Audit de SEMrush, y que merece la pena por varios motivos:
1.- Enlaza con los datos de Search Console, con lo cual te evitas tener que recurrir a la fuente información más importante en cuanto a enlaces entrantes se refiere: Google. Sin duda los backlinks que conoce Google deberían de ser los que más nos interesen por razones obvias.
2.- Te permite importar de forma sencilla los enlaces que hayas podido recopilar en cualquier otra herramienta de las nombradas.
3.- El “Toxic Score” que ofrece valora de 0 a 100 en nivel de confianza de cada enlace y está calculado basándose en el número de backlinks de sitios de confianza que recibe el dominio que nos enlaza.
Así que, lo primero que hemos de hacer, si no lo hicimos ya, es vincular nuestro proyecto de SEMrush con la cuenta de Search Console correspondiente.
Ahora, debemos importar los backlinks que recopilamos de otras fuentes y consolidarlos con los de Search Console y SEMrush.
Tendremos que añadirlos a la herramienta de SEMrush importándolos en un fichero CSV en el que simplemente se incluirá una URL por línea.
Pulsamos en añadir backlinks
….y dependiendo del número de enlaces añadidos le llevará más o menos tiempo analizarlos.
Enseguida tendremos todos los enlaces que recopilamos consolidados y analizados en nuestra herramienta.
Una vez analizados todos los enlaces entrantes en SEMrush (tanto los detectados por la herramienta como los importados de Search Console) deberíamos clasificar cada enlace de forma individual empezando por los que tienen un índice de toxicidad más alto.
En esta fase de la clasificación de enlaces, debemos hacer una revisión de forma manual para comprobar si cada uno de los enlaces proviene de un sitio que pueda dañar nuestro perfil de enlaces.
Lo haremos, eso sí, empezando con los clasificados con un índice de toxicidad I (“Toxic Score”).
Durante esta revisión podemos ir clasificando los enlaces según distintos criterios que más tarde nos ayudarán a tomar la decisión de eliminarlos o no.
Paso 3.- Eliminar enlaces tóxicos
Una vez identificados todos los enlaces tóxicos tenemos que tratar de eliminarlos.
A la hora de eliminarlos nos podemos encontrar con dos escenarios bien diferentes:
Si realmente fuimos nosotros los que pusimos el enlace en otra página o en una PBN propia será más sencillo pues tendremos control sobre estos enlaces.
Sin embargo, si los enlaces están en sitios de terceros, tendremos que hacer un pequeño trabajo de investigación para obtener una dirección de contacto del webmaster de la web que nos enlaza y pedirle que elimine el enlace.
Bueno, esto es lo que quiere Google que hagamos cuando la penalización es manual.
En ese caso no nos queda más remedio que intentar eliminar los enlaces, pues tendremos que informar de estos intentos al pedir una reconsideración que será revisada por una persona real.
Este vídeo es del año 2012, pero su contenido sigue totalmente vigente y en él Matt Cutts explica cómo deberíamos de documentar los intentos de eliminación de enlaces que hemos realizado.
Lo que quiere Google en realidad, es que dediquemos al menos un mínimo esfuerzo a quitar los enlaces como el que realizamos al ponerlos.
Sí, Google siempre considera que somos malos y los hemos puesto nosotros.
Sin embargo, si lo que tenemos es una penalización algorítmica no tendremos que reportar a nadie, por lo que podríamos desautorizar estos enlaces directamente… aunque no debemos.
¿Por qué no debemos?
Pues porque no es lo mismo eliminar un enlace que desautorizarlo.
Cuando conseguimos eliminar un enlace este desaparece y con él desaparecerá la penalización en cuanto Google Penguin detecte que ya no está… lo cual con Penguin 4 será “ya” (o algo parecido).
Sin embargo, cuando desautorizamos un enlace lo que hacemos es solicitarle a Google que no tenga en cuenta ese enlace.
Esto es simplemente una sugerencia que Google puede tener en cuenta o no (aunque normalmente lo hace).
Paso 4.- Desautorizar enlaces tóxicos con Disavow Tool
De cualquier forma, lo cierto es que la mayoría de las veces ponerse en contacto con los webmaster de estos sitios suele ser una misión imposible.
Tenemos que tener claro que cuando hablamos de desautorizar enlaces ante Google lo haremos utilizando la herramienta Disavow Tool de Search Console.
Tal y como acabo de explicarte en el punto anterior, esta herramienta debería ser un último recurso y deberás utilizarla con aquellos enlaces que consideras que son tóxicos y que no has podido eliminar o pedir su eliminación.
Formato del fichero para Disavow Tool
Para utilizar esta herramienta de Disavow, simplemente tenemos que generar y subir un fichero de texto (con extensión .txt) que incluye las páginas y dominios de los que queramos que no se tengan en cuenta los enlaces hacia nuestra web.
Este fichero debe de tener un único dato (registro) por línea y estos datos pueden ser:
- Enlaces (p.e.: http://dominio-toxico/pagina-que-enlaza.html) cuando desautorizamos una página concreta que nos enlaza.
- Dominios (p.e.: dominio-toxico) cuando tenemos varias páginas que necesitamos desautorizar de un mismo dominio es mejor desautorizar de esta forma el dominio completo.
- Comentarios, que empiezan por # (p.e.: #Esto es un comentario). Estos comentarios no son tenidos en cuenta por Google pero nos sirven para organizar el fichero separando dominios de páginas e incluyendo alguna anotación.
El funcionamiento es simple, pero aún así son bastante corrientes los ficheros con errores que luego Google no podrá validar.
Pero no te preocupes porque la herramienta de SEMrush para hacer una auditoría de backlinks te lo pone fácil.
Si has ido clasificando en ella los enlaces tóxicos tendrás el apartado Disavow una lista de páginas y dominios que querrás desautorizar.
Pulsando en el botón “Export” nos descargamos el fichero txt para enviar a Search Console perfectamente formateado.
Para subirlo simplemente entramos en la herramienta Disavow Tool en esta URL y escogemos la propiedad de Search Console sobre la que vamos a trabajar.
En la siguiente ventana se nos avisa de que Disavow Tool se trata de una función avanzada y que solamente se debería de utilizar si se sabe lo que se está haciendo y en caso de tener un número considerable de enlaces.
Y en la siguiente ventana ya podemos subir nuestro fichero con las URLs y dominios que queremos desautorizar.
¿Y si me equivoco al desautorizar enlaces?
Bueno, lo primero que te diré es que no puedes subir un segundo fichero.
La herramienta solamente permite un fichero de texto por cada propiedad de Search Console.
Lo que puedes hacer es volver a subir el fichero original modificado.
En el caso de que quieras modificarlo y no hayas conservado el fichero original siempre podrás descargarte el listado de páginas y dominios enviados.
Eso sí, que sepas que no te estarás descargando el fichero txt que enviaste.
Lo que te descargarás será únicamente el listado de URLs y dominios (sin los comentarios) y en formato CSV o Google Docs.
También tienes la posibilidad de eliminar el fichero si quieres que Google vuelva a considerar los enlaces que habías desautorizado.
Y ahora a esperar… ¿o no?
Efectivamente.
Hasta ahora, cuando se enviaba un fichero había que esperar… y por lo general había que esperar mucho.
En teoría, las desautorizaciones de los enlaces enviados no surgían efecto hasta que Google volvía a rastrear e indexar esas URLs pero, lo cierto es que en muchas ocasiones había que esperar a que se refrescase el pingüino y sacasen una nueva versión.
Éstas esperas son cosa del pasado porque con el nuevo Penguin 4.0, Google promete revisión constante de los enlaces.
Esto puede suponer una mayor agilidad a la hora de desautorizar y reautorizar los enlaces que incluyamos en este fichero.