Google Panda es uno de los algoritmos más conocidos -y temidos- de Google y, también, uno de los más longevos.
Comenzó a funcionar el 23 de febrero de 2011 para analizar la calidad de los textos y verificar su originalidad, es por este motivo, que cuenta con una gran relevancia porque su aparición supuso un antes y un después en el content marketing.
Una penalización por parte de este algoritmo es muy difícil de corregir, por eso, los dominios comenzaron a prestar especial atención en cómo evitarla, mejorando la calidad de sus textos y, lo más importante, la experiencia de usuario.
En este post repasamos todos los aspectos principales de este algoritmo empezando por el más importante, definir qué es Google Panda.
Luego, continuamos explicando qué pretende solucionar y cómo ha afectado a las estrategias de contenidos.
Tampoco dejaremos de responder a otras dudas como cuáles son sus actualizaciones, si sigue presente en el SEO, su influencia en el modelo de negocio o cuáles fueron los principales perdedores tras la entrada de este algoritmo y cómo están a día de hoy.
¿Qué es Google Panda?
El algoritmo Google Panda, centrado totalmente en el estudio de contenidos, se desarrolló con el doble objetivo de premiar a las webs de alta calidad y disminuir la presencia de dominios “basura” o “spammers” en los resultados de las SERPs de Google; entendiendo por dominios basura a aquellos que duplicaban información de otras webs.
Desde que nació Google Panda, las webs aumentaron la cantidad de contenidos que se publicaban en sus medios.
De hecho, a modo de curiosidad, antes los artículos eran mucho más cortos pero desde que apareció, la media de palabras por URL ha aumentado.
Del mismo modo, también pudo apreciarse un interés creciente por la creación de contenidos de calidad.
Echando un vistazo a la siguiente gráfica de Google Trends podemos ver como el interés por el término “Content marketing” se disparó tras los primeros meses de circulación de Panda.
Una tendencia, que como podemos observar, sigue al alza actualmente, a pesar de pequeñas disminuciones puntuales.
Datos de Google trends: https://trends.google.es/trends/explore?date=all&q=content%20marketing
¿Qué pretende solucionar?
Antes de que apareciese este algoritmo podríamos encontrar exactamente el mismo contenido en las primeras posiciones y esto hacía que la experiencia de usuario no fuese la correcta.
El objetivo principal de Google Panda era combatir las duplicidades de contenido y las webs de baja calidad, aunque no podemos olvidar que Google es solo un procesador matemático y que la definición de calidad de contenido es solo un valor.
Una penalización puede activarse por diferentes aspectos.
A continuación, destacamos algunos de los problemas que persigue este algoritmo:
-
Thin Content: Alta concentración de contenido que se considera de baja calidad o poca relevancia para el usuario frente a una escasa oferta de calidad.
-
Duplicidades: Textos copiados literalmente de otras webs. También puede darse dentro del propio dominio si tenemos muchas páginas con el mismo texto o con contenidos muy similares. Hemos de entender que aunque un contenido sea propio, si ya está publicado en una web, no podemos pasar dicha información a una segunda web. Por cierto, para Google, citar también es copiar. Si copias contenidos de tu propio dominio en otra parte de tu web no se considera copiado sino contenido similar, que no es lo mismo.
-
Contenido de baja calidad: Textos que ofrecen poco valor para usuarios reales por su baja legibilidad, mala información o desinformación. Recordad que en Agosto de 2018 salió el Medical Update.
-
Falta de autoridad: Contenido producido por fuentes que no son consideradas autoridades definitivas o verificadas.
-
Content farming: Un gran número de páginas de baja calidad, pero entendiendo que es un factor proporcional. Es decir, no es lo mismo tener 90 URLs de muy mala calidad dentro de un dominio con tan solo 100 que tener 100 URLs de mala calidad en una web con miles de ellas.
-
Contenido de baja calidad generado por el usuario: Un ejemplo serían textos cortos o con errores creados por usuarios invitados. Todo un clásico de las webs de contactos que van copiando y pegando el mismo anuncio en todas las páginas de su mismo sector.
-
Texto rodeado por una gran cantidad de links: sobre todo, si son links de afiliación. No sé si os acordáis que antes las webs estaban llenas de lo que se llamaba "blog roll" y estos desaparecieron.
-
Webs bloqueadas por los usuarios: Ya sea haciéndolo manualmente denunciando ante Google o mediante una extensión.
-
Textos que no concuerdan con lo prometido en el resultado de búsqueda: Todo un clásico cuando posiciona para una keyword pero el contenido se refiere a otro concepto.
¿Cómo ha hecho que cambien las estrategias de contenidos?
Google Panda ha modificado la forma en la que generamos contenido principalmente en dos aspectos: en su longitud y en el cuidado que prestamos para evitar duplicidades.
Antes de la irrupción de este algoritmo era fácil encontrar textos mucho más cortos, en su mayoría no alcanzaban las 150 palabras.
Algo que nos parecería impensable a día de hoy (en casi todos los sectores) ya que un post de calidad debería de tener entre 700 u 800 palabras como mínimo.
Aumentando la longitud de los textos no solo podremos ofrecer un contenido de mayor calidad, sino que mejoraremos su estructura, haciéndola más comprensible tanto para Google como para los usuarios.
Del mismo modo, antes de publicar un texto se toman todo tipo de medidas para garantizar que no se trate de un duplicado.
Para ello, podemos crear nuestro propio contenido de calidad o asegurarnos de que este no exista en nuestra web utilizando herramientas para contenido duplicado.
Por otro lado, la búsqueda constante de la calidad ha disminuido la utilización de técnicas de generación de contenido automático o ha modificado la forma que tenemos de utilizarlas.
Por ejemplo, en vez de utilizar herramientas para spinear texto como procesadores automáticos, podemos usarlas para crear modificaciones de ciertos contenidos y publicarlas.
Siempre tras una minuciosa revisión para comprobar que su legibilidad sea la correcta.
Centrándonos concretamente en la generación de estrategias de contenidos, Google Panda ha hecho que prestemos mayor atención para evitar canibalizaciones (varias URLs apostando por una misma palabra clave) y nos ha hecho ser más innovadores en la elección de keywords.
Apostando por nuevos términos que no se hayan trabajado anteriormente u optando por otro tipo de palabras como las "long tails".
¿Cuáles son sus actualizaciones?
Como ya he dicho anteriormente, Google Panda comenzó a funcionar el 23 de febrero de 2011 y desde entonces ha experimentado 30 actualizaciones hasta el 18 de julio de 2015.
Destacamos las dieciséis más relevantes
-
24 de febrero de 2011: También conocida como Google Panda 1.0, fue la primera actualización que afectó al 11,8% de los resultados de búsqueda. Se aplicó solo al inglés de Estados Unidos.
-
11 de abril de 2011: Segunda actualización o Google Panda 2.0. Se aplicó al inglés a nivel internacional y afectó al 2% de las queries.
-
12 de agosto de 2011: Esta sexta actualización causó efectos en entre un 6 y un 9% de los resultados de búsqueda de varios países de habla no inglesa.
-
19 de octubre de 2011: La octava actualización, también conocida como Google Panda 3.0, repercutió en el 2% de las queries.
-
18 de noviembre de 2011: La novena actualización fue anunciada y afectó a menos del 1% de las queries.
-
23 de marzo de 2012: La decimosegunda actualización se anunció y tuvo efectos en alrededor del 1,6% de los resultados de búsqueda.
-
9 de junio, 25 de junio, 24 de julio y 20 de agosto de 2012: Las actualizaciones de la 15 a la 18 tuvieron repercusiones en alrededor del 1% de los resultados de búsqueda y no fueron anunciadas.
-
18 de septiembre de 2012: La decimonovena actualización afectó a menos del 0,7% de las queries, sí fue anunciada.
-
27 de septiembre de 2012: La vigésima actualización tuvo consecuencias en el 2,4% de los resultados de búsqueda en inglés.
-
5 de noviembre de 2012: Vigésimoprimera actualización, con efectos en el 0,8% de las queries inglesas y el 0,4% de las internacionales.
-
21 de noviembre 2012: La actualización número veintidós actuó en el 0,8% de las búsquedas inglesas
-
21 de diciembre de 2012: La vigésimotercera actualización afectó al 1,3% de las queries en habla inglesa.
-
22 de enero de 2013: Actualización número veinticuatro con efectos en el 1,2% de los resultados en inglés.
-
20 de mayo de 2014: El Google Panda 4.0 llegó con la actualización número veintisiete y el 7,5% de las queries en habla inglesa se resintieron de ella.
-
25 de septiembre de 2015: La vigésimooctava actualización, conocida como Panda 4.1, dejó sentir sus efectos entre el 3 y el 5% de los resultados de búsqueda.
-
18 de julio de 2015: La 30 fue la última actualización que recibió el algoritmo. Con el nombre de Panda 4.2, y efectos colaterales entre el 2 y el 3% de las queries.
Realmente creo que, como parte del algoritmo de Google, está muy presente en grandes actualizaciones de las cuales no tenemos ni nombre.
¿Sigue presente en las estrategias de SEO?
Por supuesto.
Es más, el Google Panda es uno de los algoritmos al que más miedo tenemos los SEOs por lo complejo que puede resultar solucionar una penalización.
Aunque no hemos tenido confirmación por parte de Google, es muy probable que el panda esté presente en nuevas actualizaciones como la de agosto de 2018; también conocida como “Medical Update”.
Por eso, es importante que tomemos medidas para evitar caer víctimas de este algoritmo como con la creación de un contenido original y de calidad.
A poder ser, redactado por profesionales expertos en SEO y, si es posible, es mejor variar el número de personas que escriben para una web; puesto que las personas tenemos taras o formas de hacer las cosas y esto es algo que estoy seguro que Google también puede detectar.
De ahí que cambiar de vez en cuando de personal en redacción no es mala idea para modificar la dinámica de propia de dicha redacción.
Del mismo modo, es esencial contar con el apoyo de un equipo SEO en el desarrollo de estrategias de contenido que sepa orientar la generación de textos de manera adecuada.
¿Influye el modelo de negocio?
Sí, hay modelos de negocio que son mucho más propensos a sufrir duplicidades como, por ejemplo los directorios, los ecommerces o las tiendas de dropshipping.
¿Por qué?
Básicamente en todos los casos se debe a que estas webs ofrecen una gran cantidad de URLs con textos cortos que, no son exactamente iguales pero cuentan con pocas variaciones.
Por ejemplo, pensemos en un ecommerce que vende camisetas de colores.
Este tendrá, por ejemplo, cinco URLs con diferentes variedades del producto (camiseta roja, camiseta verde, camiseta azul, camiseta amarilla y camiseta rosa) y cada una cuenta con un pequeño texto en el que se describen sus características y lo único que cambia es el color.
¿El resultado?
Cinco textos idénticos en cinco URLs igualmente similares.
En este caso, la solución sería poner una etiqueta canonical a la URL con más tráfico para indicar a Google que no se trata de una duplicidad sino de variaciones del mismo producto y que, de esta forma, Google no vea que tenemos contenido de baja calidad.
Otro ejemplo más extremo es el caso del dropshipping.
Como SEOs muchas veces nos hemos encontrado con personas que inician una web de este tipo y se preguntan por qué no posiciona.
La respuesta suele estar normalmente en que han recibido una penalización por contenido duplicado.
¿Por qué?
Pues porque generalmente, cuando se crean este tipo de webs se importa directamente el texto del catálogo del proveedor.
¿Qué significa esto?
Que habrá una gran cantidad de negocios exactamente con los mismos textos y, no nos olvidemos, estará el del proveedor que siempre va a tener más autoridad que nuestro dominio recién creado.
¡Ojo en el caso del dropshipping!
La solución es tan simple como crear textos únicos y personalizados para cada una de las categorías y productos.
Sin embargo, mucho cuidado, a veces podemos encontrarnos con que nuestros textos se actualizan automáticamente cuando el proveedor de los productos modifica algo.
La mejor opción es tomar medidas en el momento de creación de la web y pedir a los programadores que bloqueen cualquier tipo de modificación externa.
¿Quiénes fueron los perdedores y cómo están a día de hoy?
De esto puedes hacer una valoración general sobre los que están penalizados y los que no, por ejemplo si tienen el mismo modelo de negocio o algo así, lo que veas.
Los perdedores
Como se puede ver, parece que con alguna actualización han levantado algo el vuelo pero vuelven a perder la posición en todos los países que trabajan.
Llegaron a tener 250 mil palabras posicionadas... pero no levantan el tráfico a pesar de que la misma actualización les benefició.
Otro dominio que estaba en 2,5 millones de keywords y actualmente no llega a 500 mil.
Aunque, como podemos ver, no todo estaba perdido.
Algunos dominios que aguantaron sí que han podido recuperar y mantener sus posiciones.
Y otros que levantaron y volvieron a bajar ... quizás por una mala gestión.
Dentro de los perdedores podemos ver como gran cantidad de dominios están relacionados con la producción de artículos por terceros.
Como, por ejemplo Enzine articles, Mahalo o Hubpages.
También vemos una gran cantidad de webs directorios como Howtodothings, que aglutinan una gran cantidad de categorías y subcategorías con un enlazado interno caótico.
Por otro lado, el resto son webs destinadas a la búsqueda de diferentes recursos como Merchantcircle, para encontrar proveedores locales o Findarticles, como su propio nombre indica, para buscar artículos.
Por lo general, la mayoría de los dominios sufrieron un importante descenso tras la entrada de Google Panda en 2011.
Una excepción es How to do things que fue experimentando el bajón poco a poco.
Varios dominios consiguieron recuperarse de Panda, aunque la inmensa mayoría no lo consiguieron hasta cuatro años después.
Y a pesar de que no todos los que se recuperaron en 2016 han sabido mantenerse, por ejemplo, American Towns experimentó una gran subida que mantuvo hasta 2018, cuando volvió a descender hasta una posición que actualmente mantiene bastante estable.
Los que mejor se han sabido recuperar son Do it yourself, que ha mantenido estable todo lo que ha recuperado a partir del 2016 y Business.com que, a excepción de un par de picos en 2017, ha ido defendiendo una tendencia al alza.
Podemos ver que la actualización de "Google RankBrain" levantó algunos de estos dominios, aunque no fue la solución para todos.
Otros dominios como http://www.suite101.com/, http://associatedcontent.com/ han desaparecido, hemos de entender que una empresa no puede vivir sin tráfico...
Y esto es lo que debemos de evitar cuando tenemos una penalización.
¿Cuál es mi consejo?
El mejor consejo que se puede dar es que no estés a tiro y te dé un Google Panda porque si te afecta este algoritmo es muy complicado que puedas salir de esta penalización.
He leído casos de gente a la que le ha quitado el 100% del contenido y al montar uno nuevo no han conseguido remontar.
En principio, entiendo que esto es porque la penalización ha sido manual y no algorítmica
.
Cuida mucho el contenido para que sea de valor y, sobre todo, no uses bajo ningún concepto contenidos de terceros y mucho menos sin su consentimiento.
Controla que el contenido que hacen tus redactores no sea un texto copiado bajo ningún sentido.
Personalmente, creo que en algunos de estos casos la DMCA ha podido tener algo que ver.