Google BERT: ¿amigo o enemigo del SEO?

Pau Alpuente

dic 18, 201910 min de lectura
Google BERT: ¿amigo o enemigo del SEO?

Me atrevo a decir que seguro que has oído hablar de Google BERT pero, ¿tienes claro en qué consiste este update? 

Es más que probable que estés al corriente de qué nos deparará el SEO en un futuro cercano y qué ha sido lo más destacable hasta la fecha, por eso, hablar de BERT se antoja como una necesidad.

Tipos de updates de Google

En primer lugar, hagamos un pequeño repaso sobre los tipos de updates a los que Google nos tenía acostumbrados.

En líneas generales, podríamos decir que hay tres tipos:

1.- Actualización de los factores de posicionamiento 

Por ejemplo, “Mobilegeddon”, el cual mejoró el posicionamiento desde Mobile de aquellas webs que eran responsive o estaban adaptadas a móviles. 

2.- Penalización por incumplimiento de directrices 

Por ejemplo, Panda y Penguin, que te hacen bajar en los rankings si no cumples con las directrices de Google.

3.- Cambio en los resultados de búsqueda

Como el caso de BERT o del algoritmo Rankbrain, que se basan en entender mejor las búsquedas del usuario con el objetivo de ofrecer resultados más precisos.

Antes del 2015, la mayoría de los updates de Google eran de los dos primeros tipos, es decir, había una actualización y los SEOs teníamos que adaptar la web a las nuevas reglas del juego. 

A partir de entonces y con la llegada de RankBrain, nos encontramos con muchos más updates que nunca, la mayoría de los cuales se basan en intentar afinar más los resultados.

Y en este tipo de actualización no hay nada especial que los SEO podamos hacer más allá de seguir optimizando la web para que responda mejor a la intención de búsqueda del usuario.

BERT es un update de este tipo, es decir, su principal objetivo es entender con la mayor precisión posible qué queremos decir los humanos cuando buscamos algo en Google o cuando hacemos una búsqueda por voz

En este artículo, analizaremos BERT al detalle para poder entender cómo funciona y qué implica en realidad este cambio.

¿Qué es Google BERT?

Google BERT es una de la mayores actualizaciones del algoritmo de Google con el que es capaz de interpretar mucho mejor la intención de búsqueda del usuario y, por lo tanto, ofrecer resultados mucho más precisos. 

Esto posiblemente os recuerde a RankBrain, el cual en 2015 supuso una nueva forma de hacer SEO al entrar la intención de búsqueda como nuevo factor.

Pero BERT da un salto más allá y es que es capaz de entender el contexto de una frase y no solamente las palabras que contiene.

El anuncio de Google del lanzamiento de BERT indicaba que se avecinaba un nuevo gran cambio en el mundo de los buscadores. 

Sin embargo, la comunidad SEO no se encontró con cambios destacables en las posiciones.

Es cierto que hubo algunas variaciones pero no más que con cualquiera de las actualizaciones mensuales del algoritmo. 

De hecho, si echamos un vistazo a la gráfica de volatilidad de SEMrush en los días del update, nos encontramos con una puntuación de 5, lo que indica que hay cambios pero nada que ver con las puntuaciones de 7 o incluso 9 a las que nos tienen acostumbrados otras actualizaciones.

Google BERT y SEMrush Sensor

En realidad, BERT es algo más que una actualización del algoritmo y ahí es donde radica su importancia. 

BERT es un modelo de código abierto de procesado de lenguaje natural no supervisado.

Es la primera vez que el algoritmo de Google se basa en el procesamiento de lenguaje natural (NLP), en el que no hay una revisión ni categorización manual.

¿En qué consiste el NLP (Natural Language Processing)?

El procesamiento de lenguaje natural es la forma de hacer que losordenadores puedan comprender mejor la forma que tenemos de hablar los humanos. 

El lenguaje humano es muy complejo ya que está lleno de sinónimos, palabras polisémicas, verbos compuestos, homónimos, etc.

Los sistemas de procesamiento de lenguaje natural permiten que los robots puedan entender, por ejemplo, al hablar de un “banco”, cuándo te refieres a una entidad bancaria y cuándo al mobiliario urbano.

BERT como NLP

Como comentábamos anteriormente, BERT es el primer algoritmo basado en procesamiento de lenguaje natural que no ha sido supervisado, no obstante, BERT no nació para responder a esa función.

Se publicó en 2018 como un paper, a la vez que un proyecto de código abierto y un framework de procesamiento de lenguaje natural. 

Todo esto ha supuesto una mejora sustancial en la comprensión de lenguaje y del contexto, más allá del algoritmo de Google.

Tal y como se explica en el paper sobre BERT, una de las principales limitaciones a la hora de entrenar a un algoritmo en el lenguaje natural es la falta de datos.

Es decir, que para poder aplicar Machine Learning es necesario que un grupo grande de personas etiqueten un dataset.

De hecho, BERT ha sido entrenado con Wikipedia y perfeccionado con un dataset de preguntas y respuestas.

¿Cómo funciona BERT?

Para entender bien cómo funciona BERT es importante pensar en sus siglas. 

Y es que BERT es el acrónimo de Bidirectional Encoder Representations Transformer, pero prestaremos especial atención a Bidirectional y a Transformer:

  • BERT es puramente bidireccional, es decir analiza el texto tanto de derecha a izquierda como de izquierda a derecha. De esta forma, puede dar un sentido al contexto más profundo que los modelos de lenguaje de una sola dirección. 

Pongamos por ejemplo la siguiente frase: “I’d rather go to a cool place. I don’t like high temperatures”.

En la primera frase, “cool place” puede hacer referencia tanto a un sitio frío como a un sitio de moda.

La segunda frase, “I don’t like high temperatures” da el contexto necesario para que el algoritmo sepa fácilmente que en la frase se está hablando de temperatura y no de tendencias o moda.

La bidireccional de BERT le permite leer la frase en ambas direcciones y relacionar todo el contenido, es decir, obtener el contexto necesario para entender su significado.

  • Transfomers: se trata de una red neuronal que en un principio se utilizaba para perfeccionar las traducciones automáticas. 

En el caso de BERT, los Transformers focalizan su atención en algunas palabras que dificultan la comprensión del contexto, como nexos o pronombres.

De este modo, por ejemplo, pueden entender referencias a pronombres, complementos directos e, incluso, indirectos.

Por ejemplo, “My sister’s car is broken. I should pick her up” 

En este caso, BERT entiende que “her” se refiere a “My sister” ya que se focaliza en el pronombre y busca la relación entre ambas frases. 

Estos dos elementos juntos, la bidireccionalidad y los Transformers, hacen que BERT tenga la capacidad de comprender de forma muy precisa el contexto de una oración, comprender las frases más largas e incluso relacionar dos frases entre sí.

¿Qué supone este cambio en el algoritmo?

Este update en el algoritmo de Google permite que los resultados a una búsqueda sean mucho más precisos, especialmente en las keywords más longtail.

Además, es destacable el impacto que tiene en la precisión de la intención de búsqueda, en la comprensión de búsquedas ambiguas y en la búsqueda por voz.

  • Mayor precisión en los resultados: BERT entiende mejor la intención de búsqueda del usuario

Un ejemplo claro de este tipo de mejora en la intención de búsqueda es el que detalla Pandu Nayak en el artículo: "Understanding searches better than ever".

Google BERT - Ejemplo

En el caso de la búsqueda “2019 brazil traveler to usa need a visa” vemos un importante cambio antes y después de BERT. 

Antes de BERT, Google mostraba un resultado del Washington Post destinado a viajeros estadounidenses que querían viajar a Brasil.

El algoritmo ignoraba totalmente el conector “to”, que en este caso es fundamental para entender quién viaja a dónde.

Después de BERT, al analizar el contexto de la búsqueda vemos que el resultado es mucho más riguroso.

Google ya entiende que el viajero quiere ir a Estados Unidos y, por lo tanto, muestra el resultado de la Embajada de Estados Unidos en Brasil.

  • Keywords ambiguas y contexto

BERT no solo comprende preposiciones, sino que al crear relaciones entre palabras, puede entender mucho mejor los matices del contexto y ofrecer resultados exactos a búsquedas más ambiguas.

Por ejemplo, para la búsqueda “contacto en barcelona”, el resultado es el teléfono del F.C. Barcelona. 

Este es un claro ejemplo de resultado que cambiará una vez se aplique BERT sobre esta query.

Como humanos, entendemos que quien busca “contacto en barcelona” no está buscando la información del equipo de fútbol, posiblemente busque contactos para conocer gente o bien la web del Ayuntamiento.

Pero al tratarse de una búsqueda algo confusa, Google no acaba de entenderla y muestra la información del Barça. 

Posiblemente, es debido a que en muchos casos los usuarios escriben “Contacto del Barcelona” o “Contacto Barça”.

Google BERT - Keywords ambiguas

  • Importante impacto en las búsquedas por voz

La búsqueda por voz lleva unos años a punto de dar elgran salto que no acaba de dar. 

Si bien es cierto que la venta de dispositivos como Google Home o Alexa ha aumentado, los buscadores aún no son capaces de comprender el significado de lo que se les pide. 

El proceso de entrenamiento en la búsqueda por voz es demasiado manual.

Dicho de otra forma, “Voice recognition” no es lo mismo que “voice understanding”.

En este punto, BERT será de gran ayuda a la hora de comprender mejor las búsquedas por voz y lograr hacerlas más conversacionales.

¿En qué se diferencia BERT de Rankbrain?

Rankbrain es la primera Inteligencia Artificial que Google utilizó en su algoritmo. 

Fue en 2015 cuando la comunidad SEO empezó a utilizar el término“intención de búsqueda” de forma frecuente.

Y es que Rankbrain provocó un cambio en las SERPs así como en nuestra forma de trabajar, ya que Google entendió mucho mejor lo que el usuario buscaba. 

Desde entonces, de poco sirve poner la keyword principal en el Title si el tipo de contenido que ofrecemos no responde a lo que busca el usuario.

De hecho, hoy en día un keyword research no tiene sentido si no clasificamos nuestras keywords como informacionales o transaccionales.

En cierto modo se podría decir que Rankbrain y BERT son hermanas; ambas actualizaciones pretenden ofrecer unos resultados más precisos en base a la inteligencia artificial.

No obstante, su principal diferencia radica en la forma de hacerlo.

Rankbrain utiliza datos de búsqueda históricos para predecir qué es lo que el usuario espera encontrar. 

Por ejemplo, cuando buscamos “comprar Frankenstein”, Google nos muestra tiendas donde comprar online el libro de Frankenstein.

¿Por qué?

Porque analizando las búsquedas históricas sabe que los usuarios hacen click en este tipo de resultado, mientras que si se busca librería física, se suele hacer clic en el mapa.

Rankbrain va evolucionando a medida que hacemos consultas en el buscador y va aprendiendo de nuestro comportamiento como usuarios, hasta el punto que ni siquiera Google sabe exactamente qué hace. 

RankBrain aprende de nuestro comportamiento pasado, BERT trata de entendernos al detalle. 

Actualmente, los dos sistemas funcionan en paralelo en el algoritmo.

Sin embargo, solo en función de la búsqueda se aplica uno u otro: el que mejor resultado pueda llegar a ofrecer.

¿Cómo optimizar tu página para BERT?

La gran pregunta es... ¿se puede optimizar para BERT?

¿Qué debemos hacer? 

Y la respuesta, nos guste más o menos, es que NO, no podemos optimizar nuestra web para BERT.

Y es que BERT no es un factor de posicionamiento.

En un principio BERT sólo funcionó sobre el 10% de las búsquedas en inglés y en Estados Unidos, actualmente ya han publicado la lista de todos los idiomas en los que está operativos, entre ellos, español.

A la hora de optimizar nuestra web deberemos seguir los mismos procesos de siempre: asegurarnos de que tenemos la estructura adecuada, que sea rápida, que no duplique contenido, que utilicemos todas las metas y etiquetas correctamente, etcétera.

La función de BERT será enviarnos un tráfico de mayor calidad posicionando nuestra web cuando resuelva la necesidad del usuario aunque la keyword de búsqueda no esté en nuestro contenido. 

En resumen, a diferencia de otros algoritmos, BERT no penaliza por la infracción de las directrices de Google ni premia por una mayor optimización de la web. 

Su misión es convertirse en un algoritmo más humano, comprendiendo mejor nuestro lenguaje y superando tanto las limitaciones gramaticales como contextuales.

De esta forma, consigue responder a nuestras necesidades de una manera mucho más rigurosa y de mayor calidad. 

Así bien, mejor ver a Google BERT como un aliado que como un enemigo, ¿no te parece? Haznos saber tus impresiones en los comentarios.

Compartir
Author Photo
La pasión por emprender me ha llevado a crear y liderar varias start-ups. Me apasiona el SEO y el CRO, que fueron la base para la creación de ELABS Consulting, agencia de marketing digital que genera 200 millones de visitas orgánicas al mes. Desde ELABS, todo el equipo, dedicamos experiencia y conocimiento en el diseño de las mejores estrategias digitales para alcanzar el éxito de nuestros clientes. Docente vocacional, colaboro en los Executive Masters de ESADE, ISDI y TECNOCAMPUS.