¿Qué Son Los Algoritmos De Google? Un Repaso Por Los Principales

Tabla de contenidos

¿Qué y cuáles son los principales algoritmos de Google?

El objetivo de este artículo es revisar cuáles son los diferentes algoritmos de búsquedas que usa Google y entender cómo funciona cada uno de ellos.

Estos algoritmos son las mayores actualizaciones que ha hecho Google. Los llamados «Core Updates».

Pero primero definamos qué son estos algoritmos.

¿Qué son los algoritmos de Google?

Los algoritmos de Google son un sistema complejo que el buscador usa para recuperar datos de su índice y ofrecer el mejor resultado para una consulta específica. Google usa una combinación de algoritmos y factores de ranking para ofrecer al usuario un listado de las mejores páginas web ordenadas por relevancia en la SERP o listado de resultados.

Google Panda – 2011

El primer gran update de la era SEO para factores On-Page. Este algoritmo se enfoca en «thin content» o contenido de baja calidad.

Google Panda asigna a las páginas una clasificación de calidad que después es confirmada por los quality raters de Google. Con ello se crea un factor de rankeo destinado a evitar contenidos de baja calidad.

google update

Lo normal es que este algoritmo se fije en:

  • Artículos con pocas palabras.
  • Páginas de «etiquetas» de un blog (creadas por WordPress automáticamente por ejemplo).
  • Texto que no es único o es duplicado de otra página del mismo sitio.
  • Página con números anuncions «above the fold» que afectan la experiencia de usuario.

🧔 Google ha dado a conocer 23 preguntas en la que se basa el algoritmo para evular la calidad de una página. Puedes leerlas aquí.

¿Cómo recuperarse de una penalización de Google Panda?

Como mencionamos, el objetivo de Panda es potenciar aquellas webs y URLs que el algoritmo clasifica como de «alta calidad».

Si crees que Google Panda te ha afectado y quieres corregir algunos de los errores mencionados, simplemente necesitas añadir más contenido a las páginas afectadas, desindexar las páginas de etiquetas o rescribir el contenido que no es único. Es decir, aumentar la calidad del contenido y experiencia de usuario de tu web.

Google Penguin – 2012

Penguin es el algoritmo de Google creado para vigilar los backlinks que apuntan a cada site y asegurarse de que son legítimos. La intención es evitar que se compren o intercambien links o se creen de manera artificial.

En mayo de 2012, Matt Cutts lo anunciaba así:

Este algoritmo se enfoca en redes de enlaces, enlaces que no son naturales (comprados) o páginas en las que se usan tácticas de «keyword stuffing».

Penguin se fija principalmente en:

  • Malas prácticas en la adquisición de backlinks.
  • Contenido spam o que está sobreoptimizado con keyword stuffing.

¿Cómo recuperarse de una penalización de Google Penguin?

Lo mejor que puede hacer para arreglar los errores que hemos comentado es:

  • Parar tus prácticas fraudulentas de backlinks.
  • Usar la herramienta disavow e indicar a Google qué links son de baja calidad o spam.
  • Eliminar, si es posible, cualquier enlace tipo spam que apunte a tu web.
  • Revisar el contenido de tus páginas para asegurarse de que no esta sobreoptimizado.

💡 El impacto de Google Penguin puede transmitirse entre dominios. Cambiar el dominio y redirigir el antiguo al nuevo para evitar la penalización puede incluso crear más problemas a largo plazo.

Google Hummingbird – 2013

Google Hummingbird fue diseñado para entender mejor cada palabra incluida en una búsqueda y asegurarse de que la frase al completo es tenida en cuenta en lugar de keywords concretas.

De esta forma Google entiende mejor la intención de búsqueda del usuario y es capaz de dar una respuesta más ajustada en lugar de sólo una lista de resultados. Con este update se sentaron las bases de la búsqueda por voz.

google hummingbird update

El impacto de este update no fue tan evidente como Penguin o Google ya que no buscaba penalizar malas prácticas. Lo que reforzó y premió finalmente fue la naturalidad en el lenguaje y la respuesta a la búsqueda del usuario en lugar de un texto SEO optimizado para keywords.

Para resumirlo visualmente, antes de Google Hummingbird las búsquedas lucían así:

Después de Google Hummingbird (y otros avances) Google es capaz de hacer esto:

El gol de Iniesta

HTTPS/SSL – 2014

En 2014 Google decidió reforzar la seguridad de las webs con este algoritmo. El buscador favoreció en los rankings a aquellos sites que tuviesen correctamente implementado el protocolo HTTPS.

Para saber más: HTTPS as a ranking signal

Mobile Update o Mobilegeddon – 2015

La comunidad SEO llamó a esta update «Mobilegeddon» en previsión del terremoto que causaría en los resultados. Google se dio cuenta de que más del 50% de las búsquedas ya se realizaban en móvil y quiso dar a los usuarios una buena experiencia móvil.

Este algoritmo se centra en beneficiar a aquellas webs que son «mobile-friendly», es decir que dan una buena experiencia de usuario a los que la visitan con un dispositivo móvil.

A pesar el terror generado en la comunidad, el update se ha realizado de forma progresiva hasta marzo de 2020 donde Google anunció la adaptación de mobile-first index para todas las webs.

Rankbrain – 2015

Rankbrain fue el algoritmo de Google que empleó por primera vez «machine learning» en las búsquedas de los usuarios. Esto significa que Google es capaz de encontrar palabras con significado similar a la búsqueda y analizar búsquedas pasadas para ofrecer el mejor resultado.

El algoritmo ayudó a Google a resolver el problema del 15% de las búsquedas que son nuevas para el buscador y para las que no tenía contexto o forma de identificar la intención de búsqueda.

Con la ayuda de Rankbrain, Google considera el contexto (como la ubicación del usuario que busca) y busca «cosas» en lugar de «cadenas de caracteres».

Las entidades y Google Rankbrain

La nueva capacidad de Google para interpretar búsquedas conllevó la aparición de entidades.

Una entidad es «una cosa o concepto singular, único, bien definido y distinguible»

Google Patents – Question answering using entity references in unstructured data

Una entidad no tiene por qué ser un objeto físico. Puede ser una fecha, una idea, una empresa o un concepto.

Gracias a Rank Brain Google fue capaz de combinar palabras y construir entidades para ofrecer resultados como este:

presidente estados unidos entidad

Fred – 2017

Fred no puede considerarse como un algoritmo como tal. Fred es un nombre acuñado por Gary Illyes y la comunidad SEO para referirse a los updates relacionados con la calidad de un sitio web que Google no identifica oficialmente y no están relacionados con Google Panda.

La mayoría de actualizaciones de algoritmo sobre calidad de las webs pasan desapercibidas. Sólo aquellas que han afectado a un número significativo de webs o han sido verificadas por un número alto de profesionales SEO son identificadas como «Fred».

Intrusive Interstitial o Intersticiales intrusivos- 2017

En 2017, John Mueller y Gary Illyes confirmaron que Google iba a empezar a penalizar sites con este tipo de intersticiales en la versión móvil. La penalización afecta a los intersticiales que aparecen justo después de hacer un click en un resultado tras una búsqueda en móvil.

Un interstitial es ese pop up que aparece en tu pantalla cuando entras en una web (con una promoción o pidiendo que te apuntes a su email) y que en móvil puede ser intrusivo y conllevar penalizaciones si la implementación no es correcta y afecta a la experiencia de usuario.

Estos son los tipos de intersticiales que Google considera negativos.

  • Pop ups intrusivos
  • Stand alone interstitial

Hay varios tipos de interstitial que son totalmente aceptados:

  • Cookie
  • Verificación de la edad
  • Un banner que usa un espacio razonable de la pantalla (no más de 10% de la página)

Cómo resolver una penalización por intrusive interstitial

Resolver esta penalización es tan simple como eliminar el interstitial o adaptarlo a un menor tamaño.

Mobile Speed Update – 2018

Con esta actualización del algoritmo, Google hizo que la velocidad de la página fuese un factor de posicionamiento para los resultados móviles. Según Google, esta actualización afectó sólo a aquellas webs con una velocidad de carga particularmente alta en su versión móvil.

Para saber más: Using page speed in mobile search ranking

Medic Core Update – 2018

En el verano de 2018 Google confirmó este actualización que impactó de forma masiva a webs dedicadas a la salud y bienestar aunque pudo apreciarse en varios sectores.

Los resultados fueron descritos por muchos en la comunidad SEO. En especial aquellos que manejaban el SEO de lo que se llamó YMYL sites (Your Money Your Life). Páginas webs sobre enfermedades, dietas o finanzas cuyos contenidos no estuviesen respaldados por profesionales del sector sufrieron una caída en sus rankings.

Bert – 2019

BERT fue la inclusión de un hardware de procesamiento natural del lenguaje (NLP en sus siglas en inglés). Este hardware ayuda al buscador a interpretar mejor las búsquedas y entender el contexto.

El nombre de BERT viene de «Bidirectional Encoder Representations from Transformers». Este algoritmo usa el machine learning para entender el contexto de una palabra observando las palabras que se encuentran antes y después de la misma. En lugar de observar las palabras de una búsqueda una por una, mira su relación entre ellas para entender mejor la búsqueda.

Los algoritmos de SEO local

En los últimos años, Google ha anunciado algunos updates relacionados con cómo se muestran y rankean los resultados locales.

Venice – 2012

El primer algoritmo enfocado a resultados locales de Google. Con esta actualización, Google empezó a ofrecer a los usuarios resultados basados en la localización del usuario o su dirección de IP.

Gracias a Venice, el usuario no necesitaba añadir el nombre de la ciudad o localización en su búsqueda. Google automáticamente incluía en la SERP, resultados de negocios y servicios cercanos.

Pigeon – 2014

Está claro que a Google le gustan los pájaros. En este caso, Google Pigeon se enfocó en SEO local. El update afectó tanto a los resultados en la SERP como a los resultados en Google Maps.

El objetivo del algoritmo es dar preferencia a los resultados que se encuentran cerca de la localización del usuario. También se enfocó en crear factores de posicionamiento para que los resultados locales fueran más relevantes y de mayor calidad.

Pigeon y el local pack

El principal cambio de Pigeon fue la modificación del «local pack». Antes de Pigeon, los resultados incluían entre 7 y 10 negocios en el listado. Después de este update, el número de negocios en la lista se redujo a sólo 3 (expandibles).

Aunque podría no parecerlo, el algoritmo benefició pequeñas empresas locales y empresas con presencia física mejorando su presencia online. Por contra, aquellas empresas basadas sólo en web, vieron reducida su visibilidad para búsquedas locales.

Antes de Google Pigeon:

resultados locales antes pigeon

Después de Google Pigeon:

resultados locales despues pigeon_resized

Possum – 2016

Possum fue un nuevo update para los resultados locales anunciado en septiembre de 2016. Con Possum hay más variedad en los resultados locales y la dependencia de la ubicación física del negocio respecto a la del usuario es mayor.

Este algoritmo benefició a medianos y pequeños negocios que no conseguían posicionarse de forma orgánica pero sí empezaron a ver un aumento en su visibilidad para resultados locales. Los resultados locales eran más independientes de los resultados orgánicos.

Possum afectó en especial a las búsquedas «near me» en las que un usuario busca un negocio cercano a su ubicación.

¿Cuándo actualiza Google su algoritmo?

Últimamente parece que cada semana hay un nuevo update. Sin duda a día de hoy las actualizaciones son cada vez más frecuentes pero, dicho por el propio Google, no debemos preocuparnos por las pequeñas actualizaciones ya que son sólo pequeños ajustes en la SERP.

Lo importante es estar atentos a cuándo ocurren grandes updates a lo largo del año que hacen cambiar los resultados orgánicos de forma masivo.

La mejor forma de saberlo es seguir las cuentas oficiales de Google o sus representantes en twitter.

También puedes seguir a Barry Schwartz (@rustybrick), un periodista que sigue muy atentamente cada cambio en Google.

Trackers del algoritmo de Google

Si tienes dudas sobre si Google puede haber hecho una actualización en su algoritmo porque tus resultados han cambiado de forma repentina, puedes usar las siguientes herramientas. Todas ellas te darán una estimación de la actividad reciente en los rankings de Google.