Google brecha salarial
Oficina de Google

OPOSICIÓN AL GOBIERNO DE PEDRO SÁNCHEZ

A lo largo de este artículo te voy a dar a conocer lo más importante sobre los algoritmos de Google, para que tu web tenga más visibilidad en las SERPs.

  • 2011: Algoritmo Google Panda

Antes del 2011 era muy sencillo posicionar una web, bastaba con repetir muchas veces una misma palabra o secuencia de ellas y el algoritmo de Google hacía el resto colocándola entre los primeros resultados, ya que el sistema de clasificación solo atendía al número de veces que contenía esa palabra para ordenar el ranking de las webs a mostrar cuando un usuario hacia una búsqueda en Google.

El algoritmo Google Panda pasó a analizar lo siguiente:

  • Las webs con escaso contenido que solo repetían palabras claves.
  • Las webs con contenido duplicado o copiado de otros sitios.
  • Webs con contenido sin valor que pirateaban el algoritmo.
  • 2012: Algoritmo Google Penguin

Google dificultó el posicionamiento web de las páginas, ya que, hasta esa fecha con colocar el máximo número de enlaces de entrada hacia tu web, esa página se colocaba entre los primeros resultados en el buscador de google.

Se empezó a beneficiar a aquellas webs que conseguían sus enlaces gracias a un buen contenido interno, de calidad, auténtico y original. Y se penalizó de forma severa a aquellas webs que abusaban de enlaces a millares y de mala calidad, automáticos o “robados”.

  • 2012: Algoritmo Venice

Con este algoritmo, Google, realiza un cambio notable en las búsquedas locales. Antes de esta entrada, las respuestas que arrojaba Google eran de carácter general, mientras que con la introducción de Venice, las respuestas serían locales, en función de la IP del ordenador que indicaba ubicación del usuario, lo que produjo un cambio considerable en el posicionamiento online.

Con este algoritmo, el tráfico cambió de forma sustancial; beneficiando siempre a las webs o empresas online que más próximas se encontrasen del usuario que realizaba la búsqueda en Google como por ejemplo: “abogados en La Coruña”.

  • Actualización del SEO Local en 2016 con Possum

Es una mejora a raíz del algoritmo Venice, este se centraba en las búsquedas locales, pero excluía búsquedas limítrofes. De tal forma que, Venice solo te indicaba los resultados de toda la ciudad, excluyendo los resultados de los municipios limítrofes que probablemente te resultaran más útiles.

Con Possum, se arregla este problema, arrojando los resultados más cercanos en función de la ubicación de tu IP por kilómetros o metros de proximidad por así decirlo y no por “municipios”.

Lo negativo es que supuso pérdida de visibilidad porque el algoritmo mejora y tu web deja de ser el resultado más óptimo.

  • 2013 Algoritmo Hummingbird

Este algoritmo analiza la composición semántica de la búsqueda, consiguiendo que los resultados en el buscador sean más naturales y se responde mejor a la búsqueda del usuario. Viene a ser una interpretación del lenguaje tipo “indio” que solemos emplear en el buscador de Google cuando hacemos alguna consulta.

  • 2014: De https a https

El objetivo aquí era codificar a través del certificado SSL la sesión del usuario en nuestra web. Esto es un plus de seguridad ya que se garantiza que el flujo de información entre el usuario y la web se hace de forma segura y sin intromisión de terceros, para no correr el riesgo de que nuestros datos o conversaciones sean robados por terceras personas a las que no damos autorización.

A día de hoy, todo hosting que se precie, ya incorpora de serie este certificado SSL de forma gratuita en las webs que se alojen en sus servidores. De esta forma webs de créditos tipo www.creditosasnefurgentes.es pueden tramitar información “sensible” a la hora de hablar con sus lectores sin correr el riesgo de que terceras personas puedan robar esos datos: cuentas de correo, usuarios de redes sociales, direcciones postales, etc…

  • 2014: Algoritmo Google Pigeon.

En este caso, lo que hace es regular las búsquedas locales. De esta manera una web local podría tener mucho mejor posicionamiento que cualquier gigante de internet, con tan solo poner en su nombre la ciudad donde quiere posicionar. Además, premia los enlaces locales sobre los enlaces generales.

Por lo que este algoritmo supuso un gran cambio y la mejora de dos factores. Por un lado la mejora a nivel local de los servicios que se muestran en Google, de forma más exacta y por otro lado una mejora en la interpretación del linkbuilding de cara al posicionamiento local.

  • 2014: Actualización a Pirate 2.0

Es una actualización del algoritmo pirate 1.0, con la intención de acabar con la piratería informática, beneficiando a las webs a través de las cuales puedes descargar de forma legal y segura sin la petición de datos comprometidos para el usuario o su seguridad en internet.

  • 2015: Algoritmo Mobilegeddon

Hace referencia a las webs “mobile-friendly”. En este algoritmo la clave estaba en tener un theme responsive, de forma que la web se ajustara tanto a ordenadores de mesa como a tablets y móviles. Seguro que a día de hoy ya son muy pocas las webs en las que entras con tu smartphone y el contenido no se ve bien o no cuadra bien para leerlo. Esas son las páginas que Google quiso dejar atrás con esta implementación o mejora del algoritmo.

  • Evolución de Mobilegeddon en 2016 a “Mobile first index”.

Con el algoritmo “mobile first index” lo importante para google es la visualización de la web en el móvil. Google navega por la versión móvil de nuestra web y da importancia a los factores como que el tamaño del texto y de los botones sea el adecuado, que se diferencien las listas de enlace o que las imágenes no rompan el formato de web.

Aquí primero google rastrea y luego indexa, dando mayor importancia a la indexación de la versión móvil.

  • 2015: Rankbrain

Este algoritmo emplea la inteligencia artificial, basándose en las matemáticas y en el estudio de vectores, interpretando los algoritmos Panda y Penguin.

Aquí Google analiza tus búsquedas infructuosas y tu segunda búsqueda cambiando las palabras, de tal manera que el algoritmo se modifica a sí mismo, asociando el resultado de la primera búsqueda a la segunda, de tal forma que realiza cambios en las SERPs a raíz de la intención de búsqueda y de la satisfacción del usuario con la web mostrada en primeras posiciones.

  • 2017: Algoritmo Google Fred.

Webs de temática dinero que pretendían ganar dinero de forma diferente a la de Google Ads. Aquí Google conseguía ingresar gran parte de los ingresos por publicidad de estas webs de dinero que ofrecían anuncios de Google. Por lo que se vieron favorecidas por encima en las serps que webs que generaban dinero de forma alternativa a la publicidad de Google adsense.

  • 2018: YMYL (Medical update)

Webs de temática salud y dinero.  El objetivo inicial de este algoritmo era luchar contra las webs de salud y de dinero que no estuvieran avaladas por profesionales del sector. Seguro que a todos nos ha pasado que buscamos en internet algo relacionado con la salud, pero de tipo “suave” como puede ser un resfriado, un dolor de muelas, etc… y algunos resultados poco más que nos ponen un contador con la cuenta atrás para el día de nuestra muerte jeje

Pues gracias a este algoritmo de hace 2 años, la mayoría de las webs que hablan de salud y salen en los primeros resultados suelen ser de especialistas, clínicas, personal cualificado, etc…

  • 2019: Neural Matching

Este algoritmo consigue entender cuando la búsqueda del usuario es local independientemente de que en la búsqueda no se introduzcan las palabras exactas, comprendiendo así que la página está relacionada con otras palabras.

Es decir, si nos encontramos en La Coruña y buscamos en Google “horario Mercadona” El buscador nos dará el horario de los mercadonas de nuestra ciudad sin la necesidad de darle en la búsqueda la ciudad.

Aclaraciones sobre los algoritmos de Google

Todos los días se producen cambios en los algoritmos de google y cuando se produce alguno, la comunidad online es “avisada” para que arregle su web si es necesario.

Factores generales que afectan a la web en cuanto a posicionamiento:

 

  • El hosting es mejor que sea español. 
  • El tiempo de carga de la web. Más de 3 segundos va a suponer penalización.
  • Utilización de imágenes. Da sentido al texto.
  • Enlaces en medios de prensa, unos pocos y con cabeza. Cuidado con comprar muchos enlaces en medios, ya que Google no quiere que se compren.
  • Nunca usar contenido duplicado.
  • Las palabras clave, es lo que mejor posiciona.
  • Empleo de linkbuilding. 
  • Tamaño de no menos de 300 palabras en nuestras publicaciones.
  • Empleo de H2 o Subtítulos. De esta forma Google conoce la estructura del texto e interpreta mucho mejor el contenido.

 

Webs verticales en lugar de horizontales. A Google le resulta más atractivo que un site esté especializado en una temática en concreto y no en varias sin profundizar.