Panda, Penguin y Hummingbird y el SEO Técnico
SEO Técnico: El algoritmo de Google es una serie de operaciones sistemáticas de cálculo que usa el buscador para determinar la relevancia de un sitio web en las SERP (Páginas de resultados de Google) para una determinada búsqueda. Es decir, son los criterios de Google que usa para determinar el ranking de un sitio web en las SERPs.
SERP son las siglas de Search Engine Results Page (Página de resultados del motor de búsqueda), es decir, es la página de resultados que despliega un buscador luego de que un usuario realiza una búsqueda.
Ya sabes, que mientras más se apegue un sitio web a las exigencias de calidad del algoritmo, más posibilidades tendrá tu sitio de aparecer entre los primeros resultados de búsqueda, y por ende, de obtener más tráfico y mayor cantidad de clientes potenciales.
El SEO o Search Engine Optimization es una serie de estrategias que seguimos para adaptarnos a dicho algoritmo y que, de esa manera, nuestro contenido posicione mejor.
Google Panda, el algoritmo de la calidad de contenido
Panda ha sido el nombre con que ha designado Google a la parte del algoritmo que se encarga del contenido de una página Web y su calidad.
Panda es, si se quiere, uno de los algoritmos más antiguos del motor de búsqueda. Recuerda que antes solo se indexaba según la recurrencia de las palabras claves en los textos de la página.
Aún Panda toma en cuenta la recurrencia de las palabras claves, pero sin dudas ha evolucionado para determinar cuáles contenidos satisfacen, en mayor medida, la búsqueda de los usuarios de Internet.
Por lo general, Panda asocia la calidad del contenido con aspectos como la originalidad de los textos, la longitud y las palabras claves, pero no deja de lado el número de visitas y el porcentaje de rebote, entre otros. Considerando los últimos aspectos, se podría decir que este algoritmo toma en cuenta la popularidad del contenido para indexar.
Un ejemplo común de contenido de baja calidad que busca modificar el ranking es aquel que se publica en periodos de tiempo muy cortos y en grandes volúmenes. Antes se veía mucho, si una persona tenía una página Web y metía contenido todos los días, con las palabras claves que quería posicionar, Google les iba dando mucha relevancia, aunque el usuario recibiera contenido inútil.
Este tipo de contenido, y algún otro del que te hablaré más adelante, hoy en día está penalizado y puede llevar a que tu página salga de los índices por acciones manuales.
A este algoritmo no le importa que optimicen según la palabra clave, siempre y cuando el contenido sea valioso para el lector.
Google Penguin, el de los enlaces
Este es el segundo algoritmo de Google y uno de los que más dolores de cabeza da. Todos sabemos que los enlaces son una de las maneras más confiables que tiene Google de asignar reputación y autoridad a un sitio Web.
En teoría, mientras más enlaces entrantes tenga tu sitio Web, mejor se posiciona porque significa que a más gente le gusta su contenido.
Penguin ha evolucionado y no toma en cuenta solo el número de enlaces, sino la calidad de los mismos. No es igual un enlace que venga de un sitio de alta autoridad, como un portal de noticias online, que un enlace que venga de un foro.
Yo siempre lo he visto así, mientras más difícil sea ganarse el enlace, más valor le da Penguin.
Penguin tiene bien registrado cada dominio que está en Internet y tiene una valoración para cada uno, aunque la calidad no solo depende del dominio que enlaza, sino del ancla con que enlaza, y del contenido desde donde se enlaza.
Google Hummingbird, para búsquedas complejas
Este último algoritmo es relativamente nuevo, por lo que no hay grandes datos de él.
Google ha dicho que es un algoritmo que tiene como fin entender las búsquedas más complejas – sobre todo las realizadas desde el móvil usando la búsqueda por voz – para dar con el mejor resultado posible.
¿Entender la búsqueda? Sí, fíjate. Panda da resultados según la coincidencia con las palabras claves, pero no es capaz de entender para qué se quiere esa información.
No es lo mismo preguntarle a Google, “¿cuánto tardo en llegar a tal restaurante?” Que preguntarle “¿qué vende tal restaurante?” La idea con colibrí, o Hummingbird, es darle sentido a la búsqueda para que los resultados sean más precisos.
Como tal, el colibrí no afecta el posicionamiento, o eso es lo que se piensa, puesto que no castiga como los otros, pero si deberás hacer cambios para que tu sitio sea capaz de responder a las nuevas preguntas de los usuarios.
Una de las herramientas que se está usando mucho para hacerle frente a Hummingbird es el marcado de información según Schema.org.
Impacto en el SEO
Si bien hubo un cambio significativo en la forma en que se entregan los resultados, los conceptos básicos de SEO aún se aplican. Los enlaces siguen siendo importantes, las keywords siguen siendo importantes, la optimización en la página sigue siendo esencial. Cuando las cosas cambian, es fácil asumir que «lo que era» ya no funciona. Pero lo que realmente ha hecho la búsqueda semántica hace que sea más difícil para aquellos que usan tácticas poco éticas.
Cuando escuchas la palabra «semántica», es normal dejarse atrapar por la asociación de este término y la lingüística. Pero ese supuesto no es del todo exacto. Sí, el contenido juega un papel importante, pero también lo hace todo lo demás en su sitio que un rastreador puede leer e indexar.
Puedes ver esto todo el tiempo en el espacio de marketing digital de hoy. Los mercadólogos y propietarios de sitios piensan que si solo escriben una gran cantidad de contenido decente, los clasificará y serán encontrados. Lamentablemente, no es así como funciona.
Con la búsqueda semántica, Google está pasando de «cadenas a cosas». Esto significa que quieren crear conexiones más naturales. Pero aquí está el truco: el algoritmo no puede derivar significado y comprensión por sí mismo.
El mayor problema en SEO hoy en día es que asumimos que el algoritmo sabe más que nosotros. Parece que olvidamos que es un algoritmo y no un ser humano. Como cualquier programa basado en datos o inteligencia artificial, necesita datos estructurados para aprender.
Cuando escuchamos términos como inteligencia artificial y aprendizaje automático, es fácil pensar en robots autodidactas que buscan información por su cuenta. No es así como funciona la búsqueda semántica, RankBrain o cualquier otro aspecto del algoritmo: Requiere educación para ser inteligente.
La búsqueda de Google es la herramienta de big data más utilizada en el mundo. Para optimizar nuestros sitios, necesitamos tener una comprensión básica de las entidades de datos.
La entidad de datos se refiere a cualquier persona, lugar o cosa que los datos pueden representar. O cualquier clasificación de datos que se vincule a otras clasificaciones de datos en las relaciones. Las entidades permiten a Google entender cómo se combinan los conceptos y la información.
Al indexar un sitio, Google mira a la «persona, lugar o cosa» de lo que trata el sitio y realiza conexiones a contenido o entidades relacionadas para obtener un significado.
Cuando buscas dar sentido a tu sitio y tu contenido, Google no solo compara las entidades de tu sitio entre sí, sino que también compara tu sitio con sitios confiables y autorizados de la web con las mismas entidades. Sé que todo esto, parece un poco pesado y complicado, pero es importante saber qué pasos tomar para garantizar que Google vea tu sitio como confiable y con autoridad.
Cómo ayuda aplicar el SEO Técnico hoy
El SEO técnico puede ayudar a tu sitio en esta era de la búsqueda semántica de varias maneras, y dando una ante sala a lo implica el seo técnico, mencionaré tres factores importantes:
Títulos y meta:
Su título es una de las primeras cosas que se rastrean en sus páginas web. Proporcionar un título claro y enfocado ayuda al rastreador a comprender el contenido de la página. Ayuda a establecer el tono y comienza el proceso de relaciones de entidad. Las descripciones meta no son parte del algoritmo de clasificación, pero con la búsqueda semántica, creo que tienen más peso. Los rastreadores leen e indexan sus descripciones. Las buenas descripciones no solo ayudan a las tasas de clics, sino que también ofrecen una breve descripción de la página rastreada. Estos datos se tienen en cuenta cuando el motor de búsqueda está tratando de comprender el contexto de su página.
Estructura del sitio:
Tener una estructura de sitio lógica y bien definida es extremadamente importante. Esto no solo ayuda a sus usuarios a encontrar el contenido que necesitan más rápidamente. Sino que también ayuda a los rastreadores a comprender cómo se conecta su contenido. Tomarse el tiempo, para desarrollar una buena estructura. Ayudará a garantizar que su sitio esté indexado completamente y que los motores de búsqueda tengan una buena idea sobre los temas de su sitio.
Datos estructurados:
Los datos estructurados son metadatos que se implementan para ayudar a los motores de búsqueda a comprender el contenido y el contexto. La forma más común de estructurar datos es con la implementación de un esquema. La búsqueda semántica tiene que ver con datos estructurados; toda la idea de las entidades de indexación se basa en datos y esquemas estructurados. En la era de la búsqueda semántica, agregar estructura a los datos de su sitio es esencial para el éxito.
Si bien muchos creen que la búsqueda semántica tiene que ver con más y mejor contenido, ese no es el caso. Sí, el contenido es importante, pero puedo argumentar que el SEO técnico también es más importante que nunca.
Los mercadólogos, propietarios de sitios y SEOs deben tomarse el tiempo para comprender cómo Google procesa los datos y encontrar maneras de ayudar a los motores de búsqueda a entender el contenido de nuestros sitios y por qué es beneficioso para los usuarios. Por supuesto, aquellos que se toman el tiempo de hacerlo correctamente obtendrán los beneficios en los próximos años.