GOOGLELEAKS, LAS TRIPAS DE GOOGLE AL DESCUBIERTO
Aprovechando la puesta en libertad de Julian Assange, fundador del sitio web WikiLeaks, donde en 2010 publicó casi medio millón de documentos relacionados con las guerras de Estados Unidos en Irak y Afganistán, es buen momento para dedicar un AVANTREND a hablar de GoogleLeaks. Otra “fuga” de información, pero que en este caso afecta más de lleno a nuestro sector.
En estos informes (2.500 páginas de datos) revelados recientemente por Erfan Azimi en Github, plataforma donde fueron accidentalmente expuestos y posteriormente difundidos por Rand Fishkin, fundador del portal MOZ especializado en SEO y análisis web, se expone detalladamente el funcionamiento interno del algoritmo de Google para posicionar un sitio web y exhibir los resultados en su buscador, proporcionando detalles sobre:
- Qué factores de clasificación utiliza Google para clasificar los resultados de búsqueda, incluyendo variaciones de PageRank, métricas de autoridad del sitio y calidad del contenido.
- Muestra nuevos aspectos y señales relativas a la relevancia de la calidad del contenido y que Google considera para medir la calidad del contenido como utilidad, presentación, atractivo y participación. Señales que, además, se consideran como datos personales para Search CPS.
- Qué comportamientos del usuario afectan al posicionamiento de una web o contenido, como clics e impresiones.
- Y cómo Google utiliza datos de Chrome para personalizar los resultados de búsqueda para cada usuario.
Tras examinar detenidamente los informes por expertos en SEO, se han alcanzado conclusiones reveladoras que contradicen y desmienten en gran medida la información oficial proporcionada por Google sobre su algoritmo. A continuación, exploraremos juntos estas conclusiones tan significativas:
La importancia de los clics
En primer lugar, destaca la relevancia de los clics como factor determinante en la clasificación de páginas web por parte de Google. A raíz de revelaciones surgidas durante el juicio antimonopolio en EE.UU., se ha confirmado que Google utiliza activamente esta información. Por un lado, la plataforma filtra clics no deseados y, por otro, evalúa la duración de la visita del usuario en la página a la que accedió mediante dicho clic. Para ilustrar este punto, consideremos el escenario en el que una de nuestras páginas recibe escasas visitas desde los resultados de búsqueda y además los visitantes pasan poco tiempo en ella. En este caso, Google percibe que la página carece de relevancia, lo que resulta en una disminución de la importancia de los enlaces provenientes de otros sitios web. Por el contrario, si una página recibe un alto volumen de visitas y los usuarios pasan tiempo explorándola, Google la considerará valiosa y mejorará su posición mediante una mayor relevancia de los enlaces externos. Además, Google incorpora datos sobre segmentación geográfica y utiliza información recopilada a través del navegador Chrome para perfeccionar la precisión de sus resultados.
El sistema NavBoost
Se ha descubierto otro aspecto notable que resalta la importancia del sistema NavBoost para Google. Este sistema analiza la cantidad de búsquedas de una palabra clave con el fin de identificar tendencias y predecir el número de clics en un resultado, teniendo en cuenta la proporción entre clics cortos (que implican la navegación entre páginas) y clics largos (que se orientan a activar funciones internas de una página, como acciones secundarias o menús contextuales que ofrecen opciones adicionales relacionadas con el elemento seleccionado). En el primer caso, los clics son rápidos, de ahí su denominación como cortos; mientras que en el segundo caso, se mantiene presionado el botón del ratón durante un período más prolongado, por eso se les llama largos.
Este análisis permite a Google ofrecer resultados adaptados a la intención de búsqueda del usuario, determinando si este tiende más a ver videos, imágenes, leer textos o interactuar con contenidos. De esta manera, Google nos presenta sitios web que se ajustan mejor a nuestro comportamiento de búsqueda, siempre con información o temáticas relacionadas con nuestra consulta. Asimismo, Google utiliza NavBoost para considerar otros datos y métricas de uso y navegación interna a fin de evaluar la calidad de los sitios web y posicionarlos en diferentes lugares dentro de los resultados de búsqueda.
Correlación entre búsquedas
Siguiendo con estas conclusiones, también se ha observado que Google tiene en cuenta lo que sucede antes y después de la búsqueda realizada por un usuario. Para ilustrarlo, imaginemos que después de leer este artículo, surge en ti el interés por aprender más sobre SEO y decides buscar «SEO GoogleLeaks». Más tarde, al haber leído este artículo en nuestras redes sociales, buscas «AVANTE Medios». La correlación entre estas búsquedas hará que Google comience a considerar nuestro sitio web como un referente en SEO y comience a posicionarlo mejor en búsquedas relacionadas con esta temática. Es decir, Google no solo analiza cómo diseñamos nuestras etiquetas y contenidos, sino que también aprende de nosotros, de nuestro comportamiento como seres humanos.
Calidad de los contenidos
En cuanto a la calidad de los contenidos, se han hecho evidentes varios aspectos importantes. En primer lugar, se destaca que los sitios web que incorporan videos en sus contenidos son mejor clasificados, especialmente aquellos que tienen más del 50% de sus páginas con este formato serán beneficiados. Además, la originalidad de los contenidos juega un papel fundamental en el posicionamiento de un sitio. Google emplea sus métricas OriginalContentScore eta TitleMatchScore para evaluar la autenticidad del contenido y distinguir entre contenido generado por humanos y contenido automático.
Antispam y calidad de enlaces
Otros aprendizajes obtenidos incluyen que Chrome, y por ende Google, utiliza nuestro historial de navegación y cookies para evitar la generación de clics de spam, con el objetivo de reducir el tráfico fraudulento a los sitios web. De esta manera, identifica comportamientos en el historial asociados a usuarios humanos o a bots para filtrar este tipo de tráfico. Asimismo, Google clasifica los enlaces en categorías de baja, media y alta calidad según la cantidad de clics que reciben. Esto afecta la transmisión del PageRank, dándole mayor valor a los enlaces provenientes de páginas bien posicionadas, especialmente de sitios de noticias. Además, se destaca que el título sigue siendo un factor crucial en el posicionamiento de un sitio web, mientras que la importancia del anchor text en los enlaces y la relación entre los términos de búsqueda y los contenidos ha ido disminuyendo.
¿Nuestra conclusión?
Para nosotros hay dos aspectos básicos y fundamentales. En primer lugar, se resalta la relevancia de la marca detrás del sitio, ya que Google tiende a priorizar resultados de fuentes reconocidas y confiables. Por lo tanto, construir y fortalecer la marca es fundamental para obtener un buen posicionamiento. En segundo lugar, se menciona que Google trata de manera dispar a los sitios web pequeños en comparación con los grandes, otorgando menor visibilidad a los primeros. Esto significa que incluso si un sitio web personal o de marca tiene contenidos de calidad y una estrategia SEO adecuada, puede ser penalizado si no recibe suficiente tráfico.
Por lo tanto, desde nuestro punto de vista, es crucial trabajar la notoriedad de la marca para aumentar la confianza y atraer más tráfico al sitio, lo que facilitará su posicionamiento en los motores de búsqueda. Se enfatiza que el branding debe prevalecer sobre el rendimiento en este sentido.
Otros informes relacionados