En los recientes desarrollos que afectan a los mercadólogos digitales y a los profesionales de SEO, la decisión de Google de bloquear cierto tráfico de bots ha llevado a una disminución significativa en las impresiones reportadas en Google Search Console. El panorama digital ha presenciado cambios críticos tras la eliminación del parámetro "num", que anteriormente permitía a los usuarios aumentar el número de resultados de búsqueda mostrados en una página. Este cambio ha impactado drásticamente el rendimiento de las herramientas de terceros y los datos generales reportados en Google Search Console.
Tras esta decisión, muchos usuarios han reportado un notable descenso en sus métricas de consola. Un análisis realizado por un mercadólogo digital consistió en evaluar alrededor de 320 perfiles en Google Search Console, resultando en cifras sorprendentes: el 87.7% de los sitios analizados experimentaron una disminución en impresiones, y el 77.6% enfrentaron una reducción en el número de palabras clave únicas que clasifican. Este cambio indica que una porción sustancial de propiedades en Internet está sintiendo las repercusiones de los recientes ajustes de Google.
Se cree que las implicaciones de estos cambios son especialmente pronunciadas para los sitios web afectados por lo que se está denominando el "gran desacoplamiento". Este término describe la desconexión que muchos experimentaron entre sus posiciones en las búsquedas y su visibilidad real, un fenómeno que algunos expertos sugieren podría agravar el impacto de los cambios recientes. Notablemente, otro análisis que revisó 1,000 sitios también encontró una caída promedio de impresiones de aproximadamente el 25% en una semana, corroborando aún más la tendencia observada en el informe inicial.
Un examen más detallado de los datos revela varios patrones clave. La caída principal en impresiones afecta principalmente a palabras clave de cola corta y media, que son comúnmente utilizadas en numerosos sitios web. Estas palabras clave, debido a su popularidad, a menudo generan un tráfico de búsqueda significativo. En contraste, las palabras clave de una sola palabra han mostrado descensos aún mayores, sugiriendo un cambio en cómo se indexa y se muestra el contenido de búsqueda.
Además, los cambios parecen haber influido en las posiciones de clasificación de palabras clave. Hay una notable reducción en las palabras clave que se clasifican más allá de la página tres, junto con un aumento en el número de palabras clave que aparecen en las tres primeras posiciones o en la primera página. Esta tendencia implica que la precisión de los informes puede haber mejorado, ya que se mitigan las distorsiones causadas anteriormente por scrapers y la actividad de bots.
Es importante destacar que esta disminución en impresiones se ha observado predominantemente en métricas de escritorio. Muchos propietarios de sitios han notado un sorprendente aumento en las posiciones promedio a pesar de la caída en impresiones, lo que potencialmente indica que tales herramientas ya no están inflando métricas a través de reportes de tráfico inexactos. El escepticismo en torno a los datos impactados plantea discusiones esenciales sobre la integridad de los informes de tráfico, particularmente con el filtrado de métricas influenciadas por bots.
A medida que la comunidad de búsqueda navega estos cambios, las discusiones continúan sobre las experiencias individuales y las implicaciones más amplias para las estrategias de SEO en el futuro. Muchos están observando con interés cómo estos ajustes influirán en las posiciones de búsqueda, el tráfico de usuarios y, en última instancia, los resultados comerciales en los próximos meses.