Perspectivas de Google sobre el Aumento del Tamaño de los Sitios Web

Una mujer pelirroja de pelo corto teclea en un portátil sentada en un sofá rojo en una habitación luminosa.

En un podcast reciente, expertos de Google destacaron una tendencia creciente en el desarrollo web: los sitios web están volviéndose cada vez más grandes. Gary Illyes y Martin Splitt discutieron las implicaciones de esta tendencia y subrayaron que la percepción de que los sitios web más grandes son perjudiciales puede no ser cierta. Su principal mensaje para editores web y profesionales de SEO es que el concepto de Peso de Página es complejo y requiere una comprensión matizada, ya que el “peso” adicional a menudo puede provenir de contenido valioso.

Comprensión de las Dinámicas del Tamaño de Página

Splitt elaboró sobre cómo la medición del tamaño de página puede variar significativamente. Señaló que es crucial diferenciar entre varias métricas: si la medición se basa únicamente en el HTML de una página o si abarca el tamaño total de la página, que incluye factores como imágenes, CSS y JavaScript.

Por ejemplo, ha habido preocupación dentro de la comunidad SEO en relación con el límite de Googlebot en los rastreos de páginas, que es de 2 megabytes de HTML. Para contextualizar esto, vale la pena mencionar que dos megabytes de HTML equivalen a alrededor de dos millones de caracteres, comparable al texto encontrado en dos volúmenes de una serie literaria popular.

Sin embargo, al considerar el tamaño total de la página que incluye CSS, imágenes y otros elementos, el enfoque cambia de lo que Googlebot puede rastrear a lo que los usuarios reales experimentan en cuanto a la velocidad de carga de la página.

Un examen de tendencias en datos web, particularmente de fuentes como el Web Almanac de HTTPArchive, reveló discrepancias en cómo se interpreta el peso de la página, complicando las discusiones en torno al rendimiento web.

El Rol de la Compresión en el Tamaño de Página

El tamaño de la página también puede entenderse a través del prisma de la transferencia de datos, que puede parecer más pequeño debido a la tecnología de compresión. Esta compresión del lado del servidor reduce el tamaño de los archivos enviados a los navegadores. La mayoría de los servidores modernos utilizan algoritmos como Brotli para facilitar este proceso.

Esto lleva a una situación en la que, técnicamente, el tamaño efectivo de una página podría ser más pequeño que lo que se muestra después de que ocurre la descompresión en el dispositivo del usuario. Por lo tanto, el tamaño aparente puede ser engañoso, planteando preguntas sobre si el tamaño de una página debería medirse en términos de bytes sin procesar o en su forma comprimida durante la transmisión.

Consideración de la Relación Contenido a Marcado

Una de las ideas más profundas compartidas fue la noción de que un tamaño de página grande no es inherentemente indicativo de ineficiencia. Por ejemplo, un documento HTML de 15 MB podría estar justificado si la mayor parte de ese tamaño consiste en contenido valioso. Por el contrario, un tamaño de archivo más pequeño repleto de contenido relevante mínimo podría ser perjudicial si contiene un marcado excesivo.

Tales variaciones provocan una reevaluación de lo que se considera “mal” peso de página. Un énfasis en la proporción de contenido visible para el usuario en relación con el marcado destaca cómo ciertas piezas de información, incluso si no son visibles para el usuario, pueden ser necesarias para la funcionalidad general del sitio, como los datos estructurados para la indexación por motores de búsqueda.

La Complejidad del Contenido No Visible

Un contribuyente significativo al tamaño total de la página incluye datos con los que los usuarios nunca interactúan. Los datos estructurados sirven como un ejemplo primordial de esto; aunque su propósito es ayudar a los motores de búsqueda y otros sistemas automatizados, aumenta el tamaño de la página sin mejorar la experiencia del usuario.

Esto plantea un problema más amplio en relación con la arquitectura web: los sitios web están diseñados para servir no solo a usuarios humanos, sino también a otros sistemas, como motores de búsqueda y herramientas de IA, complicando las narrativas en torno a la eficiencia web.

La Justificación de Carga Adicional

El debate sobre si se debe separar el contenido destinado a los usuarios de los datos utilizados principalmente por las máquinas sigue sin resolverse. Si bien este enfoque podría optimizar potencialmente las experiencias de los usuarios, también podría invitar a complicaciones y consecuencias no deseadas, como un aumento del spam.

Cuando los tipos de contenido separados han existido en el pasado, a menudo surgieron discrepancias, lo que llevó a problemas en la visibilidad en búsquedas y en la experiencia del usuario. Esta historia respalda la preferencia por un modelo unificado en el desarrollo web, aunque sea ineficiente.

Reevaluando los Impactos de las Páginas Más Grandes

En última instancia, Illyes y Splitt sugieren un cambio de enfoque de cuestionar si los sitios web están volviéndose más grandes a evaluar la evolución específica de páginas web individuales. Aunque las páginas más grandes pueden no indicar universalmente un declive en la calidad, aún pueden acarrear repercusiones negativas, como el desperdicio de recursos y un aumento en los tiempos de carga.

La investigación indica que los sitios que cargan más rápido tienden a tener mejores tasas de retención de usuarios y conversión. Así, aunque es esencial reconocer que las páginas podrían estar volviéndose más densas con contenido variado, esta elección de diseño tiene implicaciones significativas tanto para la eficiencia como para la experiencia del usuario.

La evolución del diseño de páginas web requiere una comprensión más profunda de la utilidad del contenido y de cómo afecta el compromiso del usuario. En conclusión, la conversación en torno al tamaño de las páginas web es intrincada y multifacética, desafiando las opiniones convencionales sobre lo que constituye un diseño web efectivo. El énfasis ahora no está solo en el tamaño, sino en la razón detrás de él.

Nota publicada por el equipo de KatRank

Aparece Primero en Google

En KatRank nos especializamos en impulsar e incrementar la visibilidad online de nuestros clientes usando estrategias avanzadas de SEO en México.

Somos una agencia de search marketing con más de una decada de experiencia trabajando en proyectos exitosos en muchas ciudades de México, Estados Unidos y Canadá. Nuestro equipo de expertos en marketing tiene la reputación de implementar estrategias inteligentes de SEO y PPC (Google Adwords/Ads) que dan resultados positivos.

Solicita más Información
o usa el formulario

"*" indicates required fields

This field is for validation purposes and should be left unchanged.
Nombre*

Noticias Recientes