Categories
SEO

Los 5 problemas de indexación más comunes de Google por tamaño del sitio web

Google está abierto sobre el hecho de que no indexa todas las páginas que puede encontrar . Usando la consola de búsqueda de Google, puede ver las páginas de su sitio web que no están indexadas.

Google Search Console también le proporciona información útil sobre el tema específico que impidió que se indexara una página.

Estos problemas incluyen errores del servidor, 404s y sugerencias de que la página puede tener contenido duplicado (.

, pero nunca podemos ver los datos que muestren qué problemas son los más comunes a través de toda la web.

Entonces … ¿Decidí recopilar datos y compilar las estadísticas?

En este artículo, exploraremos los problemas de indexación más populares que impiden que sus páginas se presenten en la búsqueda de Google.

La indexación 101

La indexación es como construir una biblioteca, excepto en lugar de Libros, Google Ofertas de sitios web.

AnunciCementContinue Lectura a continuación

Si desea que sus páginas se presenten en la búsqueda, deben estar correctamente indexadas. En términos de Layman, Google debe encontrarlos y guardarlos.

Luego, Google puede analizar su contenido para decidir por qué consultas pueden ser relevantes.

Ser indexado es un requisito previo para obtener orgánico tráfico de google. Y, a medida que más páginas de su sitio web se indexan, tiene más posibilidades de aparecer en los resultados de búsqueda.

Es por eso que es realmente importante para usted saber si Google puede indexar yNuestro contenido.

¿Esto es lo que hice para identificar los problemas de indexación

Mis tareas diarias incluyen

optimizando los sitios web de un punto de vista técnico de SEO

para hacerlos más visibles en Google y como resultado, tengo acceso a varias docenas de sitios en la consola de Búsqueda de Google.

Decidí poner esto a usar para con suerte hacer problemas populares de indexación … Bueno, menos popular.

Para la transparencia, rompí la metodología que me llevó a algunas conclusiones interesantes.

AnunciCementContinue Lectura a continuación

– Tomeok Rudzki (@tomekrudzki)

9 de noviembre de 2020

Ambos demostraron fuentes fructíferas de información.

Excluyendo páginas no indexables

Es interesante dejar algunas páginas fuera de la indexación. Estos incluyen URL antiguas, artículos que ya no son relevantes, los parámetros del filtro en comercio electrónico, y más.

Webmasters pueden asegurarse de que Google los ignore en una serie deFormas, incluyendo el archivo robots.txt y

la etiqueta de Noindex

.

Teniendo en cuenta dichas páginas a la consideración afectaría negativamente la calidad de mis hallazgos, así que eliminé las páginas que cumplió con cualquiera de los criterios a continuación de la muestra: bloqueados por robots.txt.Meds como Noindex.Redirected.Reeding un código de estado HTTP 404.

Excluyendo páginas no valiosas

Para mejorar aún más la calidad de mi muestra, consideré solo aquellas páginas que se incluyen en MIPSEMAPS.

Sobre la base de mi experiencia,

Sitemaps

son ​​la representación más clara de las URL valiosas de un Dado Sitio web.

Por supuesto, hay muchos sitios web que tienen basura en sus sitemaps. Algunos incluyen incluso las mismas URL en su

Sitemaps

y los archivos robots.txt.

Pero tomé CARe en el paso anterior.

Categorizando los datos

Descubrí que los problemas de indexación populares varían según el tamaño de un sitio web. Cómo dividí los datos:

Sitios web pequeños (hasta 10k Páginas). Sitios web de Medium (de 10k a 100K Páginas). Sitios web de Big (hasta un millón de páginas) .En los sitios web (más de 1 millón de páginas) .AdvertisementContinue leyendo Debajo

Debido a las diferencias en el tamaño de los sitios web en mi muestra, tuve que encontrar una manera de normalizar los datos.

Un sitio web muy grande que lucha con un problema en particular podría superar los problemas que otros, Los sitios web más pequeños pueden tener.

Así que miré a cada sitio web individualmente para ordenar los problemas de indexación con los que luchan. Luego asigné puntos a los problemas de indexación en función del número de PAGES que se vieron afectados por un tema determinado en un sitio web determinado. y el veredicto es …

Aquí están los cinco temas principales que encontré en los sitios web de todos los tamaños.

Crawled – Actualmente no indexado (problema de calidad) .duplicado contenido.Discovered – actualmente no indexado (presupuesto de rastreo / problema de calidad) .Soft 404.Crawn número.

Vamos a romperlos.

Calidad

Los problemas de calidad incluyen que sus páginas sean delgadas en contenido, engañoso o demasiado parcidado. Si su página no proporciona contenido único y valioso que Google quiere mostrar a los usuarios, tendrá un tiempo difícil de indexar (y no debe sorprenderse).

AnuncioContinue leyendo a continuación

Contenido duplicado

Google puede reconocer algunas de sus páginas como contenido duplicado, incluso Si usted diNo significa que eso suceda.

Un problema común son las etiquetas canónicas que apuntan a diferentes páginas. El resultado es la página original que no se indexan.

Si tiene contenido duplicado, use el atributo de la etiqueta canónica o una redirección de 301.

Esto le ayudará a asegurarse de que las mismas páginas en Su sitio no está compitiendo entre sí para obtener vistas, clics y enlaces.

Presupuesto de rastreo

¿Qué es presupuesto de rastreo

? Basado en varios factores, Googlebot solo rastrará una cierta cantidad de URL en cada sitio web.

Esta optimización es vital; No dejes que pierda su tiempo en las páginas al que no le importa.

Soft 404s

404 errores significan que envió una página eliminada o inexistente para indexación.

Soft 404s

Pantalla “NoEncontrada “Información, pero no devuelva el código de estado HTTP 404 al servidor.

La redirección de páginas eliminadas a otras personas que son irrelevantes es un error común.

AnunciCementContinue leyendo a continuación

Múltiples redirecciones también pueden Aparece como un error suave 404. Esfuércese por acortar sus cadenas de redirección tanto como sea posible.

Número de rastreo

Hay muchos problemas de rastreo, pero un importante es un problema con Robots.txt. Si Googlebot encuentra un robots.txt para su sitio, pero no puede acceder a ella, no rastreará el sitio en absoluto.

Finalmente, veamos los resultados para diferentes tamaños de sitios web.

Pequeños sitios web

Tamaño de muestra: 44 Sitios

Crawled, actualmente no indexados (calidad de presupuesto de calidad o rastreo) .duplicate content.craw presupuesto número de presupuesto. SOFT 404.CRAWSUSE.

Sitios web medianos

Tamaño de muestra: 8 Sitios Contenido duplicado.Discobrizado, actualmente no indexado (presupuesto de rastreo / problema de calidad). CRIBLED, actualmente no indexado (problema de calidad) .SOFT 404 (problema de calidad) Número de .AdvertisementContinue leyendo a continuación Sitios web grandes

Tamaño de la muestra: 9 Sitios

Crawled, actualmente no indexados (problema de calidad). Converbado, actualmente no indexado (presupuesto de rastreo / problema de calidad) .duplicado Asunto de content.soft 404.crawn.

Enormes sitios web

Tamaño de muestra: 9 Sitios

Crawled, actualmente no indexados (problema de calidad). Converbado, actualmente no indexado (crawl presupuesto / problema de calidad). Contenido duplicado (DUPLICADO, URL enviado no seleccionado como canónico) .SOFT 404.Crawn SOBRE.

Llaves para llevar en cuestiones de indexación comunes

Es interesante que, según THESTOS HECHOS, DOS TAMAÑOS DE SITIOS WEB ESTÁN SUFRADOS DE LOS MISMOS CUESTIONES. Esto demuestra lo difícil que es mantener la calidad en el caso de los sitios web grandes. más de 100k, pero más de 1 millón. Gracias a 1 millón. Las tallidas, sin embargo, son que:

incluso relativamente Los sitios web pequeños (10k +) pueden no estar completamente indexados debido a un presupuesto de rastreo insuficiente. El más grande es el sitio web, más se convierten en los problemas de presupuesto / calidad de rastreo. El problema de contenido duplicado es grave, pero cambia su naturaleza dependiendo del sitio web. PS Una nota sobre las URL desconocidas para Google Durante mi investigación, me di cuenta de que hay un problema más común que evita que las páginas se indexan. AnunciCementContinue leyendo a continuación Es posible que no haya ganado su lugar en el clasificaciones aBove, pero sigue siendo significativo, y me sorprendió ver que aún es tan popular. Estoy hablando de páginas huérfanas. Es posible que algunas páginas en su sitio web puedan tener algunas páginas en su sitio web. No hay enlaces internos que lo llevan. Si no hay ruta para que Googlebot encuentre una página a través de su sitio web, es posible que no lo encuentre en absoluto. ¿Cuál es la solución? Agregue enlaces de las páginas relacionadas. También puede arreglar esto manualmente agregando la página de huérfanos a su Sitemap. Desafortunadamente, muchos webmasters todavía se niegan a hacer esto. Más recursos: 11 Consejos y trucos de SEO para mejorar la indexación Googlebot no indexando las páginas correctas ? Google ofrece 5 formas de arreglar Seo técnico avanzado: una guía completa

Leave a Reply

Your email address will not be published. Required fields are marked *