Categories
SEO

¿Por qué Googlebot no rastrea las páginas suficientes en algunos sitios?

En un lugar de reunión de la Oficina de Google SEO, se le preguntó a John Mueller, por qué Google no arrastró suficientes páginas web. La persona que hace la pregunta explicó que Google se arrastraba a un ritmo que era insuficiente para mantener el ritmo con un sitio web enormemente grande. John Mueller explicó por qué Google podría no estar rastreando las páginas suficientes.

¿Cuál es el presupuesto de Google Crawl?

Googlebot es el nombre del rastreador de Google que va a la página web a la página web que los indexan para clasificarlos propósitos

, pero debido a que la web es grande, Google tiene una estrategia de indexar solo páginas web de mayor calidad y no indexando las páginas web de baja calidad.

De acuerdo con la página de desarrolladores de Google para enorme Sitios web (en los millones de páginas web):

“La cantidad de tiempo y recursos queGoogle dedica a rastrear un sitio se llama comúnmente el presupuesto de rastreo del sitio.

Tenga en cuenta que no todo se arrastró en su sitio necesariamente se indexará; Cada página debe ser evaluada, consolidada y evaluada para determinar si se indexará después de que se haya arrastrado.

El presupuesto de rastreo está determinado por dos elementos principales: límite de capacidad de rastreo y demanda de rastreo “.

PublicidadContinue Reading a continuación

Relacionado:

Google SEO 101: PRESUPUESTO DEL PRESUPUESTO DE CRAPT SELOK EXPLICADO

¿Qué decide el presupuesto de GoogleBot Crawl?

la persona Preguntar la pregunta tenía un sitio con cientos de miles de páginas. Pero Google solo estaba arrastrando las 2,000 páginas web por día, una tasa que es demasiado lenta para un sitio tan grande.

La persona que hace la pregunta sigueEd hasta la siguiente pregunta:

“¿Tiene algún otro consejo para obtener información sobre el presupuesto actual de rastreo?

Solo porque siento que realmente hemos Ha estado tratando de hacer mejoras, pero no he visto un salto en las páginas por día se arrastró “.

El Mueller de Google le preguntó a la persona qué tan grande es el sitio.

la persona Preguntando la pregunta respondida:

“Nuestro sitio está en cientos de miles de páginas.

y hemos visto que alrededor de 2,000 páginas por día se arrastran aunque Hay como un atraso de 60.000 páginas descubiertas pero aún no indexadas o arrastradas “.

El John Mueller de Google respondió:

” Así que en la práctica , Veo dos razones principales por las que eso sucede.

por un lado si el servicior es significativamente lento, lo cual es … El tiempo de respuesta, creo que también lo ves en el informe de estadísticas de rastreo.

Esa es una zona donde, si … como si tuviera que darte un número, yo Diga AIM por algo por debajo de 300, 400 milisegundos, algo así en promedio.

porque eso nos permite arrastrarse tanto como lo necesitamos.

No es lo mismo que la velocidad de la página. Tipo de cosas.

Así que eso es … Una cosa a tener cuidado “.

AnunciCementContinue Lectura a continuación

RELACIONADOS:

Presupuesto de rastreo: todo lo que necesita Para saber para SEO

La calidad del sitio puede impactar el presupuesto de GoogleBot Crawl

John Mueller de Google mencionó el tema de la calidad del sitio.
La mala calidad del sitio puede causar Googlebot. Crawler para no rastrear un sitio web.

John Mueller de Google explicó:

“La otra gran razón por la que no nos arrastramos mucho de los sitios web es porque no estamos convencidos de la calidad general.

Así que eso es algo donde, especialmente con sitios más nuevos, nos veo a veces luchando con eso. Y también veo que a veces las personas que dicen bien, es técnicamente posible crear un sitio web con un millón de páginas porque tenemos un Base de datos y lo puse en línea. y simplemente haciendo eso, esencialmente de un día a otro encontraremos muchas de estas páginas, pero seremos como, no estamos seguros de la Calidad de estas páginas todavía. Y seremos un poco más cautelosos acerca de arrastrarlos e indexándolos hasta que estemos seguros de que la calidad es realmente buena “. Factores que Afecta a cuantos pEnvejece Google Crawls Hay otros factores que pueden afectar la cantidad de páginas que no se mencionan en Google que no se mencionaron. Por ejemplo, un sitio web alojado en un servidor compartido podría ser incapaz de servir a las páginas rápidamente suficiente para Google porque podría haber otros sitios en el servidor que usan recursos excesivos, desacelerando el servidor para los otros miles de sitios en ese servidor. Otra razón puede ser que el servidor se está volviendo a ser golpeado por Rogue Bots, lo que hace que el sitio web se ralentice. Consejos de John Mueller a observar la velocidad que el servidor está sirviendo las páginas web es bueno. Asegúrese de comprobarlo después de las horas de la noche porque muchos rastreadores como Google se arrastran en las primeras horas de la mañana porque, en general, es un tiempo menos perturbador para rastrear y hay menos visita al sitio.Ors en sitios a esa hora. Citas Lea la página de Google Developer en el presupuesto de rastreo para sitios grandes: Guía del propietario de gran sitio para gestionar Su presupuesto de rastreo advertisementcontinue Reading a continuación Mire a John Mueller de Google Responder la pregunta sobre Googlebot no rastreando las páginas web suficientes. Véalo aproximadamente a la marca de 25:46 minutos:

Leave a Reply

Your email address will not be published. Required fields are marked *