Categories
SEO

Hacer un estuche para las exportaciones más grandes: Búsqueda de informes de cobertura de la consola

En 2018, Google renovó el informe de cobertura de índice en la consola de búsqueda de Google . Fue una gran mejora de la versión anterior, y SEO en todo el mundo se regocijó. Con la actualización, la nueva información de cobertura amplió enormemente la cantidad de información para los propietarios de sitios, incluidos los errores, los niveles de indexación y las URL que estaban siendo excluidas de la indexación. Google también comenzó a proporcionar 16 meses de datos, que fue un aumento significativo de lo que teníamos anteriormente.

La actualización fue increíble, pero hubo un problema deslumbrante: la limitada capacidad de exportación de los informes de cobertura, que es especialmente difícil. Para sitios de escala media a mayor. Actualmente, hay un límite de mil filas por informe.

A screenshot from Google Search Console for a site with over 250,000 URLs

Claro, los sitios más pequeños a menudo pueden exportarT todos sus datos por informe, pero muchos sitios de mayor escala hacen fácilmente pasar por ese límite por categoría.

Por ejemplo, un sitio con solo doscientas páginas podría exportar fácilmente todas las páginas indexadas, y típicamente todas las páginas excluidas por categoria. Pero los sitios con cientos de miles, o millones de páginas, a menudo están muy limitadas por solo mil filas por informe. Y eso puede obstaculizar la capacidad de un propietario del sitio para identificar completamente los patrones de problemas en todo el sitio, exportar más URL por categoría, y luego, por supuesto, abordar todos los problemas de manera oportuna.

La consola de búsqueda de Google debería Proporcionar más datos por informe. Proporcionaré casos específicos en los que más datos hubieran ayudado a los propietarios del sitio, y le proporcionaré una manera de involucrarse (para que podamos aprender cómo lo general.O La comunidad se siente sobre la limitación de exportación actual en la consola de búsqueda de Google).

Para lograrlo, he establecido una encuesta (que está incrustada a continuación) donde puede hacer que su voz se escuche. Dependiendo de la retroalimentación de SEO, los propietarios de sitios, etc., tal vez podamos convencer a Google para aumentar la capacidad de exportación de los informes de cobertura de la consola de Google Búsqueda de Google.

Una conversación importante en la conferencia de webmaster en vista a la montaña

En noviembre de 2019, tuve la suerte de asistir a la conferencia de Google Webmaster

en Google Sede en Mountain View. Fue una increíble conferencia de un día donde pudimos ver presentaciones de varios googlers sobre lo que estaban trabajando en toda la búsqueda. Además, Google celebró una de sus ferias de productos donde GooglersConfigure los quioscos que muestran proyectos en los proyectos en los que están trabajando.

Tan pronto como comenzó la feria, escaneé la habitación revisando los títulos en cada quiosco. Uno inmediatamente se destacó para mí … Leer, “Google Search Console”. Entonces, corrí a unas pocas personas mientras me acercaba rápidamente al stand. Estaba decidido a hablar con alguien acerca de obtener más datos de la nueva y mejorada informes de cobertura (o incluso una API).

Terminé con una gran conversación con un ingeniero del equipo de productos de la consola de búsqueda de Google. Hice mi caso para obtener más datos mientras escuchaba mis puntos, mientras que también contrarrestaba algo de lo que estaba diciendo. Era extremadamente interesante escuchar la opinión de Google, ser desafiado a proporcionar casos de la palabra real de por qué necesitábamos más datos, etc.

He explicadoEsos sitios de rastreo a través de herramientas de terceros son increíblemente importantes y útiles, pero para sitios de mayor escala, a menudo no es factible rastrear continuamente sitios masivos que buscan problemas. Además, solo rastrear un sitio no proporciona cómo

Google en realidad está tratando

URL a escala. Por ejemplo, ¿están siendo categorizados como “arrastrados, no indexados”, suaves 404s, siendo canonicalizados con otras URL, etc.? Aún debe inspeccionar esas URL para averiguarlo (y no puede hacerlo fácilmente en masa).

La combinación de exportaciones más grandes de los informes de cobertura de Google Search Console. Crawling a través de herramientas populares como Fallcraft, Griting Frog y SiteBulb es un enfoque mucho mejor. Básicamente, Google ya tiene los datos, así que tal vez pueda proporcionar más de ese DATOS, así que sentarseLos propietarios pueden obtener una visión más fuerte de esos problemas.


Miembro sobre por qué los informes no proporcionan exportaciones más grandes es que se supone que el informe de cobertura debe proporcionar

patrones

y no las exportaciones de datos completas. Obtengo totalmente eso, y proporciona algunos patrones, pero mi punto fue que la consola de búsqueda de Google no puede surgir

todos los patrones

    para sitios complejos a gran escala. El ingeniero que trabaja en la consola de búsqueda de Google fue genial, y me escuchó, pero no dejé esa conversación que sintiera que veríamos una API en cualquier momento … Aunque tuve la esperanza de que podamos ver a uno en el futuro.

  • Aquí está PART de un hilo de Tweet que comparé después de la conferencia del webmaster. Este Tweet específico fue sobre una API de cobertura:

  • Con respecto a un informe de cobertura API, hablé con un ingeniero trabajando en GSC. No recibí la sensación de que veríamos una API en el corto plazo. Dijo que la GSC sería más valiosa para proporcionar patrones de problemas y no proporcionar cada URL individual para cada problema. No estoy de acuerdo, pero ese soy yo. 🙂
  • pic.twitter.com/2vjeiHoOit

  • – Glenn Gabe (@glenngabe)

  • 8 de noviembre de, 2019

SEO nirvana – exportaciones más grandes o una cobertura de la información API:

Después de esa conversación, y continuando trabajando en sitios a gran escala, seguí encontrándome en situaciones donde más datos más habrían ayudado mucho a mis esfuerzos (y los propietarios del sitio que estaba ayudando). No podía soportar ver decenas oF milles, cientos de miles, o incluso millones de URL en varios informes de cobertura solo para exportar solo mil filas. Hable sobre Simavrecador …

Entonces, ¿qué estoy buscando? ¿Qué ayudaría a los propietarios de SEOS y al sitio a trabajar en sitios de mayor escala? Hay una respuesta de dos partes a esto, y para ser honesto, sería feliz con uno.

Screenshot of Google Search Console showing a site with 100,000 URLs 1) Una API de cobertura

Esto sería increíble. Al igual que puede usar la API de la consola de búsqueda

para aumentar los datos de exportación a granel de los informes de rendimiento, usted podría hacerlo para los informes de cobertura (y por categoría).

Por ejemplo :

¿Necesita exportar todas las URL categorizadas como “arrastradas, no indexadas”? Boom, lo tienes.

  • ¿Qué tal si exporta todas las
  • 404s blando

  • ? No hay problema. Bip,BOP, BOOP. Están exportados
  • ¿Google ignorando REL = Canonical a través de muchas URL y eligiendo un canónico diferente? PFFT … están exportados.

  • ¿Quieres exportar todas las URL indexadas en un directorio específico? ¡Tu deseo es mi comando!
  • Lo entiendo, esta es una gran pregunta al equipo de productos de la consola de búsqueda de Google, pero sería increíble. Y si una API no es fácil de hacer, entonces hay una segunda opción. 2) Exportaciones más grandes (por ejemplo, 100k por informe)

aunque esto todavía estaría limitando para muchos más grandes -Sos sitios de escala, 100k filas de datos por informe serían mucho, mucho mejores que solo mil filas. Si los sitios podrían exportar 100k filas por informe en los informes de cobertura, los propietarios del sitio podrían surgir más patrones en función de ver más URL que se están clasificando comoun cierto problema. Creo que hablo para la mayoría de las personas que trabajan en sitios de mayor escala cuando digo que esta sería una actualización increíble en la consola de búsqueda de Google.

Screenshot of Google Search Console showing a site with 491,000 valid URLs.

¿A quién le encantaría ver esto en la consola de búsqueda de Google?

  • Estudios de caso: escenarios de palabras reales de cuándo más datos habrían ayudado en gran medida a los propietarios de sitios
  • para ayudar a demostrar las limitaciones de que los sitios de mayor escala se ejecutan en, yo Decidí proporcionar algunos casos a continuación que he trabajado personalmente. Están destinados a subrayar el punto de que una mil filas por informe a menudo no es suficiente para surgir todos los patrones necesarios en un sitio grande y complejo. Puede haber problemas ubicados en todo el sitio, mientras que los informes solo pueden mostrar un puñado de esas áreas. Y de nuevo, solo rastrear los sitios en tu a.n no le da la imagen completa (cómo Google está manejando en realidad esas URL). Se requiere inspeccionar las URL en la consola de búsqueda de Google y no puede hacerlo a granel.

  • Después de cubrir los casos, proporcioné una encuesta donde pueda escuchar su voz. Me encantaría escuchar lo que la comunidad de SEO más grande piensa en obtener más datos de los informes de cobertura. ¡Gracias de antemano por su participación!

URL indexados (ambos enviados y no enviados)
  • El beneficio más obvio aquí es comprender todas las páginas que actualmente están indexadas (y dentro de ciertos directorios), que pueden ser un desafío para sitios más grandes. Esto puede ayudar a los propietarios del sitio a comprender qué páginas específicas se indexan, en las que las secciones del sitio, etc. Actualmente no hay forma de verdaderamente una de verdadDistrede cada página que está indexada en un sitio o en un directorio. Poder ver los niveles de indexación
  • a través de los tipos de página o las secciones del sitio

pueden ayudar a los propietarios del sitio a comprender los problemas potenciales con esos tipos o áreas potenciales del sitio. Tener una visión más fuerte de los niveles de indexación ayudaría en este frente.

Como parada, generalmente recomiendo a los propietarios de sitios

    configurar cada directorio importante como una propiedad en GSC

  • para obtener más visibilidad en la indexación. niveles. Eso funciona bien, pero aún no es genial para sitios de mayor escala.
  • Por ejemplo, aquí es un directorio
  • de un sitio de mayor escala que luchaba con Problemas de contenido masivo duplicado. Sería genial ver todas las URL que se estaban indexando en esta sección, por lo que su equipo de desarrollo pudiera excavar fácilmente en:

y más allá del total, sería increíble exportar todas las URL que se clasifican como “indexadas, pero

no Presentado en el Sitemap “. A menudo, a menudo pueden ser URL que los sitios no saben son indexables, lo que podría ser por qué no se incluyen en XML Sitemaps. Ser capaz de exportar a granel que la categoría sería increíble.

Además, esto ayudaría a los propietarios del sitio a calcular qué URL canónica en un sitio a gran escala no se

no se envían

A screenshot of search console interface coverage report showing that Google ignores user-detected canonical and selects the inspected URL instead

Estas categorías a menudo pueden indicar problemas de calidad y / o problemas de presupuesto de rastreo. Es súper importante que los propietarios de sitios se incluyan en estas categorías y entiendan lo que está ahí.

  • Por cierto, arrastrando sus propios sitios no no
  • ayudarán aquí, ya que no sabrá si las páginas se clasifican. como “arrastrado, no indexado”, o “descubierto, no indexado”. Puede probarlos en la consola de búsqueda de Google por URL utilizando la herramienta de inspección de URL, pero que no funcionará a granel.

Cuando se cavan en estas dos categorías, a menudo encuentro contenido de baja calidad o delgado allí, o correosCkets de un sitio que google no le gusta por alguna razón. La capacidad de exportar completamente estos datos sería increíble.

    Como ejemplo reciente, un cliente tuvo una URL de 256K categorizada como “arrastrada, no indexada” y se extendieron varias categorías en todo el sitio. Los informes

  • no
  • cubren todos los patrones del sitio. Sería extremadamente útil exportar a todas esas URL, por lo que el equipo de dev y el equipo de contenido de mi cliente podría pasar a través de ellos para identificar problemas clave (y luego construir un plan para arreglarlos).

  • y ese mismo cliente ha terminado Las URL de 1M categorizadas como “descubiertas, no indexadas”. Una vez más, sería genial ver esas URL (o al menos más de ellas), y a través de los tipos de páginas, para analizar mejor la situación.
A screenshot of Google SEarch Console showing a site with over 260,000 pages affected by the Soft 404 error Problemas de canonicalización

Hay varias categorías en la consola de búsqueda de Google que marca cuando Google está eligiendo una URL canónica

diferente
. Esto es extremadamente importante para que los propietarios de sitios comprendan. Por ejemplo, “Duplicar, Google eligió diferentes canónicos que el usuario” y “Duplicar, envió URL no seleccionado como canónico”. La capacidad de exportar todas las URL (o más de ellas) y analizar cada situación a los patrones de superficie sería genial. Por ahora, solo puede ver mil urls y no hay forma de que pueda representar plenamente algunos sitios de mayor escala que puedan tener millones de páginas indexadas (o más).

Dado que REL = Canonical es una pista, Google Puede optar por ignorarlo y índice URL de todos modos. Y cuando eso sucede, muchas URL pueden terminar obteniéndose indexadas que no deberían, pero los propietarios de sitios a menudoNo tengo idea de eso está sucediendo. Y eso puede llevar a problemas (como muchas páginas de menor calidad que se indexan cuando los propietarios del sitio pensaron que estaban siendo canonicalizados). Ser capaz de exportar todas las URL que entran en estas dos categorías serían útiles para comprender cómo Google está manejando ciertas situaciones.

Como ejemplo, estaba auditando el sitio de un cliente que contiene muchas reseñas y estaban canonicando muchos Páginas en todo el sitio, pero a las páginas con


contenido diferente

. Automáticamente asumieron que esas páginas no se indexarían. Dado que Google Views rel = canonical como Sugerencia , terminó ignorando rel = canónico en muchas de esas páginas. El problema era que las páginas eran delgadas y de menor calidad y muchas se estaban indexando. Es un sitio grande y no alL de las URL en ese tipo de página se manejaban de esta manera. Por lo tanto, ser capaz de exportar una lista completa habría sido increíble.


Nota: Aquí hay un Post que escribí sobre esta situación (Google ignorando Rel = Canonical, lo que resulta en muchas páginas que se indexan cuando no deberían ser). Soft 404s Sé que la consola de búsqueda de Google ha mejorado Esta categoría recientemente, que es genial, pero aún es importante que los propietarios de sitios entiendan donde residen los 404s blando. Para sitios más grandes y complejos, aquellos pueden ubicarse en todo un sitio y en diferentes categorías. La capacidad de exportar estos datos a granel puede ayudarles a cazar esos problemas y manejarlo en consecuencia. Esto también puede ayudar a los sitios que tienen productos fuera de stock o de ese HANVE Venció ofertas o campañas. Para sitios más grandes, es posible que no tengan idea de que esas páginas todavía están en el sitio que devuelven 200 códigos, comiendo un presupuesto de rastreo, etc. También he encontrado situaciones en las que solo algunas de esas páginas están siendo tratadas como 404s blando. por Google, mientras que muchos otros están siendo indexados. Y esas páginas no tienen un disparo en la reunión o exceder las expectativas del usuario. Por ejemplo, un cliente tenía más de 261K Soft 404S hasta que los cambios recientes de la consola de búsqueda de Google se implementan a principios de enero. Habría sido útil poder exportar esos suaves 404s. Es un sitio enorme, con varias fuentes de datos que se están utilizando, y a menudo es difícil para el equipo de Dev rastrear las páginas de esta manera. Únase a mí en el búsqueda de más cobertura la mil fila lLos informes de cobertura de IMIT en Google Search Console pueden ser extremadamente frustrantes para enfrentar los sitios más grandes. Al proporcionar una API o las exportaciones aún más grandes, los propietarios de sitios podrían rastrear más patrones de todos los sitios. Y eso podría acelerar el proceso de rectificar esos problemas. Si administra un sitio más grande, es posible que también haya experimentado esta frustración. Y es por eso que quiero escuchar de la comunidad de SEO más grande sobre esto. A continuación, he incorporado una encuesta para que pueda escuchar su voz. No tardará mucho en llenar, y quizás, solo, tal vez, podemos compartir los resultados con Google mientras realizamos un caso para recibir exportaciones más grandes de los informes de cobertura de Google Search Console. Y si la comunidad en general de SEO no siente que hay una necesidad de exportaciones más grandes de GLos informes de cobertura de la consola de la búsqueda de Oogle, lo aceptaré, continuaré y miraré a mil filas en la consola de búsqueda de Google para el futuro previsible. ¡Gracias de antemano por su participación! Las opiniones expresadas en este artículo son las del autor invitado y no necesariamente la tierra de los motores de búsqueda. Los autores del personal se enumeran aquí .

Leave a Reply

Your email address will not be published. Required fields are marked *