Las bibliotecas de Python son una forma divertida y accesible Para comenzar con el aprendizaje y el uso de Python para SEO.
Una biblioteca de Python es una colección de funciones y código útiles que le permiten completar una serie de tareas sin necesidad de escribir el código desde cero.
Hay más de 100,000 bibliotecas disponibles para usar en Python, que se pueden usar para funciones del análisis de datos para crear videojuegos.
En este artículo, encontrará varias bibliotecas diferentes que he usado para completar SEO Proyectos y tareas. Todos ellos son agradables para principiantes y encontrará mucha documentación y recursos para ayudarlo a comenzar.
¿Por qué son el biblioteca de Python?¿Es útil para SEO?
Cada biblioteca de Python contiene funciones y variables de todos los tipos (matrices, diccionarios, objetos, etc.) que se pueden usar para realizar diferentes tareas.
AnunciCementContinue leyendo a continuación para SEO, por ejemplo, se pueden usar para automatizar ciertas cosas, predecir los resultados y proporcionar información inteligente.
Es posible trabajar con la vanilla Python, pero las bibliotecas pueden ser
para hacer que las tareas mucho se utilicen. Más fácil
y más rápido para escribir y completar.
Bibliotecas de Python para tareas de SEO
Hay una serie de bibliotecas de Python útiles para las tareas de SEO, incluido
Análisis de datos
, Web Raspando, y visualizando las ideas.
Esta no es una lista exhaustiva, pero estas son las bibliotecas que me encuentro usando el máximo con fines de SEO.
Panda
Los fromas de datos son similares a Excel
Hojas de cálculo
, sin embargo, no se limitan a los límites de fila y byte y también están Mucho más rápido y más eficiente.
La mejor manera de comenzar con Pandas es para tomar un simple CSV de datos (un rastro de su sitio web, por ejemplo) y guardar esto dentro de Python como un protector de datos.
Advertisementcontinue Lectura a continuación
Una vez que se haya almacenado en Python, puede realizar una serie de tareas de análisis diferentes, incluidos los datos de agregación, pivotamiento y limpieza.
Por ejemplo, si tengo un completo rastreo de mi sitio web y quiere extraer solo aquellas páginas que son indexabLE, usaré una función de pandas incorporada para incluir solo aquellas URL en mi contexto de datos.
Importar Pandas como PD DF = PD.READ_CSV (‘/ Users / Rutheverett / Documentos / Carpeta / File_name.csv’ ) df.headindexable = df [(df.indexable == true)] indexable
Solicitudes
La siguiente biblioteca se llama solicitudes y se usa para hacer solicitudes HTTP en Python.
Las solicitudes usan diferentes métodos de solicitud, como obtener y publicar para hacer una solicitud, con los resultados que se almacenan en Python.
Un ejemplo de esto en acción es una simple solicitud de URL, esto imprimirá el Código de estado de una página:
Importar SolicitsResponse = SolicituS.Get (‘https://www.deepcraw..com’) Imprimir (Respuesta)
Puede usar este resultado para crear un Función de toma de decisiones, donde un código de estado de 200 significa el PAGE está disponible, pero 404 significa que la página no se encuentra la página.
SI Response.Status_code == 200: Imprimir (‘Éxito’)) Elif Response.Status_code == 404: Imprimir (‘No encontrado’).
También puede usar diferentes solicitudes, tales como encabezados, que muestran información útil sobre la página como el tipo de contenido o cuánto tiempo tardó en cachar la respuesta.
encabezados = Response.HeadersPrint (encabezados ) Respuesta.Headers [‘Tipo de contenido’]
También existe la capacidad de simular a un agente de usuario específico, como Googlebot, para extraer la respuesta, este BOT específico verá al rastrear la página.
encabezados = {‘Agente de usuario’: ‘Mozilla / 5.0 (compatible; Googlebot / 2.1; + http: //www.google.com/bot.html)’} ua_response = SolicituS.Get (‘https : //www.deepcrawn.com/ ‘, encabezados = encabezados) Imprimir (UA_RESPONSE)
Hermosa sopa
Hermosa sopa es una biblioteca que se usa para extraer datos de archivos HTML y XML. Dato de diversión: la biblioteca de Beautifulsupe fue nombrada por el poema de las aventuras de Alice’s en Wonderland por Lewis Carroll.
AnunciCementContinue Lectura a continuación
Como biblioteca, BeautifulSoup se usa para dar sentido a los archivos web y es Más útiles utilizados para el raspado web, ya que puede transformar un documento HTML en diferentes objetos de Python.
Por ejemplo, puede tomar una URL y usar una sopa hermosa junto con la biblioteca de solicitudes para extraer el título de la página.
de BS4 Import BeautifulSoup Import SolectsSURL = ‘https://www.deepclaw.com’ req = Solks.Get (URL) Soup = BeautifulSoup (req.text, “html.parser”) Título = Sopa. tetale impresión (título)
Además, utilizando el método Find_all, BeautifulSoup le permite extraer ciertos elementos de una página, como todos Un enlace HREF en la página:
advertisementcontinue leyendo a continuación
url = ‘https://www.deepcrawl.com/knowledge/technical-seo-library/’ req = SolicituS.Get (URL) SOPS = BeautifulSoup ( req.text, “html.parser”) para enlace en sopa.find_all (‘a’): impresión (link.get (‘href’))
Juntos juntos
Estas tres bibliotecas también se pueden usar juntas, con las solicitudes utilizadas para hacer la solicitud HTTP a la página, nos gustaría usar BeautifulSoup para extraer información de. Luego podemos transformar los datos en bruto en un marco de datos de Pandas para realizar un análisis adicional.
URL = ‘HTTPS://www.deepcrawn.com/blog/’req = SolicituS.Get (URL) SOPS = BeautifulSoup (req.text, “html.parser”) Enlaces = sopa.find_all (‘a’) df = pd.dataframe ({ ‘Enlaces’: enlaces}) DF
matplotlib y el mar
matplotlib y el marbano son dos bibliotecas de python utilizadas para crear visualizaciones.
matplotlib le permite crear una cantidad de diferentes Visualizaciones de datos tales como gráficos de barras, gráficos de línea, histogramas e incluso calentadores de calor.
AnunciCementContinue Reading a continuación Por ejemplo, si quisiera tomar algunos datos de las tendencias de Google para mostrar las consultas con la mayor popularidad durante un período de 30 Días, pude crear un gráfico de barras en MatPlotlib para visualizar todos estos.
Seaboral, que se construye sobre Matplotlib, establece incluso Más patrones de visualización, tales comoScatterPlots, trampas de caja y parcelas de violín además de los gráficos de línea y barra.
Se diferencia ligeramente de MatPlotlib a medida que utiliza menos sintaxis y tiene temas predeterminados incorporados. AnuncioContinue leyendo a continuación
La forma en que he usado el marborn es crear gráficos de línea para visualizar los visitas de archivo de registro a ciertos segmentos de un sitio web a lo largo del tiempo.
SNS.LinePlot (x = “mes”, y = “log_requests_total”, hue = ‘categoría’, datos = pivot_status) PLT.Show ()
Publicaciones
Publicaciones es una biblioteca creada por
Elias Dabbas
que se puede usar para ayudar a administrar, comprender y tomar decisiones basadas en los datos que tenemos como profesionales de SEO y comercializadores digitales. AnunciCementContinue leyendo a continuación
Análisis del Mapa del sitio
Esta biblioteca le permite realizar una serie de tareas diferentes, como descargar, analizar y analizar
XML Sitemaps
para extraer patrones o analizar con qué frecuencia se agrega o cambia el contenido.
Robots.txt Analysis
Otra cosa interesante que puede hacer con esta biblioteca es usar una función a
Extraer a los robots.txt
de un sitio web en un contexto de datos. Para comprender y analizar fácilmente las reglas establecidas.
También puede ejecutar una prueba dentro de la biblioteca para verificar si un agente de usuario en particular puede obtener CERTAEn las URL o las rutas de la carpeta.
Análisis de URL
Publicidad También le permite
analizar y analizar las URL
para extraer información y comprender mejor los análisis , Serp y datos de rastreo para ciertos conjuntos de URL.
También puede dividir las URL utilizando la biblioteca para determinar las cosas como el esquema HTTP, la ruta principal, los parámetros adicionales y las cadenas de consulta.
Selenio
Selenium es una biblioteca de Python que se usa generalmente para fines de automatización. El caso de uso más común es la prueba de aplicaciones web.
PublicidadContinue Lectura a continuación
Un ejemplo popular de selenio que automatiza un flujo es un script que abre un navegador y realiza una cantidad de pasos diferentes en una secuencia definida, como el llenado de formularios. o haciendo clic en ciertos bCondiciones
El selenio emplea el mismo principio que se usa en la biblioteca de solicitudes que cubrimos anteriormente.
Sin embargo, sin embargo, no solo enviará la solicitud y esperará la respuesta, sino que también hará que la página web que se está solicitando
para comenzar con Selenium, necesitará un WOBdriver para realizar las interacciones con el navegador.
Son fáciles de descargar y configurar con su código Python.
Aquí hay un artículo útil
que explica el proceso de configuración, con un proyecto de ejemplo.
La biblioteca final que quería cubrir en este artículo está seculando.
Si bien podemos usar el módulo de solicitudes para rastrear y extraer datos internosDesde una página web, para aprobar esos datos y extraer ideas útiles, también debemos combinarlo con BeautifulSoup.
AnunciCementContinue Lectura a continuación
SCRAPADA Esencialmente le permite hacer ambas personas en una biblioteca.
SCRAPADY también es considerablemente más rápido y más poderoso, completa las solicitudes para rastrear, extraer y analizar datos en una secuencia establecida y le permite proteger los datos.
Se puede usar SCRAPADA para extraer todos los enlaces en una página determinada y Guardelos en un archivo de salida, por ejemplo.
Clase Superspider (CrawlSpider): Name = ‘Extractor’ permitido_Domains = [‘www.deepcrawl.com’] start_urls = [‘https://www.deepcrawl.com/knowledge/technical-seo-library/’] base_url = ‘https://www.deepcrawl.com’ def proupte (auto, respuesta): para enlace en respuesta.xpath (‘// DIV / P / A’): Rendimiento {“Link”: self.base_url + link.xpath (‘.//@ href’). Obtener () }
Puede tomar este paso más allá y seguir los enlaces que se encuentran en una página web para extraer información de todas las páginas que están vinculadas desde la URL de inicio, como una replicación a pequeña escala de Google Finding y siguiendo enlaces en una página. de Scrapy.Spiders Importar CrawlSpider, Rule Class Superspider (CrawlSpider): Name = ‘Follower’ look_Domains = [‘en.wikipedia.org’] start_urls = [‘https: / https: / /en.wikipedia.org/wiki/web_scraping ‘]base_url = ‘https://en.wikipedia.org’ custom_settings = {‘profundidad_limit’: 1} Def Parse (auto, respuesta): para NEXT_PAGE en respuesta.xpath (‘.// DIV / P / A’): Rendimiento Respuesta.Siguiente (Next_Page, Self.Parse) para la cita en respuesta.xpath (‘.// H1 / Texto ()’): Rendimiento {‘Cita’: quote.extract ()}
aprenda más sobre Estos proyectos, entre otros proyectos de ejemplo,
aquí .
Pensamientos finales
Como Hamlet Batista siempre dijo: “La mejor manera de aprender es por haciendo. “ PublicidadContinue leyendo a continuación Espero que descubrir que algunas de las bibliotecas disponibles le haya inspirado a comenzar con el aprendizaje de Python, o para profundizar su conocimiento.
Aportaciones de Python de la industria de SEO Hamlet también amó compartir REsources y proyectos de los de la comunidad de Python SEO. Para honrar su pasión por animar a otros, quería compartir algunas de las cosas increíbles que he visto de la comunidad.
Como maravilloso homenaje a Hamlet y la comunidad de SEO Python ayudó a cultivar,
Charly WARGNIER ha creado Seo Pythonistas para recopilar contribuciones de los increíbles proyectos de Python, aquellos en la comunidad de SEO han creado.
Se presentan las contribuciones invaluables de Hamlet a la comunidad de SEO.
MOSHE MA-YAFIT
creó un script Super
Cool para el análisis de archivos de registro , y en esta publicación explica cómo funciona el script. Las visualizaciones que puede mostrar, incluidos los éxitos de Google BOT por dispositivo, hits diarios por código de respuesta, código de respuesta% total, y más. Koray Tuğberk Gübür
está trabajando actualmente en un verificador de salud del Mapa del sitio. También organizó un seminario web de Ranksense con Elias Dabbas, donde compartió un script que registra los serps y analiza algoritmos.
AnunciCementContinue Lectura a continuación Esencialmente registra SERPS con diferencias de tiempo regulares, y puede rastrear todas las páginas de destino, mezclar datos y crear algunas correlaciones.
John Mcalpin escribió un artículo que detalla cómo puede usar Python y Data Studio para espiar a sus competidores
.
JC Chouinard escribió una guía completa para usar la API de REDDIT . Con esto, puede realizar cosas como extraer datos de REDDIT y publicar a un Subreddit. Rob puede está trabajando en una nueva herramienta de análisis de GSC y construyendo algunos nuevos DOmain / sitios reales en WIX para medir contra su competidor de WordPress de gama alta al documentarlo. Masaki Okazawa también compartió un script que analiza los datos de la consola de búsqueda de Google con Python. & # 127881; Feliz #RstWittorial Jueves con @Saksters & # 129395; Analizando los datos de la consola de búsqueda de Google con #python & # 128293; & # 128293; & # 128293; & # 128293; & # 128293; & # 128293; & # 128293; & # 128293; & # 128293 ; Aquí está la salida & # 128071; pic.twitter.com/9l5xc6usmt – RankSense (@RankSense) 25 de febrero de 2021 Más recursos: Cómo automatizar la herramienta de inspección de URL con Python & Javascript 6 Tareas de SEO Para automatizar con Python Seo técnico avanzado: A Guía completa advertisementcontinue leyendo a continuación Créditos de la imagen Todas las capturas de pantalla tomadas por el autor, marzo de 2021