Este documento describe cómo configurar un rastreador de sitios web en la nube utilizando Screaming Frog y automatizar procesos con Integromat. Explica cómo crear una máquina virtual en Google Cloud, instalar Screaming Frog, programar rastreos periódicos con CRON y conectar la herramienta con Integromat para automatizar informes y notificaciones por correo electrónico. El objetivo es poder realizar rastreos masivos de manera remota y libre de recursos locales, además de simplificar tareas mediante la automatización de pro
9. La
nube #SEOPLUS19
Permite lanzar el rastreo sin necesidad de tener el ordenador
encendido (o consumir recursos locales)
Instancia básica: 1 vCPU, 3,75 GB de memoria, 50 GB de disco...
unos ¡25€ / mes! (24 horas encendida)
Rastreos de hasta 3 millones de URL
300$ de saldo gratis para empezar
- Google Cloud
Rastreos programados (incluso con el ordenador apagado)
10. ¿Qué vamos a necesitar?
#SEOPLUS19
● Una licencia de Screaming Frog
● FTP → Configurar FTP en nuestra máquina, con un
usuario de acceso + un cliente FTP para conectarnos.
● IP Fija → Para poder automatizar procesos con
Integromat
21. #SEOPLUS19
2. Subir la config a la nube vía
FTP
1 Localizamos la IP de nuestra máquina
2 Nos conectamos vía FTP
3 Subimos el archivo de configuración
29. #SEOPLUS19
screamingfrogseospider --crawl {URL} --config {directorio}
--headless --save-crawl --output-folder {/home/ftpuser} --
export-tabs {columnas a exportar TAB;FILTER} &disown
Documentación: https://www.screamingfrog.co.uk/seo-spider/user-
guide/general/
Lanzando el rastreo (the hard
way)
30. Lanzando el rastreo the easy
way
Generador automático de
comandos para lanzar tu
rastreo.
#SEOPLUS19
https://internetrepublica.com/generador-de-
comandos-de-consola-de-screaming-frog/
Cortesía de @carlosestevez_
39. Automatización de procesos
#SEOPLUS19
● Plataforma de uso freemium: 1.000 operaciones mensuales gratis
● Si no es suficiente, por 9$/mes tenemos 10K operaciones
● Integraciones con multitud de herramientas y conectores para
automatizar procesos
46. Conclusiones
#SEOPLUS19
Podemos crear nuestro propio crawler cloud,
capaz de:
1
● Rastrear sitios web de miles (y millones) de URL
● Hacerlo con el ordenador apagado
● Desde la nube y sin consumir recursos
locales● Programar rastreos periódicos
47. Conclusiones
4
#SEOPLUS19
Con los datos que obtenemos también se pueden
automatizar informes personalizados
SEOs no técnicos: FUERA COMPLEJOS
2
3 Invertimos más tiempo en tomar decisiones que
en generar datos