SlideShare una empresa de Scribd logo
1 de 51
Descargar para leer sin conexión
Mi nombre es
Marcos Herrera
@marcos_dice
sb.digital
# S E O DAY P E R Ú
# S E O DAY P E R Ú
¿Qué?
S u modelo está basado en el scrapeo / importación de data externo, y en la
ordenación de este.
¿Para que?
El valor de los agregadores de contenido es el facilitar la localización del
mejor producto /información y proporcionar una fuente de tráfico y
visibilidad a la fuente
¿ Có m o ?
Captan el tráfico principalmente a través de las taxonomías, no indexan los
VIP (View item page) ya que son 100% contenido duplicado
# S E O DAY P E R Ú
# S E O DAY P E R Ú
# S E O DAY P E R Ú
# S E O DAY P E R Ú
¿Qué?
Basados en un motor de procesar múltiples bases de datos (inmensas) y
devolver un listado de resultados
¿Para que?
El valor añadido aquí es el motor de procesamiento de la información de
múltiples bases de datos (por ejemplo eDreams buscando en varias
aerolíneas) para facilitar el mejor resultado al usuario
¿ Có m o ?
Al tener un coste de procesamiento alto, no pueden dejar
indexadas/precargadas las consultas, y por ello dependen exclusivamente
de landing pages para su adquisición de tráfico orgánico
# S E O DAY P E R Ú
# S E O DAY P E R Ú
# S E O DAY P E R Ú
# S E O DAY P E R Ú
# S E O D A Y P E R Ú
¿Qué?
Basado en la indexación de un catálogo de productos, información...
¿Para que?
El valor añadido aquí al usuario, depende de la calidad de la base de datos
o por ejemplo de atributos que la hagan única (precios, productos…)
¿ C ó m o ?
Dependen de la optimización S E O del catálogo de productos para
indexarse; generalmente tienen mayor dependencia de los VIPs para la
consecución del tráfico.
# S E O DAY P E R Ú
# S E O DAY P E R Ú
# S E O DAY P E R Ú
# S E O DAY P E R Ú
# S E O DAY P E R Ú
# S E O DAY P E R Ú
¿Qué?
Basados en la facilitación de un entorno de interacción entre usuarios
¿Para que?
El usuario recibe un lugar en el que poder realizar un intercambio
(económico, de información…) con otro usuario; sobre un contenido
generado por él.
¿ Có m o ?
Dependen principalmente de la optimización S E O de las taxonomizaciones
y el enlazado interno; generalmente los VIP son de baja calidad y no
pueden ser ser optimizados. Destacar también la dependencia de los
usuarios para el buen funcionamiento.
# S E O DAY P E R Ú
# S E O DAY P E R Ú
# S E O DAY P E R Ú
# S E O DAY P E R Ú
# S E O DAY P E R Ú
# S E O DAY P E R Ú
1: El “tienes que desarrollar un caso para que
consideramos ese proyecto”
…
# S E O DAY P E R Ú
2: El “los llaman dinosaurios por algo” y no les
hables de P W A , AMP….
# S E O DAY P E R Ú
3: El “solo son un par de pasos para arrancarlo”
# S E O DAY P E R Ú
…
4: El “la plataforma we b es una m o m ia ”
# S E O DAY P E R Ú
●
●
5: El “Todo está en llamas”
# S E O D A Y P E R Ú
One of the most frustrating things, is even if you have a really small update, sometimes it can take a
really long time. Want to tweak a title on a page, it could be weeks, months or more because it is not
a businesspriority.
We can just leave this one at that.
5: El “hasta el mínimo cambio puede fustrarte”
# S E O DAY P E R Ú
# S E O DAY P E R Ú
En general, todos los sites grandes cuentan con problemáticas asociadas a sus VIP en relación a los
contenidos:
● Uso de la descripción de producto del manufacturador (que te la proporciona el distribuidor, a tí, y a
todo el mundo).
● Contenidos duplicados en versiones o modelos diferentes de producto
● Contenido generado por usuarios vagos
● Contenido generado por usuarios que ha sido publicado en otros sites
¿cómo lo soluciono?: En proyectos de escala; puedes tener que plantearte incluso limitar la indexación
de los VIP, o trabajarlos mediante contenido generado dinámicamente que aporte valor al usuario
(reviews, comparativas…). Pero en general, para un ecommerce de tamaño medio, escribir el contenido a
mano es una buena idea también.
Descripciones de producto “pobres”
No solo de contenido vive el SEO; a menudo hay un gran potencial de tráfico en los VIP (en
conjunto) y perdemos potencial al no optimizarlos, de unas keywords que además están en la
parte baja del funnel. Los problemas comunes y sus soluciones son:
● Sin reviews de producto - UX o programas de premio (por ejemplo pc componentes)
● Sin asignación de objetivos de keyword - Backend con guía de optimización para el
usuario y sobreescribir titles y H1 dinámicamente a partir de los campos del producto
● Carencia de imágenes o Alts - API de CloudVision o librería de imágenes interna
● Contenido poco extenso
Los patrones de escala (mediante reglas en H1, Titles…) son aquí un enorme aliado, sin
embargo debemos apoyarnos en el usuario también, cuando sea posible; o bien para reviews o
para la optimización del propio producto.
# S E O DAY P E R Ú
Páginas de producto no optimizadas
Típicamente el usuario no va a utilizar los enlaces del menú principal para llegar hasta lo que
está buscando; utilizará el buscador, y ese enlace no siempre es indexado o seguido.
De ser así, estaríamos perdiendo grandes oportunidades de tráfico, pero además enviándole
señales equivocadas a Google
Es crítico educar a los equipos de la importancia del enlazado interno, y de que este sea
consistente.
# S E O DAY P E R Ú
Problemas de enlazado interno
# S E O D A Y P E R Ú
Problemas de enlazado interno
Toda URL debe contener:
● Enlaces horizontales - hacia productos del mismo nivel y semánticamente cercanos
# S E O D A Y P E R Ú
Problemas de enlazado interno
Toda URL debe contener:
● Enlaces verticales - hacia categorías, subcategorías superiores e inferiores
# S E O DAY P E R Ú
Nuestro gran aliado es GSC, pero depender exclusivamente de él para la gestión de los parámetros con
él, es ineficiente. Los parámetros pueden generar millones de duplicados sin tu darte cuenta.
La solución es simple: una estructura de URLs clara es mejor que cualquier bot.
Pero por si acaso, asegurate de que tienes bien configurados los parámetros en Google Search Console,
indicándole a Google cuáles debe indexar, y cuales no.
Problemas c o n la gestión de los parámetros
# S E O DAY P E R Ú
# S E O DAY P E R Ú
# S E O DAY P E R Ú
El crawling te va a matar
Cuando un motor de búsqueda vísita un sitio web, hay un límite de URLs que va a visitar: a esto lo llamamos el
Crawl budget Queremos asegurarnos de que Google visite e indexe el mayor número de páginas
importantes.
La acción a realizar es identificar los segmentos del sitio web que están consumiendo un largo % de
crawl budget y que no ofrece rendimiento en tráfico u objetivos, para implementar un Disallow.
# S E O DAY P E R Ú
El crawling te va a matar
Las métricas que quieres analizar para encontrar las oportunidades son:
➔ URLs visitadas por el crawler de Google (Logs) Vs. URLs crawleadas por tu crawler (Botify,
Deepcrawl, Oncrawl…)
Un segmento con un pequeño o nulo impacto en visitas, pero generando un gran número de URLs es
ineficiente en términos de atracción de tráfico y podría ser, potencialmente eliminado, sin impacto en
tráfico.
➔ El total de URLs crawleadas por Google Vs el % de URLs activas
Un indicador fuerte es la correlación entre el número de URLs que Google está crawleado y el % de
URLs activas (que reciben tráfico). Si Google está perdiendo el tiempo en un segmento que no tiene
potencial de tráfico, es el momento de eliminarlo.
# S E O DAY P E R Ú
El crawling te va a matar: acciones
Analiza cuantos enlaces tiene el
segmento que vas a Disallowear. Una
URL disalloweada puede seguir
indexando si recibe un enlace externo,
pero no transferirá autoridad.
Normalmente las URLs que no tienen
mucho crawl rate, no reciben muchos
enlaces externos (pero asegurate).
# S E O D A Y P E R Ú
El crawling te va a matar: consideraciones
Asegurate de que las URLs que estás
Disalloweando, no tienen potencial de
tráfico; puede que el problema venga
por la optimización.
La clave aquí es medir la diferencia
entre las impresiones que reciben y el
total de clics que obtenen, para asesorar
el tamaño de la oportunidad.
# S E O D A Y P E R Ú
El crawling te va a matar: consideraciones
# S E O DAY P E R Ú
El crawling te va a matar: testeo
Una vez has tomado las primeras
decisiones, es el momento de ejecutar un
segundo crawleo con un robots.txt virtual.
Mediante ello, podrás identificar qué pinta tiene
el site una vez has disalloweado esos
segmentos. Principalmente analizaría:
➔VIP accessibility:
Eliminar esas navegaciones y filtrados, ha
eliminado muchos enlaces internos a los VIPs?
➔VIP depth:
Eliminar esas navegaciones y filtrados, ha
hecho que los VIP sean significativamente más
profundos? (clic depth)
# S E O DAY P E R Ú
El crawling te va a matar: trás el cambio
A menudo, el SEO no se lleva bien con el PPC: Objetivos diferentes, competimos en las mismas
SERPs….
Pero nos estamos perdiendo oportunidades de creación de landings o estamos perdiendo dinero por
apostar en los términos incorrectos.
La integración de los equipos de SEO y SEM es crítica. Los equipos de SEO podemos obtener de
SEM los datos de keyword que Google nos oculta, y los equipos de SEM pueden obtener datos sobre
cómo mejorar la inversión de sus presupuestos al eliminar del set up de la campaña, keywords dónde
aparecemos por SEO y sabemos que tenemos una conversión baja.
# S E O DAY P E R Ú
Colaboración entre S E O y SEM
# S E O DAY P E R Ú
# S E O DAY P E R Ú
● Gran autoridad de dominio. Las webs grandes normalmente llevan un tiempo ya por el
mundo; y eso implica que tienen mucha autoridad de dominio, por lo que los esfuerzos
de SEO funcionaránmejor.
● Generalmente posicionan mejor. Google suele ponerle ojitos a las webs con millones
de URLs y calidad(media).
● Utilizan plantillas. Aunque normalmente los sites grandes son antiguos, todos suelen
utiliza tecnologías basadas en templates que nos permite hacer cambios sitewide. Eso
es mejor que ir 1 por 1 en el yoast,no?
● Ganan más dinero. Las webs grandes tienen mucho contenido alque extraerle
potencial, y eso les permite invertir más fuerte en orgánico (si conseguimos
convencerles).
● Tienen una fuerza de marca mayor. Hay dos motivos por lo que esto es bueno; en
primer lugar esto es una garantía de tráfico y por tanto de posicionamiento al poder
enviar tráfico a aquello que quieras posicionar, y después… que queda muy bien en tu
CV :)
Arquitectura web para sitios enormes  - Marcos Herrera

Más contenido relacionado

La actualidad más candente

La actualidad más candente (20)

Clinicseo ecommmarketing
Clinicseo ecommmarketingClinicseo ecommmarketing
Clinicseo ecommmarketing
 
SEO Una profesión en auge
SEO Una profesión en augeSEO Una profesión en auge
SEO Una profesión en auge
 
Arquitectura información para usuarios (UX) y buscadores (SEO)
Arquitectura información para usuarios (UX) y buscadores (SEO)Arquitectura información para usuarios (UX) y buscadores (SEO)
Arquitectura información para usuarios (UX) y buscadores (SEO)
 
Posicionamiento en Buscadores - SEO
Posicionamiento en Buscadores - SEOPosicionamiento en Buscadores - SEO
Posicionamiento en Buscadores - SEO
 
Caso de Estudio SEO: Elige tu propia aventura #CW17
Caso de Estudio SEO: Elige tu propia aventura #CW17Caso de Estudio SEO: Elige tu propia aventura #CW17
Caso de Estudio SEO: Elige tu propia aventura #CW17
 
Wordpress para Bloggers: De cero a héroe
Wordpress para Bloggers: De cero a héroeWordpress para Bloggers: De cero a héroe
Wordpress para Bloggers: De cero a héroe
 
Seo Sem Smo
Seo Sem SmoSeo Sem Smo
Seo Sem Smo
 
Práctico Manual sobre Marketing Online orientado a Conversiones.
Práctico Manual sobre Marketing Online orientado a Conversiones.Práctico Manual sobre Marketing Online orientado a Conversiones.
Práctico Manual sobre Marketing Online orientado a Conversiones.
 
Search marketing: cuando el SEO ya no es suficiente
Search marketing: cuando el SEO ya no es suficienteSearch marketing: cuando el SEO ya no es suficiente
Search marketing: cuando el SEO ya no es suficiente
 
Básicos del SEO periodístico
Básicos del SEO periodísticoBásicos del SEO periodístico
Básicos del SEO periodístico
 
Presentación Sem
Presentación SemPresentación Sem
Presentación Sem
 
Taller SEO (Mayo 2010)
Taller SEO (Mayo 2010)Taller SEO (Mayo 2010)
Taller SEO (Mayo 2010)
 
SEO técnico, Sin miedo al código - Congreso Web 2014
SEO técnico, Sin miedo al código - Congreso Web 2014SEO técnico, Sin miedo al código - Congreso Web 2014
SEO técnico, Sin miedo al código - Congreso Web 2014
 
Marketing de Busqueda: SEM e SEO, by Martha Gabriel
Marketing de Busqueda: SEM e SEO, by Martha GabrielMarketing de Busqueda: SEM e SEO, by Martha Gabriel
Marketing de Busqueda: SEM e SEO, by Martha Gabriel
 
Estrategias de seo on page - Victoria Olsina - SEMrush webinar
Estrategias de seo on page - Victoria Olsina - SEMrush webinarEstrategias de seo on page - Victoria Olsina - SEMrush webinar
Estrategias de seo on page - Victoria Olsina - SEMrush webinar
 
Seo On Page para WordPress
Seo On Page para WordPressSeo On Page para WordPress
Seo On Page para WordPress
 
SóLo Sé Que No Seo Nada
SóLo Sé Que No Seo NadaSóLo Sé Que No Seo Nada
SóLo Sé Que No Seo Nada
 
Diagnóstico SEO Técnico con Herramientas #TheInbounder
Diagnóstico SEO Técnico con Herramientas #TheInbounderDiagnóstico SEO Técnico con Herramientas #TheInbounder
Diagnóstico SEO Técnico con Herramientas #TheInbounder
 
Analítica Web y SEO - Human Level Communications
Analítica Web y SEO - Human Level CommunicationsAnalítica Web y SEO - Human Level Communications
Analítica Web y SEO - Human Level Communications
 
Análisis de GoogleBot con Google Analytics por Lino Uruñuela
Análisis de GoogleBot con Google Analytics por Lino UruñuelaAnálisis de GoogleBot con Google Analytics por Lino Uruñuela
Análisis de GoogleBot con Google Analytics por Lino Uruñuela
 

Similar a Arquitectura web para sitios enormes - Marcos Herrera

Google Analytics, Seo, Social Media
Google Analytics, Seo, Social MediaGoogle Analytics, Seo, Social Media
Google Analytics, Seo, Social Media
Johaeli92
 
Semana 4 herramientas para atraer clientes a través de motores de búsqueda se...
Semana 4 herramientas para atraer clientes a través de motores de búsqueda se...Semana 4 herramientas para atraer clientes a través de motores de búsqueda se...
Semana 4 herramientas para atraer clientes a través de motores de búsqueda se...
Sarahí Rivera
 

Similar a Arquitectura web para sitios enormes - Marcos Herrera (20)

Google analytics
Google analyticsGoogle analytics
Google analytics
 
Taller Search Engine Optimization (SEO) Academia Digital
Taller Search Engine Optimization (SEO) Academia DigitalTaller Search Engine Optimization (SEO) Academia Digital
Taller Search Engine Optimization (SEO) Academia Digital
 
SEO 2018
SEO 2018SEO 2018
SEO 2018
 
3A5 Trejo Alexandra -Tarea 2
3A5 Trejo Alexandra -Tarea 23A5 Trejo Alexandra -Tarea 2
3A5 Trejo Alexandra -Tarea 2
 
Marketing digital seo
Marketing digital seoMarketing digital seo
Marketing digital seo
 
10 Factores SEO más importantes en 2018
10 Factores SEO más importantes en 201810 Factores SEO más importantes en 2018
10 Factores SEO más importantes en 2018
 
Marketing online camara de comercio de málaga
Marketing online  camara de comercio de málagaMarketing online  camara de comercio de málaga
Marketing online camara de comercio de málaga
 
Taller Seo Academia Digital Sep09
Taller Seo Academia Digital Sep09Taller Seo Academia Digital Sep09
Taller Seo Academia Digital Sep09
 
M5 clase cinco - seo 2019
M5 clase cinco - seo 2019M5 clase cinco - seo 2019
M5 clase cinco - seo 2019
 
Google Analytics, Seo, Social Media
Google Analytics, Seo, Social MediaGoogle Analytics, Seo, Social Media
Google Analytics, Seo, Social Media
 
Jornadas seo-part1
Jornadas seo-part1Jornadas seo-part1
Jornadas seo-part1
 
SEO Basics
SEO BasicsSEO Basics
SEO Basics
 
Estrategias Marketing Digital
Estrategias Marketing DigitalEstrategias Marketing Digital
Estrategias Marketing Digital
 
Proyecto Fin Ciclo
Proyecto Fin CicloProyecto Fin Ciclo
Proyecto Fin Ciclo
 
SEO Factor 1 analisis y planificacion
SEO Factor 1 analisis y planificacionSEO Factor 1 analisis y planificacion
SEO Factor 1 analisis y planificacion
 
Audit de contenidos SEO - Webpositer Academy #DoYouSEO.pdf
Audit de contenidos SEO - Webpositer Academy #DoYouSEO.pdfAudit de contenidos SEO - Webpositer Academy #DoYouSEO.pdf
Audit de contenidos SEO - Webpositer Academy #DoYouSEO.pdf
 
Posicioná tu Sitio Web Para Captar Nuevos Clientes - Bruno Dangelo - Dahseo
Posicioná tu Sitio Web Para Captar Nuevos Clientes - Bruno Dangelo - DahseoPosicioná tu Sitio Web Para Captar Nuevos Clientes - Bruno Dangelo - Dahseo
Posicioná tu Sitio Web Para Captar Nuevos Clientes - Bruno Dangelo - Dahseo
 
Posicionamiento web Part1
Posicionamiento web Part1Posicionamiento web Part1
Posicionamiento web Part1
 
Semana 4 herramientas para atraer clientes a través de motores de búsqueda se...
Semana 4 herramientas para atraer clientes a través de motores de búsqueda se...Semana 4 herramientas para atraer clientes a través de motores de búsqueda se...
Semana 4 herramientas para atraer clientes a través de motores de búsqueda se...
 
Curso de Posicionamiento en Buscadores SEO - 2016
Curso de Posicionamiento en Buscadores SEO - 2016Curso de Posicionamiento en Buscadores SEO - 2016
Curso de Posicionamiento en Buscadores SEO - 2016
 

Más de Data Trust

Más de Data Trust (8)

Como optimizar la tasa de conversión - Rodrigo conde
Como optimizar la tasa de conversión - Rodrigo condeComo optimizar la tasa de conversión - Rodrigo conde
Como optimizar la tasa de conversión - Rodrigo conde
 
Es Perú un buen país para ser SEO - Chuiso
Es Perú un buen país para ser SEO - ChuisoEs Perú un buen país para ser SEO - Chuiso
Es Perú un buen país para ser SEO - Chuiso
 
WPO para Woocommerce - Alvaro Fontela
WPO para Woocommerce - Alvaro FontelaWPO para Woocommerce - Alvaro Fontela
WPO para Woocommerce - Alvaro Fontela
 
Formas creativas para conseguir enlaces - Alex Navarro
Formas creativas para conseguir enlaces - Alex NavarroFormas creativas para conseguir enlaces - Alex Navarro
Formas creativas para conseguir enlaces - Alex Navarro
 
Un puzzle de 4 piezas llamado seo - Luis Villanueva
Un puzzle de 4 piezas llamado seo  - Luis VillanuevaUn puzzle de 4 piezas llamado seo  - Luis Villanueva
Un puzzle de 4 piezas llamado seo - Luis Villanueva
 
La verdad sobre el email marketing y el seo - Ennio Castillo
La verdad sobre el email marketing y el seo - Ennio CastilloLa verdad sobre el email marketing y el seo - Ennio Castillo
La verdad sobre el email marketing y el seo - Ennio Castillo
 
Penalizaciones de Google - Sebastian Galanternik
Penalizaciones de Google - Sebastian GalanternikPenalizaciones de Google - Sebastian Galanternik
Penalizaciones de Google - Sebastian Galanternik
 
Seo branding - Jessica guerrero
Seo branding  - Jessica guerreroSeo branding  - Jessica guerrero
Seo branding - Jessica guerrero
 

Arquitectura web para sitios enormes - Marcos Herrera

  • 1.
  • 2. Mi nombre es Marcos Herrera @marcos_dice sb.digital
  • 3.
  • 4. # S E O DAY P E R Ú
  • 5. # S E O DAY P E R Ú ¿Qué? S u modelo está basado en el scrapeo / importación de data externo, y en la ordenación de este. ¿Para que? El valor de los agregadores de contenido es el facilitar la localización del mejor producto /información y proporcionar una fuente de tráfico y visibilidad a la fuente ¿ Có m o ? Captan el tráfico principalmente a través de las taxonomías, no indexan los VIP (View item page) ya que son 100% contenido duplicado
  • 6. # S E O DAY P E R Ú
  • 7. # S E O DAY P E R Ú
  • 8. # S E O DAY P E R Ú
  • 9. # S E O DAY P E R Ú ¿Qué? Basados en un motor de procesar múltiples bases de datos (inmensas) y devolver un listado de resultados ¿Para que? El valor añadido aquí es el motor de procesamiento de la información de múltiples bases de datos (por ejemplo eDreams buscando en varias aerolíneas) para facilitar el mejor resultado al usuario ¿ Có m o ? Al tener un coste de procesamiento alto, no pueden dejar indexadas/precargadas las consultas, y por ello dependen exclusivamente de landing pages para su adquisición de tráfico orgánico
  • 10. # S E O DAY P E R Ú
  • 11. # S E O DAY P E R Ú
  • 12. # S E O DAY P E R Ú
  • 13. # S E O DAY P E R Ú
  • 14. # S E O D A Y P E R Ú ¿Qué? Basado en la indexación de un catálogo de productos, información... ¿Para que? El valor añadido aquí al usuario, depende de la calidad de la base de datos o por ejemplo de atributos que la hagan única (precios, productos…) ¿ C ó m o ? Dependen de la optimización S E O del catálogo de productos para indexarse; generalmente tienen mayor dependencia de los VIPs para la consecución del tráfico.
  • 15. # S E O DAY P E R Ú
  • 16. # S E O DAY P E R Ú
  • 17. # S E O DAY P E R Ú
  • 18. # S E O DAY P E R Ú
  • 19. # S E O DAY P E R Ú
  • 20. # S E O DAY P E R Ú ¿Qué? Basados en la facilitación de un entorno de interacción entre usuarios ¿Para que? El usuario recibe un lugar en el que poder realizar un intercambio (económico, de información…) con otro usuario; sobre un contenido generado por él. ¿ Có m o ? Dependen principalmente de la optimización S E O de las taxonomizaciones y el enlazado interno; generalmente los VIP son de baja calidad y no pueden ser ser optimizados. Destacar también la dependencia de los usuarios para el buen funcionamiento.
  • 21. # S E O DAY P E R Ú
  • 22. # S E O DAY P E R Ú
  • 23. # S E O DAY P E R Ú
  • 24. # S E O DAY P E R Ú
  • 25. # S E O DAY P E R Ú
  • 26. # S E O DAY P E R Ú 1: El “tienes que desarrollar un caso para que consideramos ese proyecto” …
  • 27. # S E O DAY P E R Ú 2: El “los llaman dinosaurios por algo” y no les hables de P W A , AMP….
  • 28. # S E O DAY P E R Ú 3: El “solo son un par de pasos para arrancarlo”
  • 29. # S E O DAY P E R Ú … 4: El “la plataforma we b es una m o m ia ”
  • 30. # S E O DAY P E R Ú ● ● 5: El “Todo está en llamas”
  • 31. # S E O D A Y P E R Ú One of the most frustrating things, is even if you have a really small update, sometimes it can take a really long time. Want to tweak a title on a page, it could be weeks, months or more because it is not a businesspriority. We can just leave this one at that. 5: El “hasta el mínimo cambio puede fustrarte”
  • 32. # S E O DAY P E R Ú
  • 33. # S E O DAY P E R Ú En general, todos los sites grandes cuentan con problemáticas asociadas a sus VIP en relación a los contenidos: ● Uso de la descripción de producto del manufacturador (que te la proporciona el distribuidor, a tí, y a todo el mundo). ● Contenidos duplicados en versiones o modelos diferentes de producto ● Contenido generado por usuarios vagos ● Contenido generado por usuarios que ha sido publicado en otros sites ¿cómo lo soluciono?: En proyectos de escala; puedes tener que plantearte incluso limitar la indexación de los VIP, o trabajarlos mediante contenido generado dinámicamente que aporte valor al usuario (reviews, comparativas…). Pero en general, para un ecommerce de tamaño medio, escribir el contenido a mano es una buena idea también. Descripciones de producto “pobres”
  • 34. No solo de contenido vive el SEO; a menudo hay un gran potencial de tráfico en los VIP (en conjunto) y perdemos potencial al no optimizarlos, de unas keywords que además están en la parte baja del funnel. Los problemas comunes y sus soluciones son: ● Sin reviews de producto - UX o programas de premio (por ejemplo pc componentes) ● Sin asignación de objetivos de keyword - Backend con guía de optimización para el usuario y sobreescribir titles y H1 dinámicamente a partir de los campos del producto ● Carencia de imágenes o Alts - API de CloudVision o librería de imágenes interna ● Contenido poco extenso Los patrones de escala (mediante reglas en H1, Titles…) son aquí un enorme aliado, sin embargo debemos apoyarnos en el usuario también, cuando sea posible; o bien para reviews o para la optimización del propio producto. # S E O DAY P E R Ú Páginas de producto no optimizadas
  • 35. Típicamente el usuario no va a utilizar los enlaces del menú principal para llegar hasta lo que está buscando; utilizará el buscador, y ese enlace no siempre es indexado o seguido. De ser así, estaríamos perdiendo grandes oportunidades de tráfico, pero además enviándole señales equivocadas a Google Es crítico educar a los equipos de la importancia del enlazado interno, y de que este sea consistente. # S E O DAY P E R Ú Problemas de enlazado interno
  • 36. # S E O D A Y P E R Ú Problemas de enlazado interno Toda URL debe contener: ● Enlaces horizontales - hacia productos del mismo nivel y semánticamente cercanos
  • 37. # S E O D A Y P E R Ú Problemas de enlazado interno Toda URL debe contener: ● Enlaces verticales - hacia categorías, subcategorías superiores e inferiores
  • 38. # S E O DAY P E R Ú Nuestro gran aliado es GSC, pero depender exclusivamente de él para la gestión de los parámetros con él, es ineficiente. Los parámetros pueden generar millones de duplicados sin tu darte cuenta. La solución es simple: una estructura de URLs clara es mejor que cualquier bot. Pero por si acaso, asegurate de que tienes bien configurados los parámetros en Google Search Console, indicándole a Google cuáles debe indexar, y cuales no. Problemas c o n la gestión de los parámetros
  • 39. # S E O DAY P E R Ú
  • 40. # S E O DAY P E R Ú
  • 41. # S E O DAY P E R Ú El crawling te va a matar Cuando un motor de búsqueda vísita un sitio web, hay un límite de URLs que va a visitar: a esto lo llamamos el Crawl budget Queremos asegurarnos de que Google visite e indexe el mayor número de páginas importantes. La acción a realizar es identificar los segmentos del sitio web que están consumiendo un largo % de crawl budget y que no ofrece rendimiento en tráfico u objetivos, para implementar un Disallow.
  • 42. # S E O DAY P E R Ú El crawling te va a matar
  • 43. Las métricas que quieres analizar para encontrar las oportunidades son: ➔ URLs visitadas por el crawler de Google (Logs) Vs. URLs crawleadas por tu crawler (Botify, Deepcrawl, Oncrawl…) Un segmento con un pequeño o nulo impacto en visitas, pero generando un gran número de URLs es ineficiente en términos de atracción de tráfico y podría ser, potencialmente eliminado, sin impacto en tráfico. ➔ El total de URLs crawleadas por Google Vs el % de URLs activas Un indicador fuerte es la correlación entre el número de URLs que Google está crawleado y el % de URLs activas (que reciben tráfico). Si Google está perdiendo el tiempo en un segmento que no tiene potencial de tráfico, es el momento de eliminarlo. # S E O DAY P E R Ú El crawling te va a matar: acciones
  • 44. Analiza cuantos enlaces tiene el segmento que vas a Disallowear. Una URL disalloweada puede seguir indexando si recibe un enlace externo, pero no transferirá autoridad. Normalmente las URLs que no tienen mucho crawl rate, no reciben muchos enlaces externos (pero asegurate). # S E O D A Y P E R Ú El crawling te va a matar: consideraciones
  • 45. Asegurate de que las URLs que estás Disalloweando, no tienen potencial de tráfico; puede que el problema venga por la optimización. La clave aquí es medir la diferencia entre las impresiones que reciben y el total de clics que obtenen, para asesorar el tamaño de la oportunidad. # S E O D A Y P E R Ú El crawling te va a matar: consideraciones
  • 46. # S E O DAY P E R Ú El crawling te va a matar: testeo Una vez has tomado las primeras decisiones, es el momento de ejecutar un segundo crawleo con un robots.txt virtual. Mediante ello, podrás identificar qué pinta tiene el site una vez has disalloweado esos segmentos. Principalmente analizaría: ➔VIP accessibility: Eliminar esas navegaciones y filtrados, ha eliminado muchos enlaces internos a los VIPs? ➔VIP depth: Eliminar esas navegaciones y filtrados, ha hecho que los VIP sean significativamente más profundos? (clic depth)
  • 47. # S E O DAY P E R Ú El crawling te va a matar: trás el cambio
  • 48. A menudo, el SEO no se lleva bien con el PPC: Objetivos diferentes, competimos en las mismas SERPs…. Pero nos estamos perdiendo oportunidades de creación de landings o estamos perdiendo dinero por apostar en los términos incorrectos. La integración de los equipos de SEO y SEM es crítica. Los equipos de SEO podemos obtener de SEM los datos de keyword que Google nos oculta, y los equipos de SEM pueden obtener datos sobre cómo mejorar la inversión de sus presupuestos al eliminar del set up de la campaña, keywords dónde aparecemos por SEO y sabemos que tenemos una conversión baja. # S E O DAY P E R Ú Colaboración entre S E O y SEM
  • 49. # S E O DAY P E R Ú
  • 50. # S E O DAY P E R Ú ● Gran autoridad de dominio. Las webs grandes normalmente llevan un tiempo ya por el mundo; y eso implica que tienen mucha autoridad de dominio, por lo que los esfuerzos de SEO funcionaránmejor. ● Generalmente posicionan mejor. Google suele ponerle ojitos a las webs con millones de URLs y calidad(media). ● Utilizan plantillas. Aunque normalmente los sites grandes son antiguos, todos suelen utiliza tecnologías basadas en templates que nos permite hacer cambios sitewide. Eso es mejor que ir 1 por 1 en el yoast,no? ● Ganan más dinero. Las webs grandes tienen mucho contenido alque extraerle potencial, y eso les permite invertir más fuerte en orgánico (si conseguimos convencerles). ● Tienen una fuerza de marca mayor. Hay dos motivos por lo que esto es bueno; en primer lugar esto es una garantía de tráfico y por tanto de posicionamiento al poder enviar tráfico a aquello que quieras posicionar, y después… que queda muy bien en tu CV :)