SEO para E-commerce: Tres cosas a controlar en grandes portales ecommerce para su correcto posicionamiento. Taller impartido por Natzir Turrado y Daniel Pinillos durante el Congreso Web de 2015. Más info: http://www.analistaseo.es/posicionamiento-buscadores/frecuencia-rastreo/
5. @natzir9 / @seovision / #CW15
1.2. Entendiendo el crawling
• Los BOTS recorren internet (web visible por links). No ven la
deepweb aunque lo intenten.
• Lo hacen con sus bots, con browsers, con barras, etc.
• Guardan las URLs que encuentras en Servidores de URLs.
• Los sitios tienen asignado un crawl rate o crawl budget. Está
determinado por la autoridad, facilidad de crawleo y calidad de la
página.
6. @natzir9 / @seovision / #CW15
1. Crawling1.2. Entendiendo el crawling
• Las páginas que se crawlean menos reciben menos tráfico y al
revés, las páginas que se crawlean más reciben más tráfico.
• Pues ganar a una página con más autoridad teniendo más crawl
rate.
7. @natzir9 / @seovision / #CW15
• Google usa varios crawlers y user-agents:
- Googlebot (desktop y mobile)
- Googlebot-mobile (featured phones)
- Ver otros
• Para organizar qué partes queremos que google rastree,
tenemos que tener en cuenta qué quiere ver el usuario y qué
queremos enseñar al crawler.
- Por ejemplo las ordenaciones de productos las dejaremos
para el usuario pero no para el crawler.
1.2. Entendiendo el crawling
8. @natzir9 / @seovision / #CW15
• Respuestas del servidor para no molestar al bot:
- 200 -> es la respuesta que siempre hay que dar
- 3xx -> recomendable 301 (sigue 5 y luego da 404)
- 4xx -> no le gusta. Podemos eliminar con 410
- 5xx -> no le gusta. Devolver 503 en caso de
mantenimiento o por defecto hasta solucionar los errores.
- 750 -> Ej. Errores de parada de Varnish
1.2. Entendiendo el crawling
10. @natzir9 / @seovision / #CW15
• El acceso del crawler lo podemos capar de varias
formas:
- Capando IP o con un site cerrado por password
- Para intranets: entornos de staging, pre, dev.
- Capado por robots.txt de host:puerto
- Capado por meta robots (noindex, follow)
- Capado por meta en cabecera HTTP
- Enlaces bloqueados (js + robots.txt)
BOT
CONTROL
1.3. Optimización del crawling
11. @natzir9 / @seovision / #CW15
1.3. Optimización del crawling
• URLs que le gustan al bot:
- Efectivas: buena UX en página, con tráfico y no repetidas.
12. @natzir9 / @seovision / #CW15
1.3. Optimización del crawling
• Evita la “canonicalitis” y la “noindex, followitis”. Lo de la
“noindex, nofollowitis” ya es de juzgado de guardia…
• Una URL por intención de búsqueda, el resto capadas a menos
que exista mucho volumen de búsquedas y no canibalices. Ojo:
- tallas, colores, material, estado…
- combinaciones de filtros permitidas.
• Links que quieras que se rastreen siempre accesibles. Mira las
páginas en modo texto en caché (o navega con Lynx) y no hagas
caso del fetch & render para esto. Ej: siguiente diapo
15. @natzir9 / @seovision / #CW15
1.3. Optimización del crawling
• Gestión de stocks: ¿Vas a volverlo a tener?
- SI
· 200 y muestra similares (crosselling/upselling)
- NO: ¿Tienes productos similares?
· SI
+ 200 y crosselling/upselling. Compruébalas cada 3/6 meses
+ 301 solo a similares y nunca a home = soft 404
· NO
+ 410 Mejor solución en mala UX pero ojo con el crawl rate
16. @natzir9 / @seovision / #CW15
1.3. Optimización del crawling
• Paginados: ¿Pues cargar todos en una página en menos de 2-3s?
- SI
· View All: Paginados canonical + enlace a la view all
- NO: ¿Pierden mucho tiempo los bots?
· SI
+ Robots.txt (todas o a partir de cierto número)
· NO
+ Rel= Next, Prev (no uses canonical ni noindex, follow)
17. @natzir9 / @seovision / #CW15
1.3. Optimización del crawling
• Control de parámetros (querystrings, sessions):
- Ordenaciones, campañas, búsquedas y otras funcionalidades.
• AI:
- 3 niveles (distancia desde la home =! número de directorios)
- Potencia las zonas que interesen por negocio (link sculpting)
- Apóyate en sitemaps HTML (ayudan a acortar distancias)
• Y siempre, siempre, siempre analiza los logs dejados por los
bots antes de tomar una decisión.
20. @natzir9 / @seovision / #CW15
• Hay que saber diferenciar entre los tiempos de descarga de una
página para el bot y para el usuario. Por ejemplo, una página puede
tardar en descargarse 200ms para el bot y 20s al usuario.
• El impacto directo en SEO es lo que tarda una página en ser leída
por el bot porque afecta al crawling (TTFB + descarga). Intentad
tener TTFB de 200ms (en SSL difícil). Impacto indirecto en SEO, mala
perfomance = pogo-sticking del user contra la SERP.
• Google es más restrictivo en mobile que en desktop y podría
incluir el TTI en sus factores de ranking mobile.
1.4. El performance y el crawling
25. @natzir9 / @seovision / #CW15
1.4. El performance y el crawling
• Devolviendo tiempos de respuesta rápidos en el HTML
- imágenes e iconos (css sprites, escalado, compresión y cacheado)
- unificar minimizar y cachear js y css
• Paralelizar peticiones
• Resolución de DNS rápida (prefetching, minimización de peticiones,
CNAME…)
• Cacheo mediante proxys
• Generación de HTMLs estáticos (render del html si es js)
• ETAGS para dinámicos
• Expiración en cabeceras
• …
26. @natzir9 / @seovision / #CW15
• Es importante entender como trata Google los links:
- Accesibles
- No repetir el mismo <a href> en la página (a menos que te
interese pasar más peso y ojo con imágenes)
- Según la situación del link en el layout. Over the fold, entre
contenido, link en imágenes.
- No usar un número excesivo de links por páginas (300)
- Anchoring variado
1.5. Crawl/Link Sculpting
32. @natzir9 / @seovision / #CW15
• Crosselling y Upselling
- Son similares a crosslinks pero orientados a convertir.
- Elegiremos otras búsquedas hermanas.
- Estudiaremos cómo pasar mas linkjuice ( Autoridad)
- Links accesibles.
- Que estén próximos a los resultados o al producto.
- En producto podemos pintar unos a productos hermanos por
características.
- Pintaremos un upselling para poder vender un segmento más
alto o producto más completo.
1.5. Crawl/Link Sculpting
34. @natzir9 / @seovision / #CW15
• El robots desaparece o se modifica:
- Utiliza la tool Robotto, cachea el Robots.txt, si falla un 503
- Doble capado noindex, follow
• Se crean facetas sin avisar al SEO:
- Monitoriza con logs nuevas secciones descubiertas.
• % elevado de URLs con errores (4XX, 5XX, 7XX ) o excesivas 3XX.
• Enlaces no accesibles
• Canonical + noindex : te puede pasar el noindex a la canonical
• Exceso de URLs baja calidad. Ej: siguiente diapo.
1.6. Problemas comunes
37. @natzir9 / @seovision / #CW15
2. Arquitectura de la Información
Estructurar información haciendo que los usuarios la
encuentren intuitivamente y dar a los bots lo que
queremos indexar.
Daniel Pinillos Carrasco – UX + SEO
Diseño estructural del espacio informacional
para facilitar el acceso intuitivo a los contenidos.
Jesse James Garret - UX
38. @natzir9 / @seovision / #CW15
• Sistemas de organización: estructuran según clasificación, ej:
tipo de usuario, fechas…
• Sistemas de navegación: permiten movernos de forma
cómoda por el sitio. Jerarquica, facetada
• Sistemas de etiquetado: categorizan la información en el
lenguaje de los usuarios.
• Sistemas de búsqueda: recuperan la información.
2.1. Componentes de la AI
39. @natzir9 / @seovision / #CW15
• Navegación jerárquica:
- Accesible
- Consistente
- Indexable
- Arriba en el layout
2.2. Optimización SEO de la AI
40. @natzir9 / @seovision / #CW15
• Navegación facetada:
- Accesible
- Usable
- Informativa (filtro seleccionado)
- Indexable o no según reglas
2.2. Optimización SEO de la AI
41. @natzir9 / @seovision / #CW15
• Migas interactivas:
- Que contengan toda la ruta real
- Markup de breadcrumb
- Links accesibles o no según interese
(para que el bot avance verticalmente)
2.2. Optimización SEO de la AI
42. @natzir9 / @seovision / #CW15
• Naming y anchoring:
- Debemos poner los nombres correctos a los links de navegación.
- Primero UX luego SEO.
- Ojo con:
· Sobreoptimizar anchorings de enlaces.
· Alts de imágenes que cuentan como anchor.
· Repetir dos links en misma URL.
2.2. Optimización SEO de la AI
43. @natzir9 / @seovision / #CW15
• Titles de etiquetado:
- Únicos para evitar canibalizaciones
- 60 caracteres aprox (ahora píxels)
- Automáticos y luego manuales
- Optimizados para el click o call to action
- Uso de verbos que ayuden a persuadir
- Ejemplo de regla:
· comprar [BMW] [serie 3] [diesel] de [segunda mano] en [Madrid]
· micoche.com/segunda-mano/provincia/bmw/serie-3/f/diesel
2.2. Optimización SEO de la AI
45. @natzir9 / @seovision / #CW15
• Descriptions de etiquetado (más persuasión que SEO)
- Únicas y 155 caracteres aprox (tool)
- Automáticos y luego manuales en las que interesen
- Con info concreta del listado o producto
- Persuasivas. Uso de verbos y orientado al click
- Poner propuesta de valor del producto (entrega 24h, devolución
gratis…)
2.2. Optimización SEO de la AI
46. @natzir9 / @seovision / #CW15
• Sistema de búsqueda
- Buscador que pueda indexar lo que queramos
- Suggest en la búsqueda
· URL: /s/keyword-de-búsqueda
(capara por robots disallow: /s/ y meta noindex ‘porsiaca’)
- Podemos indexar búsquedas repetidas si enriquecemos
(no es lo más recomendablea ahora)
- User & Keyword Research para sacar topics de los que hablar
2.2. Optimización SEO de la AI
47. @natzir9 / @seovision / #CW15
• Analizar a tus usuarios:
- encuestas, testing, investigación contextual, estudios de mercado,
focus groups…. sal a la calle!
• Modelado de personajes y definición de metas y tareas de usuario:
- Comprar un producto, lead, permanencia, contacto.
• User & Keyword research.
- Analiza intenciones de búsqueda
- Analiza keywords por conversión y volumen
- Busca la oportunidad (kw difficulty con Moz, Semrush, Sistrix)
2.3. User Research
50. @natzir9 / @seovision / #CW15
2.3. User Research
• En tu Excel de keywords añade:
- Intención de búsqueda
- Prioridad (cerca de la conversión)
- Tipo de búsqueda:
· Informativa
· Navegacional
· Transaccional
· Multimedia
• Completa tu personaje con esta info.
• ¡Ahora ya tienes la foto real de tu usuario!
+
51. @natzir9 / @seovision / #CW15
2.4. AI en el ciclo de compra
URLs Contenidos informativos >
URLs Contenidos transaccionales >
URLs Contenidos experienciales >
52. @natzir9 / @seovision / #CW15
2.5. Investigación de topics e intenciones
INVESTIGACIÓN LIMPIEZA Y
CLUSTERIZADO
VOLUMEN,
COMPETENCIA Y
TENDENCIAS
55. @natzir9 / @seovision / #CW15
2.6. Mapa de AI
• Crea un mapa mental (pe: Xmind)
teniendo en cuenta:
- Árbol de tu web actual (si tienes)
- Lo que conozcas del producto
- Lo tienen tus competidores
- Patrones de búsqueda
58. @natzir9 / @seovision / #CW15
2.6. Mapa de AI
• URLs indexables:
- /segunda-mano/provincia/bmw/serie-3/f/diesel
(cuidado con canibalización. Indexar más tarde)
- /segunda-mano/provincia/bmw/serie-/f/diesel/e/barato
(cuidado con canibalización. Indexar más tarde)
- /segunda-mano/provincia/bmw/serie-3/p-2/
(indexar solo las 5 primeras páginas)
59. @natzir9 / @seovision / #CW15
2.6. Mapa de AI
• URLs NO indexables:
- /segunda-mano/provincia/bmw/serie-3/f/diesel,5-puertas
(disallow: *,* o bloqueo del enlace con ajax/js capado)
- /segunda-mano/provincia/bmw/serie-3/p-6/
(disallow: */p-* , meta noindex, follow según consumo del bot)
/segunda-mano/provincia/bmw/serie-3/f/diesel/o/mas-barato
(disallow: */o/* o bloqueo del enlace con ajax/js capado)
60. @natzir9 / @seovision / #CW15
2.7. Optimización y Testing de AI
CARD SORT CERRADO TREE TESTCARD SORT ABIERTO
• El usuario agrupa
libremente
• Para descubrir una AI
útil para el user
• El usuario agrupa en
grupos cerrados
• Para verificar una AI
• El usuario busca en
una AI sin diseño
elementos que le
preguntan
• Para mejorar la
findability de una AI
71. @natzir9 / @seovision / #CW15
3.1. Checklist de migración
• Hemos preparado este checklist para que no se te pase nada.
• Algunos pasos importantes son:
- Inventario de URLs viejas
- Inventario de URLs nuevas
- Macheo de redirecciones
- Configuración de sistemas
- Canonical y luego redirección
- Validación y seguimiento
- Emulación y crawleo
72. @natzir9 / @seovision / #CW15
3.2. Seguimiento de migraciones
• Crawlea el sitio antes y después para comparar los crawls. Deepcrawl,
Sistrix o Semrush (para sitios peques).
• Preferiblemente crawlea el antes de migrar en un entorno de
desarrollo. Puedes hacerlo con Xenu, Deepcrawl, Screamingfrog…
• Verifica que las redirecciones son directas. Coge una muestra de URLs y
verifícalo fácilmente con RedirectPath para Chrome.
• Cuando salgas mira las páginas en las que se está accediendo con el
RealTime de Analytics y con logs.
73. @natzir9 / @seovision / #CW15
3.2. Seguimiento de migraciones
• Trakea posiciones y visibilidad (Sistrix o Semrush).
• Acuérdate de indicar el cambio de dominio/subdominio si hay en
SearchConsole.
• El Sitemap.xml súbelo al tiempo y separado por secciones para ver la
indexación de cada una. Ojo con urls erroneas o viejas!
• Páginas que se hayan indexado por error elimínalas en bulk desde
Search Console o crea un Sitemap-error.xml y que las URLs devuelvan
410 para que desaparezcan.
74. @natzir9 / @seovision / #CW15
3.3. Problemas comunes
• Mala configuración de sistemas. Errores 503, 750 en Varnish, 404.
• No mantener ni actualizar el nuevo robots.txt.
• Abrir a buscadores entorno de staging.
• Reglas de redirección mal hechas, redirecciones no directas y no 301.
• Sitemaps.xml contra URLs que no son las finales o no son accesibles
(4XX, 5XX, noindex). Gbot acabará ignorando los sitemaps.
• Enlaces onsite no actualizados a nuevas urls.
75. Ya estás listo para domar a Google, y si no…
Natzir Turrado Daniel Pinillos Lino Uruñuela
@natzir9 @seovision @errioxa