2. s
Corría el año 1994 dc, una época
En la que los enlaces no estaban
Considerados en los algoritmos de
De búsqueda orgánica...
3. s
una época donde reinaba la oscuridad
Y el desconcierto entre los seo.
4. s
Dominados por el cruel sistema
De posicionamiento basado en la
ordenación alfabética y sus viles
Lacayos que lo ordenaban todo
Literalmente a mano...
5. s
Hasta que resurgió una nueva
Esperanza... Llegó aquel a quienes
Todos habían estado esperando:
9. ¿Qué vamos a tratar de la auditoría
SEO On Page?
Accesibilidad
Indexabilidad
Factores On page
Arquitectura y
Enlazado Interno
Incidencias técnicas
Contenido Duplicado
11. Robots.txt
Disallow/allow
Lo que deberías poner Lo que no deberías poner
El fichero robots.txt es un archivo de texto que establece unas recomendaciones a
seguir para todos los crawlers y robots de buscadores, que encontramos alojado en
dominio.com/robots.txt. Sirve para impedir que los crawlers o robots de búsqueda
accedan e indexen alguna parte de nuestra web.
User-agent: (nombre)
Allow: /fichero
Disallow:/fichero
13. Parámetros y filtros
Antes de desindexar, vigilaremos SIEMPRE que:
-La URL esté posicionada por alguna palabra clave
-Los parámetros o filtros no tengan backlinks
14. Lo que no deberías poner
Parámetros y filtros
¿Paginaciones?
20. Lo que sí deberías poner en
Disallow: /
Página de Cookies, LSSI, etc
(si son copiadas)
Protección frente a bots
Páginas internas / privadas
Páginas que consumen tiempo de indexación
Recursos aspx
Ruta del sitemap
22. Un robots.txt que no mola:
El otro que mola aún menos es:
http://www.policia.es/robots.txt
23. Meta Robots
Ejemplos de uso
<meta name="robots" content="index, follow">
<meta name="robots" content=“noindex, follow">
<meta name="robots" content=“noindex, nofollow">
<meta name="robots" content=“index, nofollow">
• Uso similar al fichero robots.txt, misma función
• Permite la desindexación quirúrgica de determinados contenidos que
son complicados de definir cómo directorio en el archivo robots.txt
• Permite la desindexación silenciosa de contenidos que no queramos
mostrar en robots.txt
La herramienta
27. Navegar como Google Bot
Las Herramientas:
Realizaremos una navegación cómo
Google Bot para:
• Identificar diferencias entre contenido que aparece y
contenido que “lee”Google ¿Cloaking?
• Comprobar que Google puede acceder al contenido e
indexarlo (si quiere)
29. Estados HTTP: 5XX y 4XX
Los errores de tipo 500, son los errores graves que generalmente se ocasionan a nivel servidor,
por ejemplo cuando Apache o nginx no tiene más recursos o la base de datos es inaccesible por
la aplicación.
Los errores tipo 400 son errores de aplicación, los más comunes 404 y 410 que hoy en día no
tienen grandes diferencias por parte de Google.
2 procedencias
Interna Externa
Enlaces internos hacia
páginas con errores
Enlaces externos a
páginas con errores
33. Externa
¿Cómo los resolvemos?
Corrigiendo los enlaces que apunten hacia las
URLs con error 404 (contactando)
Verificando que en sitemap no aparezca la URL
Redirect 301 desde las url a donde nos enlazan
34. Indexabilidad
Análisis del comando Site:
Índice de dominio
Análisis de Landings
¿Indexa Google la totalidad de nuestro sitio web?
¿Cómo mejoro la indexación de mi sitio web?
¿Qué partes no está indexando?
35. Site:
Más URLs indexadas que en el sitemap
Mediante el comando “site:www.dominio.com”, Google ofrece la posibilidad de
hacer una búsqueda en una web específica dentro de un site.
Gracias a este comando, podemos comparar la cantidad de páginas que Google
indexa, con el número real de páginas de la web (archivo sitemap).
Podemos encontrarnos con 3 escenarios:
Menos URLs indexadas que en el sitemap
Mismas URLs indexadas que en el sitemap
36. Más URLs indexadas que en el sitemap
El número de páginas indexadas por Google es mayor al
número de páginas reales: este es un claro indicativo de que
tenemos problemas de contenido duplicado en el sitio web.
37. Más URLs indexadas que en el sitemap
Una forma sencilla para empezar a cazar el contenido duplicado,
es trabajar con Screaming frog:
38. Menos URLs indexadas que en el sitemap
El número de páginas indexadas por Google es menor al número de
páginas reales: esto significa que Google no está indexando
correctamente las páginas de nuestro sitio web.
Esto puede ser debido, entre otros, a:
• Penalizaciones algorítmicas/manuales
• Arquitectura de URLs poco eficaz
• Mala distribución de enlaces internos
39. Menos URLs indexadas que en el sitemap
Para identificar la fuente de los problemas de indexación, crearemos,
cuantos más Sitemaps mejor:
• Sitemaps por categoría
• Sitemaps por subcategorías
• Sitemaps de productos por subcategorías
• Sitemaps de páginas principales
• Sitemaps por idioma ( y por tipología)
• Sitemaps de Sitemaps
40. Menos URLs indexadas que en el sitemap
Una vez hemos creado los Sitemaps y los hemos subido a Search
Console, procederemos a analizar por subconjunto de Sitemap,
donde están los problemas de indexación:
41. Pro tip: Juega con los sitemaps
¿Sabes que es un sitemap? ¡Un montón de enlaces! ¿Sabes lo que
pasa cuando enlazas a un sitemap o a las URLs que contiene en él?
¡La indexación mejora!
Móntalos en una Fusión table indexable
Añádelos a todos los agregadores de feeds y RSS que puedas, cómo Feedburner
En casos extremos puedes trabajar con Link Indexers cómo Onehourindexing.co
para URLs Profundas (sin abusar)
42. Número de URLs indexadas similar al sitemap
El número de páginas indexadas por Google es similar al
número de páginas reales: el escenario ideal, la indexación de
la página es correcta. Si bien el número nunca será
exactamente igual, un entorno con una variación de un 5% (del
total de URLs) es asumible cómo un estado correcto.
43. Índice del dominio
¿Aparece la Home del dominio en primer lugar?
Mediante el análisis de los resultados que nos muestra Google
con el comando site:www.dominio.com podemos obtener
además otros datos interesantes. A priori, podemos considerar
que bajo esa búsqueda, aparecerán indexadas por orden de
autoridad, las urls de nuestro dominio.
¿Las siguientes páginas tienen sentido?
45. Análisis de landings
Procedimiento
Mediante el análisis de las landing pages SEO que podemos
encontrar en Google Analytics, podremos obtener de forma fácil
una comparativa entre el número total de páginas indexadas de
nuestro sitio web, y aquellas que Google considera relevantes.
46. Procedimiento
Para encontrar el Informe de Páginas de Destino (para analizar
Landig Pages) solo tienes que seguir está ruta en Google
Analytics:
COMPORTAMIENTO -> CONTENIDO DEL SITIO -> PÁGINAS DE DESTINO
49. Factores de optimización On-page
Metas Title y Description
Contenido, Headings y semántica
Optimización de Urls
Los indispensables:
Trucos para optimizarlos sin perder la cabeza
Microformatos
50. Metas Title y Description
Vuestro nuevo mejor amigo:
Titles Description
51. Titles
Longitud:
• Títulos más extensos de 65 caracteres
• Títulos inferiores a 30 caracteres
Coherencia y Optimización:
• Títulos relacionados con el contenido
• Sin términos genéricos cómo “sin título” o “página nueva”
• Incluyendo palabra clave principal pero con coherencia
Exclusividad:
• Títulos únicos, no duplicados ni abuso de patrones
Atractivos:
• Títulos incluyendo Call To Action y para influir en CTR en SERPs
57. Description
Longitud:
• Una meta-etiqueta description de más longitud que 155 caracteres
• No debe ser inferior a los 70 caracteres
Coherencia y Optimización:
• Una meta-etiqueta description con contenido no relacionado con la página
Una meta-etiqueta description genérica como “Esto es una página web”
Una meta-etiqueta description que contenga sólo palabras clav
Exclusividad:
• Descripciones únicas, no duplicadas ni abuso de patrones
Atractivos:
• Descripciones incluyendo Call To Action y para influir en CTR en SERPs
58. Contenido, Semántica y Headings
Contenido
Semántica
Headings
“Analiza los primeros resultados del SERP;
Si tienen más contenido: cópiales
Si tienen más Headings: cópiales
Y así va la cosa”
59. Contenido
Volumen de contenido: mínimo 300-350, aunque deberemos tener en
cuenta, que cuanto más volumen de texto, google interpreta que el valor de
ese contenido es mayor (siempre que sea de calidad).
Variedad de contenido: Contra mayor variedad de contenidos (Imágenes,
vídeos embed, slideshares, etc...) dentro del artículo, mejor (además se
enriquece la información que se almacena y la transmisión de esta)
Calidad de redacción: No mezclar conceptos semánticos por párrafo,
contenido único y estructuración con viñetas y Headings.
http://tools.seobook.com/general/keyword-density/
60. Headings
• Existen 6 niveles jerárquicos según la importancia, desde el <h1>
hasta <h6>
• Deben ser respetados los niveles, lo que implica que <h2> debe seguir
a <h1> y <h3> a <h2>, etc.
• El <h1> es el único que no puede repetirse porque es el de mayor
importancia de la página. El resto pueden repetirse siempre que
tengan la misma relevancia dentro de la estructura lógica de la página.
62. Pro tip: Aprovecha los Headings
La Herramienta: KeywordShitter
Aprovecha para trabajar Keywords Long y Middle Tail de Google Instant
63. Semántica
Creación de una relación semántica entre keywords
Aprendizaje del motor de búsqueda sobre la temática y orientación
de la landing
Refuerzo de la optimización
Mayor volumen de Keywords posicionadas por landing
64. Semántica
Optimización semántica para vagos:
http://www.alchemyapi.com/products/demo/alchemylanguage/
http://www.booking.com/city/es/barcelona.en-gb.html
65. Optimización de URLs
Longitud:
• Urls cortas: no más de 115 caracteres (contra más cortas, mejor usabilidad)
Optimización:
• Urls descriptivas
• Urls optimizadas (incluyendo Keywords)
• Urls limpias (sin parámetros o sesiones ID: estáticas)
66. Microformatos
Ayuda a Google a entender mejor tu web
• NAP: Name Adress Place microetiquetado
• Producto: SIEMPRE identificaremos el tipo de producto
67. El ROI en el SEO On Page
Empieza a optimizar por donde mayor beneficio
económico vayas a obtener
68. Arquitectura e Internal Link Building
Links por página
Estructuras verticales
Estructuras Horizontales
Si construimos bien los enlaces que conducen a las distintas páginas de nuestro
dominio, obtendremos en general, mejoras en:
• Facilita la indexación de las páginas.
• Mejora la estructura y la jerarquía de la información del sitio.
• Una navegación amigable para los visitantes.
• Aumentaremos el tiempo de visita de los usuarios.
• Enriquece y compartimenta los contenidos.
• Optimización de la transmisión de (autoridad).
Anchor y posición
Análisis enlaces rotos
Nofollows internos
69. Links por página
“No hay una regla tallada en piedra, pero
en general entre 100 y 200”
70. Estructuras de enlazado verticales
Home
Subcategorías
relevantes
Categorías
Productos
relevantes
Categorías
relacionadas
71. Estructuras de enlazado Horizontales
Categorías
Otros productos
relevantes
Categorías
relevantes
Productos
Posts
Otros posts
relevantes
72. Anchor y posición
El primer enlace hacia una URL es el que cuenta: preferiremos siempre un enlace
Que incluya una texto HTML, pero en caso de no poder optimizaremos la imagen con la
etiqueta alt y title que actuarán cómo anchor text
No todo es el anchor text
Los botones navegacionales, grandes olvidados: una oportunidad perfecta para aprovechar y
optimizar la transferencia de autoridad dentro de un mismo site: ver > ver oferta
73. Análisis de enlaces rotos
Una de las formas más sencillas de mejorar el posicionamiento de un site,
Es asegurarnos de que todos los enlaces vayan a parar siempre a landings cualificadas
Evitando perder link equity en páginas que no existen o a través de enlaces rotos
Nuestro mejor aliado:
74. v
¿SABÉIS LO QUE HACE GOOGLE
CON UN NOFOLLOW INTERNO?
Nofollows internos
75.
76. Nofollows internos
Si no es necesario, no lo pongas
Agrupa los contenidos informacionales
(Cookies, LSSI...) en una misma landing.
Reduce al máximo tus páginas: Anclas
77. Reduce al máximo tus páginas: Anclas
“Si varios links apuntan a una misma url solo se
traspasa autoridad hacia el primero de ellos”
Una misma página mediante anclas (links con la almohadilla
'#') puede dirigir al usuario hacia la parte del contenido que
le interesa.
Únelas y tendrás una única página con todos los contenidos
corporativos, concentrándolos sólo en un enlace:
<h1 class="seo-title">Título random</h1>
<ul id="menu" class="no-seo-content">
<li><a href="#política-cookies">Política de cookies</a></li>
<li><a href="#donde-estamos">Donde estamos</a></li> </ul>
<div id=“política-cookies" class="no-seo-content">
<h4>Política de Cookies</h4>
<p>érase una vez una cookie malvada...</p> </div>
80. Redirecciones
Comprobar cadenas de redirecciones
Redirecciones en migraciones
Comprobación de redirecciones existentes
Una redirección es una respuesta con un código de estado que comienza con 3 y que
produce que el navegador muestre una página diferente. Los diferentes códigos
describen la acción por la que se va a realizar esa redirección concreta, ayudando así
al entendimiento de la misma. Algunos ejemplos de redicciones son:
• 300 opciones múltiples (por ejemplo, ofrecen diferentes idiomas)
• 301 Movido permanentemente
• 302 encontrado (originalmente redirección temporal, pero ahora comúnmente
usado para especificar la redirección de la razón no especificada)
• 303 Otra redirecciones (por ejemplo, resultados de CGI-scripts)
• 307 redirección temporal
81. Comprobación de redirecciones existentes
Para comprobar las redirecciones actuales existentes,
utilizaremos el crawler de Screaming Frog
82. Comprobación de cadenas de redirecciones
Una vez hayamos identificado las redirecciones existentes, una buena
práctica es la de comprobar luego las URLs finales, para comprobar que
no existan cadenas de redirecciones
“Las cadenas de redirecciones, perjudican seriamente
la transmisión de autoridad”
83. Redirecciones en migraciones
En caso de que detectemos que hay una migración previa existente,
es importante comprobar si todas las URL anteriores fueron
correctamente redirigidas
Solicitar Sitemap del dominio anterior o scrapear a partir
de http://archive.org/
Listar URLs y comprobar en Screaming frog la correcta
redirección
84. Redirecciones en migraciones
Una vez tengamos el listado de URLs anteriores…
asegurémonos de que Google las reconoce!
Para ello podemos utilizar herramientas de indexación de
enlaces cómo:
85. Análisis de Javascript
Hasta finales del 2010, Google no era capaz de leer el código Javascript. Hoy por hoy,
sólo es capaz de leer parte del código, y no por tanto el potencial de indexación no es
demasiado elevado. Además, otros motores de búsqueda todavía no pueden
reconocerlo.
Mediante el pluggin de SEOmoz, activaremos la opción de “desactivar Javascript”:
• El contenido sigue ahí?
• Los Links Navegacionales funcionan?
• El contenido está dentro de un Javascript?
• Sí los enlaces están en un Script, es para Link Scultping o es accidental?
Otra opción es hacerlo mediante:
86. Análisis de Iframes
Los contenidos insertados mediante un iFrame (Marco flotante), no se consideran
parte de la página principal. Por tanto, el contenido dentro de un iFrame no se
indexará cómo parte del site. Además, los enlaces insertados en un iFrame, a pesar
de ser rastreados por el Robot de búsqueda, no traspasan Page Rank.
En este punto se comprobará, en caso de que existieran iFrames, que el contenido
que albergan no sea relevante para el posicionamiento, y esté quedando sin indexar.
• El contenido está dentro de un iFrame?
• Ese contenido es útil para posicionamiento orgánico?
87. Análisis de Flash
El contenido insertado a través de otros objetos, dentro de Flash, no es legible para
los motores de búsqueda; además de no poder ser optimizado introduciendo
etiquetas HTML cómo Headings, en caso de ser insertado directamente a través de
un archivo flash.
En este apartado, verificaremos que no haya contenidos insertados a través de otros
objetos dentro de Flash, de modo que el contenido sea navegable para el agente-
usuario del robot de búsqueda.
• El contenido está dentro de un Flah?
• Ese contenido es útil para posicionamiento orgánico?
88. Comprobación de páginas con error 404
Las páginas 404 deben ser lo más amigables posibles, a la vez de informar al usuario
que la URL solicitada no existen en el servidor. La finalidad de esta página de error es
la de no perder la visita, por lo que es recomendable ofrecer un contenido que
permita redirigir al usuario de nuevo a la Home o a una página de contenido
relacionado.
Algunas de las directrices para optimizar la página 404:
• Un enlace a la home: la manera más sencilla de ofrecer una solución rápida sin
perder al usuario.
• Un enlace al sitemap de la página: es una de las formas más sencillas para el
usuario de salir de la página sin abandonar el sitio. A diferencia del enlace a la
página principal, el usuario que accede al sitemap puede encontrar rápidamente
otro contenido relevante.
• Diseño distintivo: diseñar la página con un objetivo e intentar ser original. Es
importante que el centro de atención de la página sea el mensaje sobre el error
404 y las alternativas que se ofrecen.
89. Comprobación de páginas con error 404
Un error típico: Redirigir los errores 404 a la Home
• Pérdida de la capacidad de monitorización de errores internos
• Frustración del usuario
90. URLs únicas por contenido
Contenido duplicado
Detección de contenido duplicado
Errores típicos
91. URLs únicas por contenido
Uno de los ejemplos más prácticos de este problema, se ve fácilmente cuando
asignamos varias tags o categorías a un mismo artículo, y este aparece en ambas
URL, de esta forma:
www.dominio.com/tag-1/artículo-1
www.dominio.com/tag-2/artículo-1
www.dominio.com/categoría-1/artículo-1
www.dominio.com/categoría-2/artículo-1
/[Categoría]/
/[Sub-categoría]/
/[Productos]/
/Landing de producto
Home
92. URLs únicas por contenido
URLs que incluyan parámetros de URL o códigos de Tracking