TU DRUPAL ESTÁ LISTO…
¿LO SABE GOOGLE?
BEATRIZ GONZÁLEZ - @BEAGONPOZ
#drupalcampES - #yoséSEOwww.ladrupalera.com
ANTES DE NADA…
LET ME
TAKE A
SELFIE!!!
ABOUT ME
· Soy Periodista.
· + de 5 años de experiencia en
Comunicación Corporativa y Marketing 2.0
· Trabajo en Emergya en el Dpto. de Digital.
· La Drupalera es uno de los proyectos en los que participo.
¿QUÉ NO ES EL SEO?
· Meter en una web una lista de palabras clave y
esperar a que Google te indexe.
· Algo que se hace al final del desarrollo.
· Solo cosa de Digital/Marketing.
· No depende de las empresas, depende de los
usuarios.
· Una ciencia exacta.
ENTONCES…
¿QUÉ **** ES EL SEO?
· Es una forma de facilitar que el mensaje de las
empresas llegue a su audiencia.
· SEO (Search Engine Optimization) o ‘Posicionamiento
en buscadores’ es el proceso de mejora de la
visibilidad de un sitio web, en los resultados que
aparecen en los diferentes buscadores.
NADA DE COPIA Y PEGA
Un buen SEO requiere:
· Una investigación previa.
· Un estudio de la competencia.
· Una elección de términos que se adapten a la
intención de búsqueda del usuario.
· Una implementación técnica correcta en el portal.
· Una monitorización constante de los resultados para
ir modificando la estrategia.
SEO ANTES DEL PROYECTO
Es de vital importancia que en cuanto se creen los
entornos que no sean ‘Producción’, se genere el archivo
robots.txt.
Para ello, el robots.txt SOLO tiene que tener este texto:
User-agent: * -> esto significa ‘todos los buscadores’
Disallow: /
Lo que pongas debajo de user-agent:* se aplicará a todos
los buscadores. En este caso, todos los buscadores NO
indexarán el contenido de esa web.
Disallow: / prohíbe la entrada a todo el
alojamiento.
Disallow: /loquesea/ prohíbe la entrada a una
carpeta.
Allow: /loquesea
NO PASARÁN
ROBOTS.TXT
CADA OVEJA
CON SU PAREJA · Cada entorno debe tener una propiedad (cuenta de
GA) y un código único.
· Si dos entornos tienen el mismo código, ¿cómo
sabrás a qué entorno pertenecen los datos?
· Cada código deberá implementarse en el <head> de
cada portal.
· Los Eventos o configuraciones extra deberán
implementarse en todos los entornos.
GOOGLE ANALYTICS
SEO DURANTE EL PROYECTO
EL REY EN EL NORTE DEL SEO
<TITLE>
· Único: Cada página debe tener un Title
diferente.
· Descriptivo: Debe tener relación con el
contenido de la página.
· Keyword: Debe incluir la palabra clave de
esa página.
· Importante: Debe estar en el <head>
</head>
· Breve: No puede tener más de 70
caracteres o Google lo cortará en los
resultados, perdiendo impacto y
visibilidad de cara al usuario.
· Branding: En ese número de
caracteres hay que incluir el nombre de
la marca.
EL ROBIN DEL SEO
· Único: Cada página debe tener una Description diferente.
· Descriptivo: Debe tener relación con el contenido de la página.
· Keyword: Debe incluir la palabra clave de esa página.
· Importante: Debe estar en el <head> </head>
· Breve: No puede tener más de 155 caracteres o Google lo cortará en los
resultados, perdiendo impacto y visibilidad de cara al usuario.
<DESCRIPTION>
LOS MINIONS DEL SEO
<H1, H2, H3...>
· Sólo debe haber un H1 por página, pero puede haber varios H2, H3, H4...
· Deben ser diferentes en cada página.
· El H1 nunca debe ser el logo.
· Hay que seguir un orden (El H1 engloba a los H2 que tienen dentro H3, H4…)
· Los H2 no tienen que ser necesariamente los títulos de las secciones.
(LOS TOMATES PARA EL
FINAL, POR FAVOR… :p)
La etiqueta ALT va en el código de la imagen:
<img src=”http://www.piniwini.com/wordpress-mola.jpg” alt=”Pon un
Wordpress en tu vida” />
Las imágenes son otra oportunidad de ayudar al posicionamiento de la web a
través de Google imágenes.
<ALT-MAN>
LA PUERTA A NUESTROS
CONTENIDOS
<LAS URLs>
· La URL debe seguir un orden lógico, de lo general a lo particular:
www.piniwiniplus.com/subcarpeta/titulo-del-post
· Cada URL debe contener la palabra clave que hemos elegido para cada página.
Cuanto más cerca del inicio de la URL, más importancia le dará Google.
· Debe ser lo más corta posible, para facilitar la lectura al usuario (máximo 2.083
caracteres).
· Los guiones medios como separadores (-) son preferibles a otro tipo de caracteres
(_,+,*...) Hay que evitar los caracteres extraños y las tildes.
· Evita los parámetros y crea URLs amigables.
LA MEJOR HERRAMIENTA
PARA SEO
· Cada página puede llevar unos metadatos. Los metadatos que más solemos
usar son los de schema.org
· Podemos añadir extras: snippets de resultados de búsqueda como un
buscador, la valoración de un producto con estrellas, la foto del autor de un
post…
· Metadatos útiles: Organization para que Google tenga claros los datos
básicos de nuestra empresa: Nombre, dirección, teléfono, etc. o para los
breadcrumbs.
<METADATHOR>
ENGAÑA A LA ARAÑA
<OPENGRAPH & COMPANY>
· El protocolo Opengraph permite establecer cómo quieres que tus
publicaciones se muestren en Facebook.
· Twitter Cards y los Rich Pins de Pinterest son herramientas específicas que
permiten controlar la forma en la que se muestran los enlaces en esas redes.
SEO AL FINALIZAR
EL PROYECTO
LA KRYPTONITA DE
MUCHAS WEBS
· Facilita a los motores de búsqueda que accedan a tu portal y lo
indexen.
· Repasa aspectos fundamentales que afectan directamente al SEO
de tu portal.
<ACCESIBILIDAD>
O CÓMO HACER QUE
TE ENCUENTREN HASTA
EN MORDOR
<ROBOTS.TXT>
· Incluir todos los robots: User-agent: *
· Especificar el robot de Google: User-agent:
Googlebot
· Especificar el robot de Bing: User-agent: Bingbot
· Denegar todo el sitio: Disallow: /
· Denegar un directorio: Disallow: /directorio/
· Denegar directorios que comienzan por “algo”:
Disallow: /algo*/
· Denegar una página: Disallow: /pagina-web.htm
· Denegar directorios y páginas que comienzan por
“algo”: Disallow: /algo
· Denegar la extensión .gif: Disallow: /*.gif$
· Permitir un subdirectorio: Allow:
/directorio/subdirectorio/
· Señalar el mapa del sitio: Sitemap:
http://www.ejemplo.com/sitemap.xml
LA ETIQUETA MALVADA
<META ROBOTS>
Esta etiqueta es muy útil para evitar que Google indexe páginas que no te
interesan (paginaciones o filtros), pero que sí siga los enlaces a los que
apuntan para que continúe rastreando nuestra web:
<meta name=”robots” content=”noindex, follow”>
Antes de pasar a PRO, deberás comprobar si hay alguna meta etiqueta que
por error esté bloqueando el acceso a estos robots:
<meta name=”robots” content=”noindex, nofollow”>
UN .XML PARA
GOBERNARLOS A TODOS
· No puedes pasar a PRO sin un Sitemap.
· Crea el Sitemap siguiendo los protocolos, si no Google no lo procesará
adecuadamente.
· Súbelo a Google Search Console.
· Cuando actualices la web, asegúrate que todas las páginas nuevas están en
el Sitemap.
· Comprueba que todas las páginas que hay en el Sitemap están siendo
indexadas por Google. (Pon en Google-> site:www.eldominioquesea.com)
<SITEMAP>
¿SE TE OLVIDA ALGO?
❏ Código de Google Analytics implementado en el <head>.
❏ Google Search Console configurado.
❏ Sitemap de URLs subido correctamente.
❏ Archivo Robots.txt subido correctamente y sin bloquear
páginas importantes.
❏ El archivo Robots.txt no bloquea el acceso a Google Bot.
❏ No hay etiquetas <meta name=“robots”
content=“noindex”> en páginas importantes.
❏ Comprobar con Google Search Console que no haya
errores 404 graves.
❏ Comprobar que la etiqueta canonical dirige a la página
correcta.
❏ Comprobar que no haya redirecciones 302 donde debería
haber 301.
❏ Contenido duplicado: Comprobar con
Google Search Console que no hay
contenido duplicado. Si es así, implementar
la etiqueta <rel=canonical> o redirigir la
página con una redirección 301.
❏ Paginación: En el caso de que sea un blog,
añadir las etiquetas <rel=prev> y <rel=next>.
❏ Si la web tiene varios idiomas, implementar
la etiqueta <hreflang> para evitar problemas
de contenido duplicado.
❏ Las URLs tienen guiones en lugar de barras
bajas para separar las palabras.
❏ Se redirige correctamente de la versión con
www a no www; o al contrario.
“LAS PERSONAS MIENTEN,
LOS DATOS NO”
¡Gracias!
Thank you!
#drupalcampES
@BEAGONPOZ

Tu drupal está listo… ¿lo sabe Google? - DrupalCamp 2017

  • 1.
    TU DRUPAL ESTÁLISTO… ¿LO SABE GOOGLE? BEATRIZ GONZÁLEZ - @BEAGONPOZ #drupalcampES - #yoséSEOwww.ladrupalera.com
  • 2.
    ANTES DE NADA… LETME TAKE A SELFIE!!!
  • 3.
    ABOUT ME · SoyPeriodista. · + de 5 años de experiencia en Comunicación Corporativa y Marketing 2.0 · Trabajo en Emergya en el Dpto. de Digital. · La Drupalera es uno de los proyectos en los que participo.
  • 4.
    ¿QUÉ NO ESEL SEO? · Meter en una web una lista de palabras clave y esperar a que Google te indexe. · Algo que se hace al final del desarrollo. · Solo cosa de Digital/Marketing. · No depende de las empresas, depende de los usuarios. · Una ciencia exacta.
  • 5.
    ENTONCES… ¿QUÉ **** ESEL SEO? · Es una forma de facilitar que el mensaje de las empresas llegue a su audiencia. · SEO (Search Engine Optimization) o ‘Posicionamiento en buscadores’ es el proceso de mejora de la visibilidad de un sitio web, en los resultados que aparecen en los diferentes buscadores.
  • 6.
    NADA DE COPIAY PEGA Un buen SEO requiere: · Una investigación previa. · Un estudio de la competencia. · Una elección de términos que se adapten a la intención de búsqueda del usuario. · Una implementación técnica correcta en el portal. · Una monitorización constante de los resultados para ir modificando la estrategia.
  • 7.
    SEO ANTES DELPROYECTO
  • 8.
    Es de vitalimportancia que en cuanto se creen los entornos que no sean ‘Producción’, se genere el archivo robots.txt. Para ello, el robots.txt SOLO tiene que tener este texto: User-agent: * -> esto significa ‘todos los buscadores’ Disallow: / Lo que pongas debajo de user-agent:* se aplicará a todos los buscadores. En este caso, todos los buscadores NO indexarán el contenido de esa web. Disallow: / prohíbe la entrada a todo el alojamiento. Disallow: /loquesea/ prohíbe la entrada a una carpeta. Allow: /loquesea NO PASARÁN ROBOTS.TXT
  • 9.
    CADA OVEJA CON SUPAREJA · Cada entorno debe tener una propiedad (cuenta de GA) y un código único. · Si dos entornos tienen el mismo código, ¿cómo sabrás a qué entorno pertenecen los datos? · Cada código deberá implementarse en el <head> de cada portal. · Los Eventos o configuraciones extra deberán implementarse en todos los entornos. GOOGLE ANALYTICS
  • 10.
  • 11.
    EL REY ENEL NORTE DEL SEO <TITLE> · Único: Cada página debe tener un Title diferente. · Descriptivo: Debe tener relación con el contenido de la página. · Keyword: Debe incluir la palabra clave de esa página. · Importante: Debe estar en el <head> </head> · Breve: No puede tener más de 70 caracteres o Google lo cortará en los resultados, perdiendo impacto y visibilidad de cara al usuario. · Branding: En ese número de caracteres hay que incluir el nombre de la marca.
  • 12.
    EL ROBIN DELSEO · Único: Cada página debe tener una Description diferente. · Descriptivo: Debe tener relación con el contenido de la página. · Keyword: Debe incluir la palabra clave de esa página. · Importante: Debe estar en el <head> </head> · Breve: No puede tener más de 155 caracteres o Google lo cortará en los resultados, perdiendo impacto y visibilidad de cara al usuario. <DESCRIPTION>
  • 13.
    LOS MINIONS DELSEO <H1, H2, H3...> · Sólo debe haber un H1 por página, pero puede haber varios H2, H3, H4... · Deben ser diferentes en cada página. · El H1 nunca debe ser el logo. · Hay que seguir un orden (El H1 engloba a los H2 que tienen dentro H3, H4…) · Los H2 no tienen que ser necesariamente los títulos de las secciones.
  • 14.
    (LOS TOMATES PARAEL FINAL, POR FAVOR… :p) La etiqueta ALT va en el código de la imagen: <img src=”http://www.piniwini.com/wordpress-mola.jpg” alt=”Pon un Wordpress en tu vida” /> Las imágenes son otra oportunidad de ayudar al posicionamiento de la web a través de Google imágenes. <ALT-MAN>
  • 15.
    LA PUERTA ANUESTROS CONTENIDOS <LAS URLs> · La URL debe seguir un orden lógico, de lo general a lo particular: www.piniwiniplus.com/subcarpeta/titulo-del-post · Cada URL debe contener la palabra clave que hemos elegido para cada página. Cuanto más cerca del inicio de la URL, más importancia le dará Google. · Debe ser lo más corta posible, para facilitar la lectura al usuario (máximo 2.083 caracteres). · Los guiones medios como separadores (-) son preferibles a otro tipo de caracteres (_,+,*...) Hay que evitar los caracteres extraños y las tildes. · Evita los parámetros y crea URLs amigables.
  • 16.
    LA MEJOR HERRAMIENTA PARASEO · Cada página puede llevar unos metadatos. Los metadatos que más solemos usar son los de schema.org · Podemos añadir extras: snippets de resultados de búsqueda como un buscador, la valoración de un producto con estrellas, la foto del autor de un post… · Metadatos útiles: Organization para que Google tenga claros los datos básicos de nuestra empresa: Nombre, dirección, teléfono, etc. o para los breadcrumbs. <METADATHOR>
  • 17.
    ENGAÑA A LAARAÑA <OPENGRAPH & COMPANY> · El protocolo Opengraph permite establecer cómo quieres que tus publicaciones se muestren en Facebook. · Twitter Cards y los Rich Pins de Pinterest son herramientas específicas que permiten controlar la forma en la que se muestran los enlaces en esas redes.
  • 18.
  • 19.
    LA KRYPTONITA DE MUCHASWEBS · Facilita a los motores de búsqueda que accedan a tu portal y lo indexen. · Repasa aspectos fundamentales que afectan directamente al SEO de tu portal. <ACCESIBILIDAD>
  • 20.
    O CÓMO HACERQUE TE ENCUENTREN HASTA EN MORDOR <ROBOTS.TXT> · Incluir todos los robots: User-agent: * · Especificar el robot de Google: User-agent: Googlebot · Especificar el robot de Bing: User-agent: Bingbot · Denegar todo el sitio: Disallow: / · Denegar un directorio: Disallow: /directorio/ · Denegar directorios que comienzan por “algo”: Disallow: /algo*/ · Denegar una página: Disallow: /pagina-web.htm · Denegar directorios y páginas que comienzan por “algo”: Disallow: /algo · Denegar la extensión .gif: Disallow: /*.gif$ · Permitir un subdirectorio: Allow: /directorio/subdirectorio/ · Señalar el mapa del sitio: Sitemap: http://www.ejemplo.com/sitemap.xml
  • 21.
    LA ETIQUETA MALVADA <METAROBOTS> Esta etiqueta es muy útil para evitar que Google indexe páginas que no te interesan (paginaciones o filtros), pero que sí siga los enlaces a los que apuntan para que continúe rastreando nuestra web: <meta name=”robots” content=”noindex, follow”> Antes de pasar a PRO, deberás comprobar si hay alguna meta etiqueta que por error esté bloqueando el acceso a estos robots: <meta name=”robots” content=”noindex, nofollow”>
  • 22.
    UN .XML PARA GOBERNARLOSA TODOS · No puedes pasar a PRO sin un Sitemap. · Crea el Sitemap siguiendo los protocolos, si no Google no lo procesará adecuadamente. · Súbelo a Google Search Console. · Cuando actualices la web, asegúrate que todas las páginas nuevas están en el Sitemap. · Comprueba que todas las páginas que hay en el Sitemap están siendo indexadas por Google. (Pon en Google-> site:www.eldominioquesea.com) <SITEMAP>
  • 23.
    ¿SE TE OLVIDAALGO? ❏ Código de Google Analytics implementado en el <head>. ❏ Google Search Console configurado. ❏ Sitemap de URLs subido correctamente. ❏ Archivo Robots.txt subido correctamente y sin bloquear páginas importantes. ❏ El archivo Robots.txt no bloquea el acceso a Google Bot. ❏ No hay etiquetas <meta name=“robots” content=“noindex”> en páginas importantes. ❏ Comprobar con Google Search Console que no haya errores 404 graves. ❏ Comprobar que la etiqueta canonical dirige a la página correcta. ❏ Comprobar que no haya redirecciones 302 donde debería haber 301. ❏ Contenido duplicado: Comprobar con Google Search Console que no hay contenido duplicado. Si es así, implementar la etiqueta <rel=canonical> o redirigir la página con una redirección 301. ❏ Paginación: En el caso de que sea un blog, añadir las etiquetas <rel=prev> y <rel=next>. ❏ Si la web tiene varios idiomas, implementar la etiqueta <hreflang> para evitar problemas de contenido duplicado. ❏ Las URLs tienen guiones en lugar de barras bajas para separar las palabras. ❏ Se redirige correctamente de la versión con www a no www; o al contrario.
  • 25.
  • 26.