Se ha denunciado esta presentación.
Utilizamos tu perfil de LinkedIn y tus datos de actividad para personalizar los anuncios y mostrarte publicidad más relevante. Puedes cambiar tus preferencias de publicidad en cualquier momento.

Tu drupal está listo… ¿lo sabe Google? - DrupalCamp 2017

853 visualizaciones

Publicado el

Llevas meses peleándote con el código, probando módulos, luchando con bugs… Y por fin terminas el proyecto y lo haces público. Pero… entra menos gente en la web que en un if(false).

¿Se te olvida algo? ¿Estás seguro de que has hecho todo lo posible en cada fase del desarrollo para que la web se posicione en Google? ¿Has elegido las URLs correctas o los títulos adecuados? ¿Te acordaste de bloquear la indexación de los entornos de prueba?

Esta charla tiene como objetivo que conozcas el checklist SEO que todo drupalero debe tener en cuenta a la hora de empezar un proyecto.

Publicado en: Tecnología
  • Sé el primero en comentar

Tu drupal está listo… ¿lo sabe Google? - DrupalCamp 2017

  1. 1. TU DRUPAL ESTÁ LISTO… ¿LO SABE GOOGLE? BEATRIZ GONZÁLEZ - @BEAGONPOZ #drupalcampES - #yoséSEOwww.ladrupalera.com
  2. 2. ANTES DE NADA… LET ME TAKE A SELFIE!!!
  3. 3. ABOUT ME · Soy Periodista. · + de 5 años de experiencia en Comunicación Corporativa y Marketing 2.0 · Trabajo en Emergya en el Dpto. de Digital. · La Drupalera es uno de los proyectos en los que participo.
  4. 4. ¿QUÉ NO ES EL SEO? · Meter en una web una lista de palabras clave y esperar a que Google te indexe. · Algo que se hace al final del desarrollo. · Solo cosa de Digital/Marketing. · No depende de las empresas, depende de los usuarios. · Una ciencia exacta.
  5. 5. ENTONCES… ¿QUÉ **** ES EL SEO? · Es una forma de facilitar que el mensaje de las empresas llegue a su audiencia. · SEO (Search Engine Optimization) o ‘Posicionamiento en buscadores’ es el proceso de mejora de la visibilidad de un sitio web, en los resultados que aparecen en los diferentes buscadores.
  6. 6. NADA DE COPIA Y PEGA Un buen SEO requiere: · Una investigación previa. · Un estudio de la competencia. · Una elección de términos que se adapten a la intención de búsqueda del usuario. · Una implementación técnica correcta en el portal. · Una monitorización constante de los resultados para ir modificando la estrategia.
  7. 7. SEO ANTES DEL PROYECTO
  8. 8. Es de vital importancia que en cuanto se creen los entornos que no sean ‘Producción’, se genere el archivo robots.txt. Para ello, el robots.txt SOLO tiene que tener este texto: User-agent: * -> esto significa ‘todos los buscadores’ Disallow: / Lo que pongas debajo de user-agent:* se aplicará a todos los buscadores. En este caso, todos los buscadores NO indexarán el contenido de esa web. Disallow: / prohíbe la entrada a todo el alojamiento. Disallow: /loquesea/ prohíbe la entrada a una carpeta. Allow: /loquesea NO PASARÁN ROBOTS.TXT
  9. 9. CADA OVEJA CON SU PAREJA · Cada entorno debe tener una propiedad (cuenta de GA) y un código único. · Si dos entornos tienen el mismo código, ¿cómo sabrás a qué entorno pertenecen los datos? · Cada código deberá implementarse en el <head> de cada portal. · Los Eventos o configuraciones extra deberán implementarse en todos los entornos. GOOGLE ANALYTICS
  10. 10. SEO DURANTE EL PROYECTO
  11. 11. EL REY EN EL NORTE DEL SEO <TITLE> · Único: Cada página debe tener un Title diferente. · Descriptivo: Debe tener relación con el contenido de la página. · Keyword: Debe incluir la palabra clave de esa página. · Importante: Debe estar en el <head> </head> · Breve: No puede tener más de 70 caracteres o Google lo cortará en los resultados, perdiendo impacto y visibilidad de cara al usuario. · Branding: En ese número de caracteres hay que incluir el nombre de la marca.
  12. 12. EL ROBIN DEL SEO · Único: Cada página debe tener una Description diferente. · Descriptivo: Debe tener relación con el contenido de la página. · Keyword: Debe incluir la palabra clave de esa página. · Importante: Debe estar en el <head> </head> · Breve: No puede tener más de 155 caracteres o Google lo cortará en los resultados, perdiendo impacto y visibilidad de cara al usuario. <DESCRIPTION>
  13. 13. LOS MINIONS DEL SEO <H1, H2, H3...> · Sólo debe haber un H1 por página, pero puede haber varios H2, H3, H4... · Deben ser diferentes en cada página. · El H1 nunca debe ser el logo. · Hay que seguir un orden (El H1 engloba a los H2 que tienen dentro H3, H4…) · Los H2 no tienen que ser necesariamente los títulos de las secciones.
  14. 14. (LOS TOMATES PARA EL FINAL, POR FAVOR… :p) La etiqueta ALT va en el código de la imagen: <img src=”http://www.piniwini.com/wordpress-mola.jpg” alt=”Pon un Wordpress en tu vida” /> Las imágenes son otra oportunidad de ayudar al posicionamiento de la web a través de Google imágenes. <ALT-MAN>
  15. 15. LA PUERTA A NUESTROS CONTENIDOS <LAS URLs> · La URL debe seguir un orden lógico, de lo general a lo particular: www.piniwiniplus.com/subcarpeta/titulo-del-post · Cada URL debe contener la palabra clave que hemos elegido para cada página. Cuanto más cerca del inicio de la URL, más importancia le dará Google. · Debe ser lo más corta posible, para facilitar la lectura al usuario (máximo 2.083 caracteres). · Los guiones medios como separadores (-) son preferibles a otro tipo de caracteres (_,+,*...) Hay que evitar los caracteres extraños y las tildes. · Evita los parámetros y crea URLs amigables.
  16. 16. LA MEJOR HERRAMIENTA PARA SEO · Cada página puede llevar unos metadatos. Los metadatos que más solemos usar son los de schema.org · Podemos añadir extras: snippets de resultados de búsqueda como un buscador, la valoración de un producto con estrellas, la foto del autor de un post… · Metadatos útiles: Organization para que Google tenga claros los datos básicos de nuestra empresa: Nombre, dirección, teléfono, etc. o para los breadcrumbs. <METADATHOR>
  17. 17. ENGAÑA A LA ARAÑA <OPENGRAPH & COMPANY> · El protocolo Opengraph permite establecer cómo quieres que tus publicaciones se muestren en Facebook. · Twitter Cards y los Rich Pins de Pinterest son herramientas específicas que permiten controlar la forma en la que se muestran los enlaces en esas redes.
  18. 18. SEO AL FINALIZAR EL PROYECTO
  19. 19. LA KRYPTONITA DE MUCHAS WEBS · Facilita a los motores de búsqueda que accedan a tu portal y lo indexen. · Repasa aspectos fundamentales que afectan directamente al SEO de tu portal. <ACCESIBILIDAD>
  20. 20. O CÓMO HACER QUE TE ENCUENTREN HASTA EN MORDOR <ROBOTS.TXT> · Incluir todos los robots: User-agent: * · Especificar el robot de Google: User-agent: Googlebot · Especificar el robot de Bing: User-agent: Bingbot · Denegar todo el sitio: Disallow: / · Denegar un directorio: Disallow: /directorio/ · Denegar directorios que comienzan por “algo”: Disallow: /algo*/ · Denegar una página: Disallow: /pagina-web.htm · Denegar directorios y páginas que comienzan por “algo”: Disallow: /algo · Denegar la extensión .gif: Disallow: /*.gif$ · Permitir un subdirectorio: Allow: /directorio/subdirectorio/ · Señalar el mapa del sitio: Sitemap: http://www.ejemplo.com/sitemap.xml
  21. 21. LA ETIQUETA MALVADA <META ROBOTS> Esta etiqueta es muy útil para evitar que Google indexe páginas que no te interesan (paginaciones o filtros), pero que sí siga los enlaces a los que apuntan para que continúe rastreando nuestra web: <meta name=”robots” content=”noindex, follow”> Antes de pasar a PRO, deberás comprobar si hay alguna meta etiqueta que por error esté bloqueando el acceso a estos robots: <meta name=”robots” content=”noindex, nofollow”>
  22. 22. UN .XML PARA GOBERNARLOS A TODOS · No puedes pasar a PRO sin un Sitemap. · Crea el Sitemap siguiendo los protocolos, si no Google no lo procesará adecuadamente. · Súbelo a Google Search Console. · Cuando actualices la web, asegúrate que todas las páginas nuevas están en el Sitemap. · Comprueba que todas las páginas que hay en el Sitemap están siendo indexadas por Google. (Pon en Google-> site:www.eldominioquesea.com) <SITEMAP>
  23. 23. ¿SE TE OLVIDA ALGO? ❏ Código de Google Analytics implementado en el <head>. ❏ Google Search Console configurado. ❏ Sitemap de URLs subido correctamente. ❏ Archivo Robots.txt subido correctamente y sin bloquear páginas importantes. ❏ El archivo Robots.txt no bloquea el acceso a Google Bot. ❏ No hay etiquetas <meta name=“robots” content=“noindex”> en páginas importantes. ❏ Comprobar con Google Search Console que no haya errores 404 graves. ❏ Comprobar que la etiqueta canonical dirige a la página correcta. ❏ Comprobar que no haya redirecciones 302 donde debería haber 301. ❏ Contenido duplicado: Comprobar con Google Search Console que no hay contenido duplicado. Si es así, implementar la etiqueta <rel=canonical> o redirigir la página con una redirección 301. ❏ Paginación: En el caso de que sea un blog, añadir las etiquetas <rel=prev> y <rel=next>. ❏ Si la web tiene varios idiomas, implementar la etiqueta <hreflang> para evitar problemas de contenido duplicado. ❏ Las URLs tienen guiones en lugar de barras bajas para separar las palabras. ❏ Se redirige correctamente de la versión con www a no www; o al contrario.
  24. 24. “LAS PERSONAS MIENTEN, LOS DATOS NO”
  25. 25. ¡Gracias! Thank you! #drupalcampES @BEAGONPOZ

×