SlideShare una empresa de Scribd logo
1 de 102
Introducción a Internet

  En esta lección, veremos cómo empezó Internet y de qué se trata. También hablaremos de
  los buscadores y su sistema de funcionamiento.

                      Introducción

                      Un poco de historia

                      Qué es un buscador y su funcionamiento

                      Modos de búsqueda en Internet

                      Práctica: Diferencia entre un buscador y un directorio

                      Práctica: Modos de búsqueda



Introducción


Habitualmente, escuchamos definiciones de Internet como “la Red de las Redes” o como “la
autopista de la información”.

Internet es una Red de porque está hecha a base de unir muchas redes locales de
ordenadores, o sea de unos pocos ordenadores en un mismo edificio o empresa, con otras
redes.




La llamamos "Red de Redes" porque es la más grande, porque en todo el mundo se puede
tener acceso a Internet: en algunos países como los del Tercer Mundo, sólo acceden los
multimillonarios y en otros como USA o los países más desarrollados de Europa, podemos
encontrar conexión e incluso en la calle.

Visite este enlace y recibirá más información acerque de lo que es una Red:
http://es.wikipedia.org/wiki/Red_de_comunicaciones
Por la Red Internet circulan constantemente cantidades increíbles de información. Por este
motivo se le llama también La Autopista de la Información. Hay 50 millones de
"Internautas", es decir, de personas que "navegan" por Internet en todo el Mundo. Se dice
"navegar" porque es normal el ver información que proviene de muchas partes distintas del
Mundo en una sola sesión.

La red nos permite conectar desde ordenadores personales, ordenadores centrales de grandes
empresas como robots y maquinaria, hasta cámaras de vídeo,.. en definitiva es una red que
interconecta una gran cantidad de dispositivos e información.



Un poco de historia


Para entender lo que es hoy en día Internet, es importante que hagamos un repaso a su
historia. Internet nació en EE.UU. hace unos 30 años. Un proyecto militar llamado
ARPANET pretendía poner en contacto una importante cantidad de ordenadores de las
instalaciones del ejercito de EE.UU. Este proyecto gastó mucho dinero y recursos en
construir la red de ordenadores más grande en aquella época.

Visite este enlace y recibirá más información acerque de lo que es una ARPANET:
http://es.wikipedia.org/wiki/ARPANET

Al cabo del tiempo, a esta red se fueron añadiendo otras empresas. Así se logró que creciera
por todo el territorio de EE.UU. Hará unos 10 años se conectaron las instituciones públicas
como las Universidades y también algunas personas desde sus casas. Fue entonces cuando se
empezó a extender Internet por los demás países del Mundo, abriendo un canal de
comunicaciones entre Europa y EE.UU.




En este gráfico podrán visualizar la evolución de Internet desde sus inicios en 1989 hasta
1999:

Referencia: Número de ordenadores conectados permanentemente a Internet, desde 1989
hasta 1997.

Internet crece a un ritmo vertiginoso, aunque es desde el 2000, cuando ese crecimiento se
convierte en algo mundial. Constantemente se mejoran los canales de comunicación con el
fin de aumentar la rapidez de envío y recepción de datos. Cada día que pasa se publican en la
Red miles de documentos nuevos, y se conectan por primera vez miles de personas. Con
relativa frecuencia aparecen nuevas posibilidades de uso de Internet, y constantemente se
están inventando nuevos términos para poder entenderse en este nuevo mundo que no para de
crecer.

Internet crece exponencialmente, el número de usuarios aumenta de forma continua. En 2006
se estimaba el número de internautas en 1.100 millones, aunque como veremos a
continuación, actualmente la cifra mundial de usuarios es en Junio de 2009 era de
1.668.870,408 usuarios de Internet. Para el 2016 se estima que el número ascenderá a 2.000
millones.




Grafica que nos muestra el porcentaje de usuarios de Internet de acuerdo a la región
geográfica donde están ubicados.



Qué es un buscador y su funcionamiento


Con más de 100 millones de páginas Web, casi otros tantos blogs, personas enviando e-mail,
Internet esta saturada de información.

La pregunta es: ¿cómo encuentro lo que busco? o ¿por dónde empiezo a buscar, aunque no
sepa exactamente qué estoy buscando?

Situémonos con un poco de historia en buscadores

Antes de que Google apareciera en Internet, la única manera de aparecer en un buscador era
gracias al botón Add URL que había al final de las páginas de muchos buscadores como
Altavista.
Debido al boom de Internet en el 2000, las empresas dejaron de invertir en publicidad,
porque ya no era rentable y empezaron a investigar cómo aparecer entre los primeros
resultados de los buscadores. A partir de este momento surgen los algoritmos automáticos y
las necesidades de los anunciantes de poder averiguar cuáles eran los factores más
importantes para poder aparecer en los buscadores.

Google, como veremos más adelante no es el único buscador que existe, Ask, Google, Live y
Yahoo son los buscadores más importantes, los cuales suman el 98% de la cobertura de
Mercado. Un 95% de los usuarios de Internet en España buscan a través de Google, ¿pero
realmente encuentran?. Un 4% de las visitas que llegan a través de buscadores se convertirán
en clientes más o menos fieles y 1/3 de los que buscan creen que si estás arriba en los
resultados de búsqueda es que eres relevante o líder del sector.
Pero, ¿Qué es un buscador?

Definiremos buscador como los servicios de búsqueda accesibles al público en la red
(Google, Yahoo, MSN, Altavista, Go, etc) que usan varias técnicas para acelerar y mejorar
las búsquedas que los usuarios realizan. La manera más habitual de elaborar los listados de
búsquedas consiste en comparar la pregunta del usuario de Internet con un archivo índice de
datos procesados previamente y almacenado en una ubicación determinada, en lugar de
comparar con millones de sitios de la red.




Esta base de datos la elaboran los buscadores de manera periódica mediante un programa
llamado “Spider”, específicamente creado rastrear y leer las páginas de Internet. El Spider
analiza las páginas y extrae de ellas aquellos términos y palabras denominadas “clave”, que
se guardan en el “archivo índice” junto con los enlaces a las páginas correspondientes. Las
preguntas o palabras de búsqueda que los usuarios realizan se comparan con este archivo
índice.


Modos de búsqueda en Internet


Existen dos modos de búsqueda por la WWW, que se explican a continuación:

       Por Temas

       Por Palabras claves



Por Temas
Yahoo, es el principal representante de este modo de búsqueda. Existen otros buscadores de
cómo Olé, pero son menos usados en España.

Visite este enlace y conozca YAHOO: http://www.yahoo.com/




Este tipo de búsqueda es ideal para cuando estamos buscando información sobre un tema
importante, como puede ser, "Revistas en Internet", o "Astronomía", o "Música Moderna".

Por cada uno de estos temas, se nos mostrarán en el buscador muchas páginas que hablan de
dicho tema. Cada página viene indicada con un título y una pequeña explicación, que nos
puede dar una idea más concreta sobre lo que podemos encontrar en esa página sin necesidad
de entrar a verla. En caso de que realmente nos interese ver toda la información de la página
escogida, no tenemos mas que pulsar sobre su título, y automáticamente aparecerá la
información en nuestra pantalla.

El buscador de temas Yahoo dispone de muchas más direcciones en su base de datos que el
buscador Ole. Este último es un buscador que sólo tiene en cuenta páginas Web en
castellano, por lo que su número es muy inferior. Por lo tanto para saber qué buscador
debemos usar, tenemos que tener una idea de si lo que buscamos puede estar o no en
castellano. Si sospechamos que no, lo mejor es ir directamente al Yahoo, y buscar allí.

Desde el punto de vista del administrador de un sitio Web es importante aparecer en este tipo
de buscadores por temáticas.


Por Palabras claves

Hay ocasiones en que buscamos temas demasiado concretos como para que se puedan
categorizar en un buscador por temas. Por ejemplo, si queremos obtener información sobre el
edificio "Empire State Building" de Nueva York, lo mejor es buscarlo mediante palabras
clave. El buscador por excelencia en España es Google y el que usan casi un 98% de la
población.

Este tipo de buscadores, nos permiten concretar el tipo de búsqueda a realizar. Cuando
buscamos algo con varias palabras clave, el buscador puede pensar que queremos la páginas
Web en las que aparezca alguna de esas palabras, o todas ellas en la misma página, o todas
ellas en el mismo orden en que las hemos escrito, y seguidas una detrás de otra. Todo esto se
puede especificar antes de realizar la búsqueda.

La “búsqueda inteligente” Smart Representation

La “búsqueda inteligente” o smart representation consiste en elaborar el índice según una
estructura que reduzca al mínimo el tiempo de búsqueda. Así, por ejemplo, estos datos se
ordenan con mucha mayor eficacia en forma de “árbol” que mediante un listado secuencial.
En los índices “árbol” la búsqueda comienza desde arriba o nudo de raíz, por lo que para
localizar términos que comienzan por letras del alfabeto anteriores a la letra inicial de la
palabra nudo, el buscador parte de la ramificación izquierda; y si la letra es posterior en el
alfabeto, de la ramificación derecha. Cada nudo subsiguiente ofrece más ramificaciones hasta
que se localiza el término en cuestión, o hasta concluir que no se encuentra en el árbol.
Mucha gente piensa que Google y Yahoo! son esencialmente lo mismo... y se equivocan. El
primero es un buscador ("search engine" en inglés) y el segundo un directorio. En Yahoo! un
grupo de personas llamados "surfers" recorren la Web seleccionando sitios, comentándolos y
clasificándolos en una base de datos según unos criterios más o menos homogéneos.
Efectivamente, luego existe un motor de búsqueda que busca en esa base de datos. Una base
de datos hecha por humanos, más pequeña por tanto que la de cualquier gran buscador, y que
está formada por los datos introducidos por esos humanos (es decir, incluye valoraciones
como "categoría" o "país").


Práctica: Diferencia entre un buscador y un directorio



      Práctica: Diferencia entre un buscador y un directorio

      Como prueba de la potencia de estos buscadores de palabras clave, podemos hacer
      el siguiente experimento.

      Buscamos nuestro nombre en Internet. Se introduce en la celda reservada para
      meter la palabra clave nuestro nombre. Si especificamos demasiado en un directorio
      no encontremos nada, pero si sólo ponemos un nombre y un apellido, puede que
      encontremos páginas Web donde aparezcan estos nombres, refiriéndose a personas
      que se llaman igual que nosotros, de las cuales puede haber varias en el Mundo.

      Abra el navegador e inserte en la barra de direcciones: www.google.com




      Introduzca su nombre completo y apellidos. Vemos que se proceden millones de
      páginas que están indexadas con tu nombre.

      Haremos ahora la comparativa:

      Abra el navegador – Abrir un directorio Yahoo: http://search.yahoo.com/dir

      Introduzca su nombre completo y apellidos. Tenga presente, que dependiendo del
      dato que introduzca, podrá darle resultados o no encontrar nada.

      ¿Por qué se produce esta diferencia en los resultados? Porque un directorio
      guarda una estructura de temas más amplia, mientras que un buscador indexa por
      palabras.
1.- ¿Yahoo es un buscador como Google?
    Yahoo y Google son iguales y se basan en la misma estructura
    Ninguna de las respuestas es correcta.
     Sí, Yahoo muestra resultados de cuando se introduces una palabra.
2.- ¿Qué es un buscador?
    Ninguna de las respuestas es correcta.
     Una herramienta para buscar conceptos según unos archivos
realizados aleatoriamente.
     Una técnica para acelerar y mejorar las búsquedas que los usuarios
realizan a través de Internet.
3.- ¿Qué es la smart representation?
    La smart representation es lo que hace Google cuando muestra los
resultados en sus páginas.
    La búsqueda inteligente se refiere a listados de temas.
     La “búsqueda inteligente” consiste en elaborar el índice según una
estructura que reduzca al mínimo el tiempo de búsqueda Por palabras
clave.
4.- Modos de búsqueda a través de Internet.
    Ambas respuestas son correctas.
    Por temas, que busca por un tema en general o una categoría amplia.
     Por palabras clave que busca por temas más concretos o palabras.
5.- ¿Diferencias entre un buscador y un Directorio?
    Un buscador es un motor de búsqueda que ordena según conceptos, y
un directorio se basa en el trabajo de unos “surfers”que recorren la Internet
seleccionando sitios y clasificándolos según unos criterios homogéneos.
     No existe diferencia entre un buscador y un directorio, ambos se
utilizan para mostrar resultados tras una búsqueda.
    Un buscador se ordena según una estructura de árbol y un directorio
no sigue estructura alguna.
1.- ¿Yahoo es un buscador como Google?
    Yahoo y Google son iguales y se basan en la misma estructura
    Ninguna de las respuestas es correcta.
     Sí, Yahoo muestra resultados de cuando se introduces una palabra.
2.- ¿Qué es un buscador?
    Ninguna de las respuestas es correcta.
    Una herramienta para buscar conceptos según unos archivos realizados
aleatoriamente.
     Una técnica para acelerar y mejorar las búsquedas que los usuarios realizan a través
de Internet.
3.- ¿Qué es la smart representation?
    La smart representation es lo que hace Google cuando muestra los resultados en sus
páginas.
    La búsqueda inteligente se refiere a listados de temas.
    La “búsqueda inteligente” consiste en elaborar el índice según una estructura que
reduzca al mínimo el tiempo de búsqueda Por palabras clave.
4.- Modos de búsqueda a través de Internet.
    Ambas respuestas son correctas.
    Por temas, que busca por un tema en general o una categoría amplia.
     Por palabras clave que busca por temas más concretos o palabras.
5.- ¿Diferencias entre un buscador y un Directorio?
     Un buscador es un motor de búsqueda que ordena según conceptos, y un directorio
se basa en el trabajo de unos “surfers”que recorren la Internet seleccionando sitios y
clasificándolos según unos criterios homogéneos.
   No existe diferencia entre un buscador y un directorio, ambos se utilizan para
mostrar resultados tras una búsqueda.
     Un buscador se ordena según una estructura de árbol y un directorio no sigue
estructura alguna.
Cómo funciona el
        posicionamiento

  En esta lección, veremos cómo funciona el posicionamiento de las páginas Web que
  encontramos en los buscadores.

                   Cómo rastrea Internet


                   Cómo hacer para que se indexen mis páginas


                   Cómo lee un buscador un sitio Web


                   Organización de un SERP

                   Elementos para fomentar la entrada de un robot en nuestra
                   Web

                   Puedo evitar ser rastreado

                   Práctica: Diferencia existe entre los resultados orgánicos y de
                   pago




Cómo rastrea Internet

Para acceder al mayor número de páginas posibles, los buscadores acceden a unas páginas
introducidas manualmente en una lista (semillas) y guardan las URL de los hipervínculos
para descargarlas posteriormente.

Una URL (sigla en inglés de uniform resource locator) es un localizador uniforme de
Recursos, una secuencia de caracteres, de acuerdo a un formato estándar, que se usa para
nombrar recursos, como documentos e imágenes en Internet, para su posterior localización.

Ningún buscador dispone de información actualizada de todas y cada una de la páginas de
Internet, pero realizan esfuerzos importantes para que sus robots rastreen todas las páginas
posibles luchando contra estos dos factores:

   1. Para luchar contra el gran volumen de páginas, los buscadores deben aumentar el
      número de páginas descargadas por segundo, y esto lo consiguen mejorando su
      conectividad y la localización geográfica y número de robots de rastreo.

   2. Para tener siempre los contenidos actualizados, la solución no es tan sencilla como
      revisar cada Web más a menudo, porque esto supone un aumento enorme del
número de páginas a descargar. En estos casos lo que se hace es detectar el grado de
       variabilidad (también llamado frescura) de cada documento indexado para
       determinar cada cuando hay que revisarla.



Cómo hacer para que se indexen mis páginas

Para que un buscador rastree tu página Web, primero deberá conocer tu URL, esto podemos
conseguirlo enviando la URL al buscador desde un formulario para que la guarde en su base
de datos, o poniendo enlaces hacia nuestra URL en otras páginas ya indexadas, vamos a
detallar más cada opción:

       El formulario de URL's


La mayoría de buscadores disponen de formularios que permiten introducir la URL de tu
página para ser indexada, proceso por el que el contenido de un sitio se añade a un motor de
búsqueda, posteriormente.

Este sistema suele ser menos interesante ya que un factor importante para aparecer en los
primeros resultados de un buscador es el número de enlaces hacia tu página y de esta
manera nuestra página tendrá 0 enlaces entrantes.

Google ha introducido una nueva e interesante manera de indicar al buscador que
contenidos de tu Web debe rastrear llamada sitemaps.

       Los enlaces entrantes


Aunque para que un robot nos rastree encontrando un enlace entrante a nuestra página es
una opción más lenta (hay que conseguir enlaces entrantes en sitios indexados, esperar que
el robot los rastree y apunte nuestra URL y esperar que finalmente nos rastree a nosotros)
sobre todo si contamos con el efecto sandbox, los enlaces entrantes son un factor importante
para conseguir una buena posición.

Ambas prácticas tienen sus pros y sus contras, por esto es aconsejable llevar a cabo ambas
simultáneamente.

Cómo lee un buscador un sitio Web

Una vez que un robot entra en una página se lee el código buscando identificar una serie de
zonas: la cabecera, el cuerpo... y dentro de éstas, intenta localizar las etiquetas clave, es
decir, las palabras que identifican los contenidos, estructuras, archivos, secciones, etc. de la
Web.

Sin embargo, esta lectura del código no tiene porque ser lineal. Google por ejemplo
posterga el contenido de las tablas. En la clásica página en la que los contenidos aparecen
enmarcados por un par de tablas anidadas, fuera de las cuales apenas queda la dirección de
la empresa o el copywrite, lo primero que leería sería precisamente aquello que aparece
fuera de la tabla (es decir, información secundaria).

¿Es eso realmente importante? Desde luego, ya que veremos que es una de las variables a
tener en cuenta es la posición del término de búsqueda dentro del cuerpo de la página.
La "sensación" del robot a la hora de leer nuestra página será muy parecida a la que
 tengamos nosotros al leer la misma página desde un ordenador de bolsillo (ODB o PDA en
 inglés). Es una experiencia recomendable para programadores y diseñadores Web: al no
 tener espacio para mostrar todo el ancho de página, rompe el contenido mostrando columna
 a columna.

 Lo primero que vemos de una Web es un largo e inútil menú, y no la información que
 buscamos. El robot en cambio lee fila a fila, pero al anidar tablas en celdas de otras tablas
 mayores, hacemos que el orden de lectura del buscador sea diferente del que intuitivamente
 pensamos al ver la página en el navegador. Incluso el orden es algo importante. Algunos
 robots incluso, buscan las cosas en un determinado orden y sólo en él. De modo que si por
 ejemplo, la etiqueta <TITLE> no es la primera bajo la etiqueta <HEAD>, no archivará en
 su base de datos el título de la Web.




Organización de un SERP

SEPR viene de Search Engine Results Page (Páginas de Resultados de Buscadores), es la
página de los resultados que nos muestra un buscador. Frecuentemente se hace referencia a la
lista de resultados de un buscador.

Si hablamos de Google podemos distinguir entre la lista de resultados orgánica y la de pago.
La lista de resultados orgánica se basa en las páginas indexadas que rastrea y almacena el
crawler o robot, mientras que la lista de lago es aquella que nos aparece como enlaces
patrocinados.

A continuación vemos los resultados de búsqueda orgánicos o naturales en un buscador
como Google:
A continuación vemos los resultados de búsqueda de pago o SEM:




Elementos para fomentar la entrada de un robot en nuestra Web

Peso según frecuencia

Como resultado de estas búsquedas suelen ofrecerse numerosos enlaces o URL (unified
resource locator) de sitios que contienen los términos o palabras claves buscadas. Pero todos
los enlaces resultantes tienen por lo general la misma relevancia, debido sobre todo a
determinadas ambigüedades de cada uno de los idiomas y a que el sistema es incapaz de
interpretar totalmente el contenido semántico de los textos. Para deducir los registros más
pertinentes, el algoritmo de búsqueda aplica otras estrategias clasificatorias más complejas.
Un método habitual, conocido como “peso según frecuencia”, asigna un peso relativo a las
palabras para indicar su importancia en cada documento; la asignación de relevancia se basa
en la distribución de las palabras y en la frecuencia con que aparecen en cada uno de los
sites.

Sin embargo, como veremos a continuación este nuevo filtro tampoco es perfecto y es muy
vulnerable al “pirateo” o a la trampa (la más simple de ellas sería la creación de Web
únicamente destinada a la acumulación, visible o invisible para el visitante del sitio, de
enlaces) y se requieren más análisis.

La importancia del Contenido

Si queremos que los robots nos visiten más a menudo, consiguiendo tener siempre nuestro
contenido actualizado en sus índices, deberemos aumentar el grado de variabilidad o frescura
de nuestras páginas modificándolas a menudo y aportando nuevos contenidos de forma
regular, esto lo veremos en el capitulo siguiente.

Actualmente, una Web ha de ser dinámica, es decir, que presente un constante cambio de
contenidos. Las Web corporativas y estáticas que no se actualizan en meses o años, han
quedado desfasadas y reemplazadas por la calidad, cantidad y originalidad de los contenidos
que publiquemos.

El secreto de un sitio Web son sus contenidos y, principalmente, que estos contenidos sean
originales, ya que un buscador va a enseñar a los usuarios que hacen búsquedas lo optimo y
actual para ellos.

Análisis de enlaces

Pero ¿qué usa Google que hace más efectiva su búsqueda?. El análisis de enlaces, constituye
la estrategia fundamental de discriminación y a la que mayor peso específico tiene sobre el
SEO. Básicamente esta técnica estudia la naturaleza de cada página, si se trata de una
“autoridad”(es decir, los enlaces de otras páginas remiten a ella) o si es un “eje” (remite a
otras páginas). En otras palabras: la popularidad de la página donde se sitúa el enlace.



Puedo evitar ser rastreado


Existen diferentes métodos llamados Métodos de Exclusión que permiten evitar que un
buscador rastree e indexe nuestra página, vamos a conocer algunos de ellos:

El estándar de exclusión de robots, también conocido como el protocolo de la exclusión
de robots o protocolo de robots.txt es un método para evitar que ciertos bots que analizan
los sitios Web u otros robots que investigan todo o una parte del acceso de un sitio Web,
público o privado, agreguen información innecesaria a los resultados de búsqueda. Los
robots son de uso frecuente por los motores de búsqueda para categorizar archivos de los
sitios Webs, o por los webmasters para corregir o filtrar el código fuente.

       El archivo robots.txt - un archivo robots.txt en un sitio web funcionará como una
       petición que especifica que determinados robots no hagan caso a archivos o
       directorios específicos en su búsqueda. Esto puede realizarse, por ejemplo, para dejar
       fuera de una preferencia los resultados de una búsqueda avanzada, o de la creencia
       que el contenido de los directorios seleccionados puede ser engañoso o inaplicable a
       la clasificación del sitio en su totalidad.
Meta-Tags específicos para robots - son unos caracteres pertenecientes al HTML
  que se deben de escribir dentro del tag general <head> y que lo podemos definir
  como líneas de código que indican a los buscadores que le indexan por qué términos
  debe ser encontrada la página. Dependiendo de la utilización, caracterización y
  objetividad de dichos meta, se puede conseguir una excelente posición en el listado
  resultante de una búsqueda.

  Formularios de eliminación




Práctica: Diferencia existe entre los resultados orgánicos y de pago


      Práctica: Diferencia existe entre los resultados orgánicos y de pago

      Abra el navegador e introduzca www.Google.es en la barra del navegador.

      Busque las palabras " formación profesional".




      Marque con un recuadro los resultados orgánicos, y marque con otro recuadro
      los resultados de SEM.




      Realice esta misma operación, con 2 ó 3 palabras que le interese.
1.- ¿Es importante el contenido de una Web corporativa?
    No, aunque de forma interna para la compañía sí.
   El secreto de una Web no radica en el contenido, aunque es
importante.
     Sí, ya que una Web corporativa es la imagen de la empresa, debe ser
dinámica y con contenido de calidad.
2.- ¿Es importante cómo se estructura el código para posicionar
nuestra Web?
    No, ya que lo importante es el peso y la relevancia de las palabras de
nuestro sitio.
    El secreto de una Web es el cuerpo del código html.
     Sí, ya que el código determinará la lectura del buscador en nuestra
Web y así, descartará o cogerá lo que sea de interés.
3.- ¿Que es el SERP?
    Es la página resultante de los resultados de búsqueda de pago.
    Es la página resultante de los resultados de búsqueda orgánicos.
     Es la página resultante de los resultados de búsqueda naturales y de
pago.
4.- ¿Qué hace efectiva la búsqueda que ofrece Google?
    La notoriedad que cada uno le da a su página Web.
    El SEO que aplica.
     El análisis de enlaces que constituye una estrategia fundamental de
discriminación entre todas las Web.
5.- ¿Qué es una Url?
    Es el nombre de mi Web.
   Es una secuencia de caracteres que se usa para nombrar documentos e
imágenes en Internet, para su posterior localización.
     Es el título que le ponemos a cada una de las Web que se indexan.
6.- ¿Puedo evitar ser rastreado?
    No.
     Los métodos de exclusión permiten que un buscador rastree o indexe
las zonas que le indicamos de nuestra Web.
     A veces, en función de cómo este hecha la Web.
7.- ¿Cómo podemos indexar las páginas de una Web?
    No se puede indexar las páginas de una Web manualmente, es el
buscador quien lo hace.
    Indicándole al crawler o robot la Url, a través de un formulario y con
enlaces entrantes a mi Web.
    A través de un formulario.
1.- ¿Puedo evitar ser rastreado?
    No.
    A veces, en función de cómo este hecha la Web.
     Los métodos de exclusión permiten que un buscador rastree o indexe
las zonas que le indicamos de nuestra Web.
2.- ¿Qué hace efectiva la búsqueda que ofrece Google?
    El análisis de enlaces que constituye una estrategia fundamental de
discriminación entre todas las Web.
    La notoriedad que cada uno le da a su página Web.
     El SEO que aplica.
3.- ¿Es importante cómo se estructura el código para posicionar
nuestra Web?
    No, ya que lo importante es el peso y la relevancia de las palabras de
nuestro sitio.
    El secreto de una Web es el cuerpo del código html.
     Sí, ya que el código determinará la lectura del buscador en nuestra
Web y así, descartará o cogerá lo que sea de interés.
4.- ¿Que es el SERP?
    Es la página resultante de los resultados de búsqueda de pago.
    Es la página resultante de los resultados de búsqueda orgánicos.
     Es la página resultante de los resultados de búsqueda naturales y de
pago.
5.- ¿Qué es una Url?
    Es el nombre de mi Web.
    Es el título que le ponemos a cada una de las Web que se indexan.
     Es una secuencia de caracteres que se usa para nombrar documentos e
imágenes en Internet, para su posterior localización.
6.- ¿Cómo podemos indexar las páginas de una Web?
    A través de un formulario.
    No se puede indexar las páginas de una Web manualmente, es el
buscador quien lo hace.
     Indicándole al crawler o robot la Url, a través de un formulario y con
enlaces entrantes a mi Web.
7.- ¿Es importante el contenido de una Web corporativa?
    No, aunque de forma interna para la compañía sí.
   El secreto de una Web no radica en el contenido, aunque es
importante.
    Sí, ya que una Web corporativa es la imagen de la empresa, debe ser
dinámica y con contenido de calidad.
Importancia del dominio y
   elección de palabras claves

En esta lección, veremos conceptos relacionados con el dominio, trataremos sobre la relevancia
que tiene la elección de las palabras claves que definen nuestra Web.

                    El dominio


                    Cómo crear palabras claves


                    El concepto de popularidad


                    Elección de los términos clave o Keywords


                    Elección del hosting y el efecto sobre el posicionamiento


                    Práctica: Comprobar la antigüedad de un dominio




El dominio




Uno de los elementos más importantes de un sitio Web es su dominio. Si quiere que tenga algún peso
en posicionamiento es interesante que contenga la palabra clave principal del proyecto. Esto no
significa que sea imprescindible, pero ayudará a mejorar la posición en la mayoría de motores de
búsqueda. Ante la elección entre un dominio con o sin guiones, lo mejor es no usar ningún tipo de
elemento “extraño” en la dirección, y en caso de ser necesario, sólo tenga como máximo un guión.



Vea este enlace y la importancia de un buen dominio:



http://www.inmoblog.com/portales-inmobiliarios/la-importancia-de-un-buen-dominio/



Territorialidad del dominio
Los buscadores, cada vez más, están dando más importancia a la geoposición de un dominio, es
decir, que si la información de un dominio está enfocada a un país en concreto, este dominio
aparecerá mejor posicionado en la edición local de ese buscador.


Esto significa que si el contenido de un dominio está enfocada a España, lo mejor es usar un dominio
.ES, que si está enfocada para Estados Unidos usemos un dominio .US o si está enfocada para Grecia
usemos un .GR.



Esto no significa que no podamos usar los dominios .COM o .NET para incorporar información, pero en
estos casos los haremos de una forma más genérica. Al fin y al cabo… ¿para qué existen dominios
territoriales si luego no tienen ninguna influencia en los usuarios o los motores de búsqueda?



Edad del dominio



Que un dominio lleve mucho tiempo registrado y en línea es un buen elemento a tener en cuenta para
que se indexe de forma correcta y se tenga en cuenta como lugar destacado de Internet.



Aún así, aquellos que compran un dominio pensando en mantener su edad histórica, han de saber que
hoy en día la mayor parte de buscadores también son registradores de dominios, de forma que tienen
control absoluto sobre los cambios de titularidad o que haya en los mismos.



Fuentes internas de Google dicen que si un dominio cambia de titular, ese dominio queda reseteado
en su edad y el motor lo tratará como uno nuevo. Aún así, los resultados de búsqueda por ahora no
indican eso.



En caso de que tengas la posibilidad de adquirir un dominio antiguo, es muy interesante ver qué había
en él históricamente y para ello puedes usar la herramienta Wayback Machine donde verás de forma
temporal el contenido de un sitio a modo de caché.



Compruebe la antigüedad de su dominio, con esta herramienta tendrá acceso al contenido que había
publicado en su Web antiguamente: http://www.archive.org/web/web.php



Dominios Aparcados



En la actualidad cuando se compra un dominio que no está pensado desarrollarse es posible
establecerlo en sitios donde, al entrar, aparece una página en la que únicamente hay enlaces de pago.
Aunque este sistema puede ser rentable, en el momento en el que se decida lanzar un proyecto bajo
este dominio es probable que te encuentres con que los robots de búsqueda no pasan a indexarlo y
mucho menos posicionarlo.



En caso de encontrarte en esta situación lo mejor es comenzar a generar contenido y cuando
hayan pasado al menos 6 semanas dar de alta el dominio en los buscadores de nuevo, crear
Sitemaps y comenzar un proceso de reinclusión, como el que permite Google.



Cómo crear palabras claves


Una vez analizados los elementos estructurales del código de sites veamos el análisis de la
importancia de las palabras claves. Los conceptos generalmente usados son:

       Frecuencia
       Recuento
       Peso
       Relevancia


El trabajo sobre el código de una página de cara a su posicionamiento consiste en medir cada
una de estas variables en cada una de las áreas y modificar su contenido si sale de los márgenes
recomendados por el estudio lexométrico para uno o varios buscadores.

Definamos ahora estos conceptos:

Frecuencia

Es el número de veces que el término de búsqueda aparece en el área. Varía en función de si los
robots "leen" partiendo palabra o no, de si distinguen o no acentos, de si se elige la opción de
búsqueda exacta y de si la búsqueda es sensible o no a las mayúsculas ("case sensitive" en
inglés).

Por ejemplo: Scooter, el robot de Altavista, distingue como palabras diferentes "leon" y "león"
o "enfermería" y "enfermeria" (buscada 12 veces más que la anterior). Sin embargo si
encuentra "Leon" y "leon", asignaría una frecuencia uno al término de búsqueda "leon" (ya que
parece ser sensible a la distinción mayúsculas/minúsculas).

Googleboot, el robot de Google, por el contrario ha modificado su algoritmo recientemente
para equiparar "leon" a "león" y "Leon" como la misma palabra (los usuarios no suelen poner
acentos :)) aunque al igual que Scooter sigue sin partir palabra (de modo que en la frase "Los
ciberpunks piensan que el ciberpunk es algo más que un género literario", la frecuencia de
"ciberpunk" sería uno y no dos tanto para Scooter como para Googleboot).

En este ejemplo vemos como Google tiene en cuenta la palabra "Leon" y "león", de la misma
manera:
Recuento

Cuenta el total de palabras en un área excluyendo las etiquetas HTML.

Peso

El peso es el porcentaje que el término de búsqueda representa sobre el total de palabras en la
página o el área analizados. Dado que el término de búsqueda puede estar formado por varias
palabras, la fórmula general del peso podríamos definirla como:

                                         P=n*F/R

n = número de palabras del término de búsqueda.
R = Recuento del área.
F = Frecuencia del término de búsqueda.

En cualquier caso hay una amplia discusión sobre el papel del peso y su cálculo exacto. En
general, suele rondar el 3% para las páginas mejor posicionadas... aunque obviamente esto se
debe a que la frecuencia y el recuento de estas suele ser similar. Es lo que en lexometría
llamaríamos un caso de "multicolinealidad".En la práctica vigilar el peso sirve como chequeo
de la proporción entre frecuencia y recuento, no tanto como una variable independiente que
actúe por si misma.

Relevancia

La relevancia mide la distancia entre el comienzo del área y el lugar donde aparece la palabra
clave. Claro que hay que tener en cuenta la forma en la que los robots "leen" la página, pues
algo que esté gráficamente más arriba al verlo en el navegador, no necesariamente está más
arriba en el código. Recordemos que Google por ejemplo "salta" las tablas y las lee al final.

Si el término de búsqueda aparece como primera palabra del área la prominencia es 100% y si
es la última el 0%. Si aparece varias veces, se promedia. Es decir, a no ser que hagamos R muy
baja, dejando la palabra clave sólo como primera palabra del body, nunca tendrá un 100%,
aunque lo más recomendable es colocarla con cierta profusión en el primer tercio de cada área.

Un ejemplo de artículo podría ser éste (una supuesta Web de ciencia con un nivel medio-bajo):

La vida empezó “en el fondo del mar”. Una nueva y controvertida teoría sobre el origen de la
vida en la Tierra ha dado que hablar en la comunidad científica.

La nueva concepción sostiene que los organismos vivos se originaron en los que llama
“incubadores inorgánicos”. Se trata de pequeños nidos formados en rocas de sulfuro de
hierro.

La teoría, propuesta por los profesores William Martin, de la Universidad de Düsseldorf
(Alemania), y Michael Russell, del Centro Escocés de Investigación Ambiental en Glasgow,
cuestiona de la raíz ideas convencionales.

Hasta ahora se ha sostenido que primero se formaron los ladrillos elementales de la vida, los
cuales se fueron juntando para generar una estructura celular básica.

La nueva propuesta señala, en cambio, que la célula se formó primero y que después se rellenó
con moléculas de vida.

Una de las implicaciones de la teoría es que existen más probabilidades de que se desarrollen
organismos en planetas donde antes se pensaba que sería imposible.

Tras la lectura de este fragmento de noticia podrías plantearte cuáles son los conceptos que tal
vez interesaría posicionar: “dónde comenzó la vida” y “origen de la vida”. Estas dos frases
pueden ser una búsqueda que la gente haga y por tanto es algo que debes plantearte posicionar.
Además podrías destacar los nombres de los científicos.

Así pues, puedes dejar redactado el artículo de la siguiente manera:

El origen de la vida en el fondo del mar

Una nueva y controvertida teoría sobre el origen de la vida en la Tierra ha dado que hablar en
la comunidad científica.

La nueva concepción sostiene que los organismos vivos se originaron en los que llama
“incubadores inorgánicos”. Se trata de pequeños nidos formados en rocas de sulfuro de
hierro.
La teoría sobre dónde comenzó la vida, propuesta por los profesores William Martin, de la
Universidad de Düsseldorf (Alemania), y Michael Russell, del Centro Escocés de Investigación
Ambiental en Glasgow, cuestiona de la raíz ideas convencionales.

Hasta ahora se ha sostenido que primero se formaron los ladrillos elementales de la vida, los
cuales se fueron juntando para generar una estructura celular básica.

La nueva propuesta señala, en cambio, que el origen de la vida está en la célula que se formó
primero y que después se rellenó con moléculas de vida.

Una de las implicaciones de la teoría es que existen más probabilidades de que se desarrollen
organismos en planetas donde antes se pensaba que sería imposible.

Una vez tienes el texto completamente redactado (con las principales frases con las que
conseguir tráfico en párrafos con cierta distancia, una combinación de palabras cada 2 ó 3
párrafos), debes plantear si debe quedar como texto plano o marcando algunas palabras de
alguna forma.

Con este nuevo título y el haber introducido un par de veces los conceptos es muy probable que
el posicionamiento mejore en muchos buscadores. Eso sí, hay que tener en cuenta una cosa: no
abusar. La lectura para una persona es muy similar en los dos textos, aunque en el segundo,
hacemos que la lectura para los buscadores mejore significativamente.

El origen de la vida en el fondo del mar

Una nueva y controvertida teoría sobre el origen de la vida en la Tierra ha dado que hablar en
la comunidad científica.

La nueva concepción sostiene que los organismos vivos se originaron en los que llama
“incubadores inorgánicos”. Se trata de pequeños nidos formados en rocas de sulfuro de
hierro.

La teoría sobre dónde comenzó la vida, propuesta por los profesores William Martin, de la
Universidad de Düsseldorf (Alemania), y Michael Russell, del Centro Escocés de Investigación
Ambiental en Glasgow, cuestiona de la raíz ideas convencionales.

Hasta ahora se ha sostenido que primero se formaron los ladrillos elementales de la vida, los
cuales se fueron juntando para generar una estructura celular básica.
La nueva propuesta señala, en cambio, que el origen de la vida está en la célula que se formó
primero y que después se rellenó con moléculas de vida.

Una de las implicaciones de la teoría es que existen más probabilidades de que se desarrollen
organismos en planetas donde antes se pensaba que sería imposible.

En este último fragmento, el haber añadido conceptos en negritas y cursivas hará que el robot
de búsqueda se quede atento a esos conceptos y les de cierta importancia por encima del resto
del documento.


El concepto de popularidad


Cuando Google apareció en la Web, allá por el 2000, la noticia se transmitió rápidamente por
el viejo sistema del boca a boca. Expertos y usuarios finales pensaban que por fin había alguien
un motor de búsqueda imparcial y realmente útil. ¿Por qué? Sobre todo por su capacidad para
jerarquizar resultados.

Hasta entonces, el lugar en la lista de resultados venía dado exclusivamente por el grado de
asociación de la página al término de búsqueda en la base de datos del buscador (en los buenos
buscadores) o incluso por la antigüedad (en los malos) Google fue el primero en completar la
asociación con un criterio jerárquico completamente diferente e independiente de los
componentes del código: la "popularidad".

¿Qué significa esto? De un modo muy sencillo podríamos decir que tu página será tanto más
importante a la hora de ordenar resultados, cuantas más enlaces en otras páginas indexadas le
apunten. ¿Eso era todo? Realmente no. Si el "índice de popularidad" fuera igual a la suma del
número de enlaces que nos apuntan, bastaría con crear una multitud de páginas que apuntaran a
la nuestra para mejorar su posicionamiento. Los algoritmos de "popularidad" se defienden de
un modo sencillo pero efectivo de esta posible trampa:

El "índice de popularidad" es en realidad la suma del número de páginas que nos apuntan
ponderada por el índice de popularidad de cada una de ellas (medido en porcentaje sobre la
máxima puntuación alcanzable).

Podríamos resumirlo en la siguiente fórmula:

                             P(x) = 1/P(1) + 1/P(2) + ..... + 1/P(n)

Esta fórmula se ve ponderada según el término de búsqueda por el grado de relación con los
términos buscados de las páginas que nos apuntan, de modo que la fórmula de ordenación final
de resultados sería un poco más compleja y sería parecida a:

               F (x) = G(x) *(1/G(1)*P(1) + 1/G(2)*P(2) + ..... + 1/G(n)*P(n) )

Siendo G el algoritmo que en función del análisis del código de una página y del texto del
enlace que nos apunta establece el grado de relación de esta con el término de búsqueda y que
se mide también como un porcentaje del máximo alcanzable.

Es decir, Google representa un avance en las herramientas de indexación y búsqueda en la
WWW porque cuando solicitas una búsqueda realiza un trabajo en cuatro fases:
1. Busca en su base de datos aquellas URLs asociadas a la palabra criterio de búsqueda.

   2. Calcula sus distintos grados de asociación.

   3. Ordena las URL en función de su popularidad ponderada con el grado de asociación de
      las páginas que le apuntan y del texto del enlace que nos apunta desde ellas.

   4. Presenta los resultados.


Hay que señalar sin embargo que aunque las tecnologías basadas en la popularidad se van
extendiendo, ni siquiera Google las incorpora homogéneamente: por ejemplo, en la ordenación
de resultados de su directorio simplemente ordena dentro de cada categoría en función del
índice de popularidad (representado por una barrita verde). Si lo pensamos esto tiene su lógica,
ya que se supone que el criterio que nos lleva a una categoría determinada de un directorio es
el mismo para todas las Web incluidas en él, lo que le exime de realizar el trabajo de
asociación URL/criterio de búsqueda.

Otra nota importante es la importancia del “qué” nos apunta. El texto del enlace puede, si el
número de enlaces es suficiente, llegar a determinar la asociación de una página con un
término de búsqueda que ni siquiera contenga en su contenido. Como escribe Adam Mathes:

Descubrí que cuando buscaba el término "Internet rockstar" devolvía la página de Ben
[Brown]. En aquel momento, sin embargo el ni siquiera tenía la frase en su página aunque la
legión de Blogger quinceañeros que le enlazaban siempre usaban esa frase en sus enlaces.

Este hecho, recientemente comprobado en Google, implica no sólo la inutilidad de las
tradicionales campañas de banners de cara a la popularidad (ya que los enlaces pasan por un
servidor intermedio), sino también que frente al tradicional énfasis en los gráficos, el elemento
clave del enlace vuelve a ser el texto.




Elección de los términos clave o Keywords




Es lo primero y parece obvio... Pero no lo es: no lo es por varios motivos: en primer lugar porque como
ya hemos visto, en la mayoría de los buscadores no es lo mismo una palabra con acento que la misma
sin acento ("enfermería" que "enfermería" por ejemplo), por lo que de optimizar para una
(normalmente la que no tiene acentos) estaríamos perdiendo los que buscan la otra. Claro que no
siempre podemos elegir y tendremos que forzar en muchos casos una "doble optimización" para la
palabra con y sin acento.



Por otro lado, conseguir resultados óptimos para una única palabra nos sitúa en la competición más
dura. En general será más fácil obtener un buen posicionamiento cuanto más específica sea la
búsqueda, es decir, posicionar www.guiadeenfermeria.com para "enfermería" será siempre más difícil
que para "enfermería clínica".
Lo recomendable es jugar con un término principal para el que optimizamos el código consciente y
rigurosamente y un término secundario o dos para el que dejaremos pistas en el código pero sin
forzar la programación. Pero, ¿cómo elegimos el término principal?. Tres deberían ser los criterios:



        el término más buscado relacionado con el tema principal de nuestra página

        el término por el que los usuarios que ya nos conocen buscarían nuestra página

        el término más atractivo para el potencial público de nuestra página



Con esta herramienta que proporciona Google podremos ver cuál es el volúmenes de búsquedas que
tiene una palabra clave: http://www.google.com/insights/search/#




Elección del hosting y el efecto sobre el posicionamiento




De la misma manera que el dominio determinará, en muchos casos, nuestro posicionamiento
orgánico, es importante la elección del hosting. El hosting determinará en gran medida la respuesta
de nuestro site, por lo que es importante que esté situado en el lugar para el que está respondiendo.
Si queremos alojar una Web española es necesario que la Web esté en un hosting Español. Así como
la Geolocalización del dominio es vital, la elección del hosting también afectará a la localización.



Definición sobre hosting o alojamiento de nuestra Web: http://es.wikipedia.org/wiki/Hosting




Práctica: Comprobar la antigüedad de un dominio



      Práctica: Comprobar la antigüedad de un dominio

      Abra una nueva pantalla del navegador.

      Introduzca http://web.archive.org

              Introduzca la URL del la página que se desea saber (indicar que sea
              www.lavanguardia.es).
Nos indica que el dominio es de 01 de enero de 1996




       Realice esta misma operación, con 2 ó 3 dominios que le interese conocer.




1.- ¿Qué es una palabra clave y cómo nos afecta
     Una palabra clave es el término con los que vamos a optimizar nuestro
sitio.
    Una palabra clave es la palabra con que se asocia a nuestra Web.
    Una palabra clave determina el sector de nuestra Web.
2.- Definamos el concepto de popularidad como:
    El "índice de popularidad" es la suma del número de páginas que nos
apuntan por el índice de popularidad de cada una de ellas.
    La popularidad es lo conocida que es nuestra marca en Internet.
     Es el número de links que apuntan a nuestra página.
3.- ¿Qué es la relevancia?
    Es el número de veces que el término de búsqueda aparece en el
contenido.
Es la importancia de nuestra Web en los buscadores.
     La relevancia mide la distancia entre el comienzo del area y el lugar
donde aparece la palabra clave.
4.- ¿Es importante la edad de un dominio?
    Sí, es interesante adquirir un dominio antiguo.
     Sí es importante aunque hay que comprobar que no se haya reseteado
la edad y haya perdido toda la antigüedad.
    No.
5.- Definamos recuento como:
  Es la cuenta el total de palabras en un área excluyendo las etiquetas
HTML.
    Total de veces que sale nuestra Web en un buscador y en directorio.
     Total de veces que sale nuestra Web en un buscador.
6.- ¿Es lo mismo el dominio y la URL?
    Ambas respuestas son correctas.
    El dominio es uno de los elementos más importantes de un sitio Web.
     El dominio es parte de la composición de la URL.
7.- ¿Cómo elegir una Keywords?
    Según el tema principal de nuestra Web, por como los usuarios nos
buscarían en nuestra Web.
    En función del sector de la empresa.
     Por las palabras los usuarios nos relacionan.
8.- ¿Qué es la Frecuencia?
    Es el número de veces que búscan nuestra Web en Google.
    Número de veces que sale nuestra Web en un buscador.
     Es el número de veces que el término de búsqueda aparece en el área
del contenido de nuestra Web.
9.- ¿Qué es el peso?
    El peso es el total de Kilobytes que pesa mi Web.
     El peso es el porcentaje que el término de búsqueda representa sobre
el total de palabras en la página o el área analizados.
    El peso se mide en función de cada Web y tiene que ver con las
palabras claves.


1.- ¿Qué es una palabra clave y cómo nos afecta
     Una palabra clave es el término con los que vamos a optimizar nuestro
sitio.
    Una palabra clave es la palabra con que se asocia a nuestra Web.
    Una palabra clave determina el sector de nuestra Web.
2.- Definamos el concepto de popularidad como:
El "índice de popularidad" es la suma del número de páginas que nos
apuntan por el índice de popularidad de cada una de ellas.
    La popularidad es lo conocida que es nuestra marca en Internet.
     Es el número de links que apuntan a nuestra página.
3.- ¿Qué es la relevancia?
    Es el número de veces que el término de búsqueda aparece en el
contenido.
    Es la importancia de nuestra Web en los buscadores.
     La relevancia mide la distancia entre el comienzo del area y el lugar
donde aparece la palabra clave.
4.- ¿Es importante la edad de un dominio?
    Sí, es interesante adquirir un dominio antiguo.
     Sí es importante aunque hay que comprobar que no se haya reseteado
la edad y haya perdido toda la antigüedad.
    No.
5.- Definamos recuento como:
  Es la cuenta el total de palabras en un área excluyendo las etiquetas
HTML.
    Total de veces que sale nuestra Web en un buscador y en directorio.
     Total de veces que sale nuestra Web en un buscador.
6.- ¿Es lo mismo el dominio y la URL?
    Ambas respuestas son correctas.
    El dominio es uno de los elementos más importantes de un sitio Web.
     El dominio es parte de la composición de la URL.
7.- ¿Cómo elegir una Keywords?
    Según el tema principal de nuestra Web, por como los usuarios nos
buscarían en nuestra Web.
    En función del sector de la empresa.
     Por las palabras los usuarios nos relacionan.
8.- ¿Qué es la Frecuencia?
    Es el número de veces que búscan nuestra Web en Google.
    Número de veces que sale nuestra Web en un buscador.
     Es el número de veces que el término de búsqueda aparece en el área
del contenido de nuestra Web.
9.- ¿Qué es el peso?
    El peso es el total de Kilobytes que pesa mi Web.
     El peso es el porcentaje que el término de búsqueda representa sobre
el total de palabras en la página o el área analizados.
    El peso se mide en función de cada Web y tiene que ver con las
palabras claves.
Herramientas de optimización y
         evaluación

                                  En esta lección, trataremos de conocerlas herramientas necesarias para
                                  conseguir el mejor posicionamiento de nuestra Web.

                                            Primer paso


                                            Herramientas de analítica Web


                                            Práctica: Análisis de una Web




    Primer paso




    Para conocer el posicionamiento SEO desde un punto de vista analítico podemos recurrir a una serie
    de herramientas que nos proporcionarán la información precisa necesaria. Antes de pasar a ver
    algunas de las aplicaciones más conocidas y útiles vamos a hacer un glosario de términos.



    Ranking:



           Google PageRank (PR): Google ofrece una herramienta denominada “Page Rank”, un valor
           numérico con el que se representa la importancia que una página Web tiene en Internet.
           Este valor, mediante un análisis constante, sirve de referencia para determinar la posición de
           un site dentro de los resultados de búsqueda. Cuanto mayor es el PR mayor es la
           importancia de nuestro site.



           Technorati: es un motor de búsqueda de Internet para buscar blogs. Esta aplicación utiliza y
           contribuye al software de código abierto mediante una comunidad de desarrolladores
           activa, a la que pertenecen muchos desarrolladores de la cultura del software libre. Visite
           este enlace y recibirá más información acerque de lo que es un motor de búsqueda :
           http://es.wikipedia.org/wiki/Motor_de_b%C3%BAsqueda

           Si desea ampliar la información acerca del termino código abierto o software libre:
           http://es.wikipedia.org/wiki/Open_source



           Alexa: Alexa es una Web de www.amazon.com, que ofrece información acerca de la
           cantidad de visitas que recibe un sitio Web. Ofrece unos datos fiables y objetivos, por lo que
           su consulta es imprescindible a la hora de realizar el seguimiento de visitantes de un site.
Si desea instalar la barra de herramientas de Alexa: http://www.alexa.com/site/download



        DMOZ:. También conocido como Open Directory Project (ODP), es un proyecto colaborativo
        en el que editores voluntarios categorizan enlaces a páginas Web. El directorio de Google
        está basado en el DMOZ, al cual añade la ordenación según el page rank de cada página
        categorizada.

        Si desea más información de este directorio: http://www.dmoz.org/World/Espa%C3%B1ol/



        Index pages: Este valor indica la cantidad de links o enlaces propios que una Web tiene en
        buscadores (links internos que van a otras secciones de la Web).



        Backlinks: son los enlaces que recibe una determinada Web desde otras páginas.



        Keywords: palabra clave o palabra que resume los contenidos de una Web. Son las palabras
        que esperamos que los usuarios de buscadores usen para sus consultas.



        W3C: son las siglas del World Wide Web Consortium,asociación que establece estándares
        para las principales tecnologías sobre las que se basa Internet. Que un site cumpla las
        normas del W3C va a significar una mejora sustancial en la eficiencia de su funcionamiento, y
        ello contribuye a la mejora en su posicionamiento en buscadores.



        RSS: Real Sindicate System:




Herramientas de analítica Web




        WebCEO



Para las empresas o particulares que cuentan con una Web, WebCEO es una utilidad que te permite
hacer conocer los puestos que ocupas en motores de búsqueda y analizar el tráfico y las visitas a la
Web a fin de optimizar el contenido y diseño del sitio. Incorpora herramientas especializadas en
marketing de motores de búsqueda, análisis inteligente de tráfico Web, y mantenimiento óptimo del
sitio Web.
El programa te ayuda a encontrar las mejores palabras clave para búsquedas efectivas de tu página,
optimizar su contenido para alcanzar los mejores puestos en los motores de búsqueda (además de
realizar envíos masivos de tu URL a los mismos y comprobar periódicamente tu clasificación) o
analizar al detalle las visitas producidas en tu Web, entre otras cosas.



De esta manera podrás tener una idea exacta de cómo promocionar tu página de la mejor forma, qué
buscan tus clientes y qué es lo que menos les gusta, y cómo adaptar los servicios que ofreces a las
necesidades y demandas de tus visitas.



El programa también incluye un módulo que te permite modificar ficheros HTML y subirlos al
servidor FTP directamente desde WebCEO. Para conocer más acerca de Web CEO o descargarlo:
http://www.webceo.com/



        Analytics, una herramientas imprescindible para nuestro site



Google pone a la disposición de webmasters una herramienta para empresas que proporciona
información sobre el tráfico del sitio Web desde distintos puntos de vista: patrones de
comportamientos, segmentación, horarios, páginas que visitan. Ofrece una serie de funciones
potentes, flexibles y fáciles de usar con las que analizar su tráfico y mejorar sus campañas de
marketing.



Web Analytics busca comprender lo que sucede en un sitio web usando técnicas de análisis de datos.
Nos permite desde medir el tráfico de una web de manera muy general o de manera especifica hasta
los niveles de análisis más complejos.



Analytis es una herramienta muy eficaz para reorientar la optimización del posicionamiento del site:



        Permite analizar las palabras clave por las que los usuarios más nos visitan, aportando esto
        un flujo de información que nos permitirá verificar si estos usuarios encuentran lo que
        buscan o no en la web.

        Muestra patrones de navegación y reebote de las páginas, que páginas son las más visitadas
        y con que páginas los usuarios abandonan.

        Nos genera listados de palabras clave, que podemos analizar en el contenido.



Analytics también nos permite establecer Indicadores Clave de desempeño (KPI – Key Performance
Indicators), que nos serán ultimes para medir el logro de los objetivos y metas del proyecto o
negocio:



Estos indicadores pueden ser:



        Indicadores Básicos: indicandonos el número de visitas, usuarios únicos, páginas vistas,
         origen,…

        Indicadores Avanzados: Mostrando el porcentaje de abandono, páginas vistas por visita,
        porcentaje de conversión, valor de objetivo por vista,..

        Indicadores de Comercio electrónico: en cuantro a producto, servicio o información.Nos
        mostraran información de la lealtad de nustros usuarios, porcentaje de visitas nuevas,
        palabras clave, porcentaje de conversión...



Cómo Instalar Google Analytics:



1. Vaya a http://www.google.com/analytics/




2. Haga clic en registrate ahora mismo.



3. Podrá acceder a su cuenta de analytics si dispone de una cuenta de Google. Introduzca sus datos y
accederá al panel de control del analytics.
Haga clic en añadir sitio Web e itroduzca la Url de la web.
Pulse Finalizar. Automáticamente le mostrará un código, que deberá introducir en el pie de la página
Web.



Vuelva a su cuenta de Google analytics y hagaz clic en Finalizar.



Hay que tener en cuenta, que analytics es una fuente fiable de información a cerca de una web,
aunque no debemos olvidar que existen algunas razones por las que no debemos de olvidar otras
herramientas importantes para el SEO.



La primera de estas razones es que Analytics sólo registra la información en los navegadores que
ejecutan javascript. Esto proporciona información de calidad acerca de las tendencias del usuarios,
pero no detecta los comportamientos que los robots o arañas de los buscadores hacen en una web, y
esto para el posicionamiento es vital.



En segundo lugar, si solo confiamos en una fuente de datos, podemos caer en el error de nos darnos
cuenta de otros datos significativos que no aparecen en esta herramienta, por lo que es de vital
importancia tener siempre al alcance varios métodos de análisis SEO que proporcione información
diversa.



Si desea conocer más acerca de analytics: http://www.google.com/analytics/tour.html



Xinu Returns



Xinu Returns es una completa herramienta on-line que proporciona de manera resumida toda clase
de información técnica sobre un sitio Web y/o dominio que le indiquemos. Es ideal para un análisis
rápido SEO ya que podrás conocer sin dificultad elementos relevantes para el posicionamiento como
PageRank, Alexa Rank, enlaces entrantes, etc. que posee cualquier Web.



Si desea ampliar la información acerca de esta herramientas:
http://elgeek.com/xinu-returns-informacion-sobre-sitios-webs



Xinu Returns realmente brinda mucha información, entre la que podemos mencionar:



       Ranking de la página en Google, Technorati, Alexa y DMOZ.

       Imagen de captura de la página Web.

       Estado del dominio (IP, autor, país…).

       Información sobre los subscriptores de la página (Sindicación).

       Validación de la página con los principales estándares (XHTML, CSS, RSS).

       Número de páginas indexadas en los buscadores de Google, Google Images, Yahoo! y Live.



En este enlace podrá ver toda la información acerca de su Web: http://xinureturns.com/




      Práctica: Análisis de una Web


             Práctica: Análisis de una Web

             Utilizaremos una herramienta fácil y eficaz que nos dará los elementos más
             relevantes.

             Acceda a la dirección: http://www.sitetrail.com/xinureturns.com
Dentro de Xinu, introduca la URL: www.mundoanimalia.com




Ahora resalte los elementos más importantes para el posicionamiento de una Web:

   1.   Google Page Rank (PR)
   2.   Tecnorati
   3.   Alexa
   4.   Dmoz
   5.   Index pages
   6.   Back links
   7.   Keywords
   8.   W3C
   9.   Rss


¿Dirías, con lo que has aprendido en esta lección, que esta página esta bien
posicionada?
1.- ¿Qué es el Google Page Rank y para qué sirve?
    El Page Rank es un valor numérico que Google atribuye a
nuestra Web y que servirá de referencia para determinar la
posición de un site dentro de los resultados de búsqueda.
    Ambas respuestas son correctas.
     El Page Rank es una herramienta de Google.
2.- ¿Alexa es un contador de visitas de nuestro site?
    Ambas respuestas son correctas.
    Sí, ofrece unos datos fiables y objetivos, es imprescindible a
la hora de realizar el seguimiento de visitantes de un sitio.
     No.
3.- ¿Existe alguna herramienta que nos proporcione
información técnica y SEO acerca de un sitio Web?
    Sí, Xinu Returns.
    Ninguna de las respuestas es correcta.
     No
4.- ¿Es importante saber más sobre las visitas que recibimos
en nuestra Web?
   Sí, con Google analytics podremos analizar su tráfico y
mejorar nuestras campañas de marketing.
    Sí, con Google analytics obtenemos información acerca de
nuestras visitas y adaptaremos nuestro sitio en función a la
demanda, analizando el tráfico y pudiendo mejorar la campaña
de marketing.
     No.
5.- ¿Es importantes darse de alta de DMOZ?
    No, ya que es un directorio.
    Sí, porque añade la ordenación según el page rank de cada
página categorizada.
    Sí, el directorio Dmoz se basa en los resultados de búsqueda
de Google.
1.- ¿Qué es el Google Page Rank y para qué sirve?
    El Page Rank es un valor numérico que Google atribuye a nuestra
Web y que servirá de referencia para determinar la posición de un site
dentro de los resultados de búsqueda.
    Ambas respuestas son correctas.
     El Page Rank es una herramienta de Google.
2.- ¿Alexa es un contador de visitas de nuestro site?
    Ambas respuestas son correctas.
     Sí, ofrece unos datos fiables y objetivos, es imprescindible a la hora de
realizar el seguimiento de visitantes de un sitio.
     No.
3.- ¿Existe alguna herramienta que nos proporcione información
técnica y SEO acerca de un sitio Web?
    Sí, Xinu Returns.
    Ninguna de las respuestas es correcta.
     No
4.- ¿Es importante saber más sobre las visitas que recibimos en
nuestra Web?
    Sí, con Google analytics podremos analizar su tráfico y mejorar
nuestras campañas de marketing.
     Sí, con Google analytics obtenemos información acerca de nuestras
visitas y adaptaremos nuestro sitio en función a la demanda, analizando el
tráfico y pudiendo mejorar la campaña de marketing.
     No.
5.- ¿Es importantes darse de alta de DMOZ?
    No, ya que es un directorio.
    Sí, porque añade la ordenación según el page rank de cada página
categorizada.
   Sí, el directorio Dmoz se basa en los resultados de búsqueda de
Google.
Optimiza el diseño y la
    programación de su Web

La optimización de una Web se basa en unos algoritmos que cambian y se perfeccionan
constantemente. Sin embargo existen una serie de prácticas comprobadas a lo largo de los
últimos dos años. Los mecanismos algorítmicos que yacen bajo ellas se caracterizan por
permanecer estables a lo largo del tiempo. Son conocidas como "los mandamientos" y
reconocidas como parte del "core" del algoritmo común a todos los buscadores por
ingenieros y matemáticos de los principales motores en las cada vez más conferencias y
encuentros internacionales entre hackers y diseñadores de buscadores en los que cada vez
más se prodiga la comunidad de expertos ("hacker" =experto informático).

                  Rastreo de un sitio Web


                  Elementos On-Page


                  Robots, nofollows y otros


                  Mapa del sitio


                  URL amigable


                  Linking interno


                  Programación en CSS


                  Práctica: Analisis de una Web según criterios de SEO



Rastreo de un sitio Web


Uno de los aspectos más importantes a tener en cuenta a la hora de posicionar un sitio Web
es conocer los criterios que utiliza el Robot o crawler del motor de búsqueda en relación con
las diferentes partes del documento HTML.

A continuación vamos a definir la estructura típica de un documento HTML y seguidamente
veremos cómo ésta puede afectar a su posicionamiento.

Esta es la típica estructura de un documento HTML:

<HTML>
<HEAD>
<!-- información de cabecera utilizada para contener información adicional acerca de este
documento, y que no se muestra en pantalla -->
</HEAD>

<BODY>
<!-- todo el HTML a visualizar -->
::
::
::
</BODY>
</HTML>




Elementos On-Page




Llamaremos elementos On Page a los que dependen directamente de la aplicación en nuestra Web.
Estos factores normalmente se aplican por técnicos de las Web, aunque es necesario conocerlos
cuando se trabajan o se plantean nuevas categorías dentro de la Web.



Como hemos comentado anteriormente, los crawlers o robots de los buscadores dan la importancia
que se merecen a los elementos HTML que encontraremos dentro del código de nuestro sitio Web.
Eso implica una gran concordancia entre estos elementos y las Keywords relevantes en nuestro
sector.




A. Información de la cabecera



El primer elemento de un documento es la etiqueta <HEAD>, es decir, la cabecera del documento.
En esta etiqueta se encuentra toda la información que va a describir las características del
documento: título, descripción, palabras clave, Copyright, autor...



En el área del header encontraremos algunos elementos que a continuación analizaremos en
profundidad:



      - Título de máximo 5 palabras en el que la primera sea tu palabra clave objetivo.
      - Metatag de descripción igual al título.
      - Metatag de palabras clave con las mismas 5 palabras separadas por comas.
B. Área del título



<TITLE>: Esta etiqueta transmite al robot el título de la página, por lo que se deben incluir en éste las
palabras clave por las que queremos que nuestro sitio sea encontrado. La extensión del título no
debe superar los 75 caracteres.



A continuación mostraremos donde se ubica el titulo en una web:




        Área de metainformación



Es la encuadrada dentro de las etiquetas <META>. Esta es una etiqueta genérica de información
adicional, tuvo su época dorada cuando Altavista lideraba el mundo de los buscadores, aunque
ahora ha perdido parte de su relevancia. Su sintaxis es <META NAME="nombre del atributo"
CONTENT="variables o directrices">



Los principales atributos del Área de Metainformación son los siguientes:



        DESCRIPTION: Es la descripción de lo contenido en el documento. En ella se ha de reflejar en
        pocas frases, la síntesis de todo el documento, toda la información.



        KEYWORDS: son las palabras clave. Facilitan al buscador información del documento,
        indicándole las palabras más importantes por las que quiere ser encontrado en un buscador.
En este enlace podrá ver las Keywords de si Web:
        http://www.webconfs.com/website-keyword-suggestions.php



Ejemplo de una etiqueta "keywords" de la página http://www.ienrformacion.es/



<META NAME="Keywords" CONTENT="Formación, Formacion barcelona, Formación Bcn, Formación
subvencionada Barcelona, Formación Subvencionada, subvenciones catalunya , cataluña, barcelona
subvenciones, cursos gratis barcelona, cursos, cursos barcelona, IenR formación, grupo IenR,
Formación técnica, formación jlg, habilidades directivas, conocimientos sectoriales, ofimática, RRHH
y management, Idiomas, Contabilidad y finanzas, Productividad, Técnica, Procesos de selección,
prevención y riesgos de salud laboral, Conocimientos sectoriales, Posicionamiento Google">



Siguiendo con el ejemplo donde hemos visto la descripción que nos muestran los buscadores en sus
resultados, comprobaremos que efectivamente en el código fuente de la página se ve el mismo
contenido. Podremos ver tambien, las Meta Keywords y las Meta decriptions:



1. Abra el navegador Firefox y teclee la Url www.pelotazo.com y presione Intro.




2. Una vez en la página Web, vaya a la barra del navegador pestaña Ver, y haga clic en Código
fuente de la página.



Abrimos la página, visualizando el código completo, fijémonos en el código de la cabecera.
El DOCTYPE: es la explicación de que tipo de código HTML / XHTML vas a encontrar en el
        sitio. Con esto ayudas al navegador a que muestre el sitio de una forma correcta. Es un
        elemento obligatorio en los sitios Web. Además puede llegar a indicar si un sitio está
        pensado para verse en un tipo de plataforma u otro (como por ejemplo el especificar el
        formato XHTML para móviles).



        STYLESHEET: indica la dirección URL del CSS (Hojas de Estilo). Este parámetro es opcional,
        aunque se recomienda hacer uso de CSS.



        LINK ALTERNATE: indica la dirección XML del feed (sindicación de contenidos). Este
        parámetro es opcional, aunque si la página dispone de noticias o información actualizada se
        recomienda hacer uso del mismo ya que ayudará a los buscadores específicos de blogs.



En principio todos estos son suficientes para que la cabecera del sitio sea lo más estándar para los
robots de búsqueda, navegadores y usuarios.



Gran parte de estos elementos son los que aparecen en los resultados de búsqueda (título,
descripción…) y que hay que tenerlos muy estudiados ya que son los que los usuarios encuentran.




C. Información del cuerpo de la página



La otra parte del documento queda encuadrada en lo que se denomina el cuerpo de la página Web,
(todo lo que está entre <BODY> y </BODY>. Dentro de esta estructura aparecerán todos los
elementos visibles por el usuario fotos, texto, animaciones...



        Área del cuerpo o contenido



La disposición de los elementos HTML y el contenido dentro de la página es relevante para los
robots. Un texto ubicado al principio del código fuente HTML es más relevante que un texto que
aparece el pie del mismo. Es importante aclarar, que, cuando hablamos de código HTML no estamos
hablando de algo perceptible para nuestros usuarios, como hemos visto anteriormente.



Esta disposición es muy importante para la correcta indexación de nuestros contenidos, este código
de alguna manera también ha de ir limpio y con la disposición correcta de los elementos que a
continuación explicaremos como (hojas de estilo CSS, H1, negritas….).



El texto del documento, que como hemos dicho va incluido en el "body", puede jerarquizarse
(aunque la mayoría de diseñadores lo consideren "anticuado", los robots no). La manera óptima de
especificar dicha jerarquía es mediante las etiquetas <H1>, <H2>, <H3>, <H4>, <H5> y <H6>. Al
conjunto de texto incluido dentro de estas etiquetas les llamaremos "Área de Cabeceras" (del inglés
"header").



Como hemos comentado, el contenido de los titles, metas y el resto de etiquetas que hemos
nombrado y que veremos a continuación han de aparecer destacas en el código fuente de la página
así, como en los diferentes puntos de la web.




En este caso, el title de la página es el nombre en concreto del perro: Airedale Terrier – Perros. El
title que además corresponde con el H1 de la página, le indica al robot que esta es el elemento más
importante de la página y que el contenido que va a encontrar en ella se refiere a eso.
A partir de aquí encontramos numerosas palabras en negrita, correspondientes al nombre del perro.
Con esto de indicamos al crawler la relevancia de esta palabra en concreto.



Encontramos otras etiquetas como el H2 que un contenido no tan relevante como : ellos lo son,
remarcado también en la imagen.




Algunas especificaciones a tener en cuenta:



        Empieza y termina la página (tal como la lee el boot) con un texto que describa en 5
        palabras tu Web. La primera de ellas tiene que ser tu palabra clave.

        No abuses de las imágenes ni del texto alternativo de estas. Pon como texto alternativo de
        la primera de ellas en orden de lectura en el código tu palabra clave.

        Usar etiquetas <H1>. Algunos buscadores como Google no sólo miden el área de cabecera
        sino que distingue entre sus distintas jerarquías.

        Incluye también el término de búsqueda como primera palabra del primer texto
        hiperenlazado de tu página.

        Otros buscadores, como Google, consideran el área de negritas y los tamaños de letra.
        Destacar tus palabras clave en negrita en el texto e incluso en un tamaño de letra mayor que
        el resto ayuda.

        Utiliza ampliamente la palabra clave en el texto "normal de tu página" sobre todo en su
        tercio superior, aunque tampoco abuses (por ejemplo no lo uses varias veces en una fila de
        tabla).

        La proporción entre código y texto cuenta. Aunque se discute si directamente o por el
        efecto sobre otras variables, abusar de las líneas de código javascript o crear páginas
        intermedias de cookies o redirecciones consigue dañar seriamente el posicionamiento de tu
        página.

        Google también puntúa las URLs. Ayuda tener un dominio que incluyan tu palabra clave;
        recuerda que no separa las palabras, por ejemplo el dominio www.saludytecnologia.com no
        aporta nada al posicionamiento con la palabra "salud" aunque www.salud-ytecnologia.com
        si. Sin embargo, los subdominios o directorios en la palabra clave también ayudan como
        sería www.saludytecnologia.com/salud).



        Texto alternativo



Es el texto que se asocia a la imagen mediante el atributo ALT de la etiqueta <IMG SRC>. Es una de
las áreas más sensibles y menos cuidadas por los diseñadores que no siguen los estándares de
usabilidad.
<img title="Armario del siglo XIX con un estilo contemporáneo"
src=”http://misitio.ext/imagen/armario-XIX-contenporaneo.gif”
alt=”armario siglo XIX contemporáneo” />



http://www.marketingconsulting.es/



        Texto hiper enlazado



Es el conjunto de texto de la página que aparece entre etiquetas <a href="URL"> y </a>



        Área de comentarios



Aún existen un par de buscadores que analizan el código de los comentarios que, de modo invisible
para los usuarios, los programadores colocan para otros programadores dentro del código.



La etiqueta de comentarios sigue el siguiente formato: <!-- Texto del comentario -->



        Etiquetado



<p> - usada para distinguir lo diferentes párrafos. Acostumbra a usarse para definir o explicar
conceptos importantes. Se trata de una etiqueta usada en webs muy concretas (por ejemplo
diccionarios online o glosarios profesionales) ya que causa espacios en blanco en algunos
navegadores, especialmente FireFox.



<strong> - destaca una palabra clave al poner el texto en negrita. Hay la variante <b>, pero que no
es aconsejada por el W3C.



        Otras etiquetas



<abbr> - indica que el texto es una abreviatura (WWW, HTTP, URI…).

<acronym> - indica que el texto es un acrónimo (WAC…).
<address> - indica una dirección postal.

 <big> - marca que el texto ha de tener un tamaño mayor.

 <blockquote> - se utiliza de forma muy similar al <cite>.

 <cite> - contiene una cita o referencia de otro texto.

 <code> - indica que el texto es un fragmento de código informático.

 <del> - marca que el texto ya no tiene valor. Suele acompañar a <ins>.

 <dfn> - marca la definición de una palabra o frase.

 <em> - es la etiqueta para indicar énfasis en un texto (cursiva). Se puede usar también <i>.

 <i> - es la etiqueta para indicar énfasis en un texto (cursiva). Se puede usar también <em>.

 <ins> - marca que el texto es nuevo con respecto al original. Suele acompañar a <del>.

 <kbd> - indica texto que el usuario debe introducir en su ordenador.

 <pre> - para mostrar texto sin formato.

 <q> - muy similar a <cite>, pero para fragmentos muy cortos (normalmente en una misma
 línea).

 <samp> - código que daría un ordenador.

 <small> - marca que el texto ha de tener un tamaño menor.

 <sub> - indica que el texto está por debajo del normal.

 <sup> - indica que el texto está por encima del normal.

 <tt> - marca que el contenido tiene formato teletipo.

 <var> - marca el texto como si fuera una variable.


                                                                     Robots, nofollows y otros



A parte de la navegación natural que un crawler puede hacer en nuestro sitio Web, disponemos de herramientas
para especificarle que queremos que indexe y que no.



        Robots.txt



El robots.txt es un archivo de texto plano en el que podemos especificar diferentes instrucciones a los crawlers
de los buscadores:
Ejemplo: Para identificar a los crawlers usaremos el User-agent: *



User-agent: *
             Disallow: /view_content.cfm (No permite el acceso a la pagina
                                      content.cfm)
             Disallow: /view_content.cfm?* (no permite el acceso a las paginas
content.cfm seguidas de cualquier parámetro –
(view_content.cfm?param1=value1))



        NowFollow



En el mismo sentido, nuestra Web contendrá enlaces por lo que si no queremos que los robots los indexen habrá
que aplicar un NowFollow a un enlace, basta con añadir al código del mismo una relación “now follow”
(rel=nofollow).



Para destacar los enlaces con nowfollow existe una aplicación de firefox que podréis encontrar en el siguiente
enlace: http://www.quirk.biz/searchstatus/




A continuación mostramos los enlaces que no indexan:
Mapa del sitio




  El mapa del sitio es una lista de vínculos a las diferentes páginas de la propia Web. De esta manera, la página
  ayuda a los buscadores para que encuentren dónde está situado cada contenido. Para facilitar el trabajo a
  los robots:



          Archivo “sitemap”: es un archivo XML con una estructura específica que facilita a los crawlers
          información sobre el contenido que tenemos y con que periodicidad se actualiza. Así, se generará el
          archivo XML llamado sitemap.xml y se insertará en el directorio raíz. Ejemplo:
          www.apple.com/es/sitemap




URL amigable

Podríamos hacer una clasificación simple de dos tipos de direcciones Web: las que llevan
“identificadores” y las que no. Llamemos URL amigable a aquella que se estructura mediante
identificadores en el texto que nos permiten saber de que se trata la Web.

Vea que URL es amigable y cuál no:




Linking interno

Entendemos por Linking interno el conjunto de enlaces que apuntamos a nuestro site, desde el
mismo. Anteriormente, hemos visto que es importante ofrecer a los robots enlaces con los que acceder
a toda la información que queremos indexar, para ello es imprescindible estructurar un sistema de
Linking interno que facilite la navegación a través de nuestro sitio.

Una buena estrategia de Linking interno generará flujo natural del crawler a través de nuestro sitio y
potenciará la indexación.

Las claves para generar un buen Linking interno son:

        Enlazar con buenos anchor text* (optimizados y coherentes con las Keywords de nuestro
        sector así como, con el contenido que mostramos).

        Hacer un buen uso de los Now follow, para priorizar unos enlaces frente a otros.

        Crear enlaces con rutas absolutas.
Intentar contextualizar enlaces: crear enlaces en medio de un texto.


En la imagen que se puede ver a continuación, vemos los links internos remarcados. Como se puede
apreciar muchos de estos links están contextualizados con Keywords. Esto fomenta por un lado, la
densidad de palabras clave y por otro la navegación tanto del usuario como del crawler.




En este articulo de la Wikipedia podemos ver varios anchor contextualizados, por ejemplo, Harry
Potter.
* Un anchor text es el texto o palabra con la que hacemos un link.

        Programación en CSS

        Las tablas existen desde el comienzo en HTML, pero no se crearon para diseñar un sitio, sino
        para la presentación de datos tabulares.

        La utilización de “border=0” y las imágenes transparentes hicieron posible crear una rejilla
        que permitió a los diseñadores organizar textos e imágenes, establecer tamaños y ubicar
        objetos. Pero esto es sencillamente incorrecto. Las tablas no se crearon para maquetar y no
        deben utilizarse para eso, porque de esta forma se mezclan presentación y contenido, y lo que
        es importante, este es el factor principal por el cual los robots de buscadores no leen bien las
        webs con tablas.

        La solución es clara: CSS+HTML. Algunas de las ventajas de la maquetación con CSS:

               Separación de forma y contenido. Generalmente CSS y HTML se encuentran en
               archivos separados, lo que facilita el trabajo en equipo porque diseñador y
               programador pueden trabajar independientemente. Por otro lado, permite el acceso a
               distintos navegadores y dispositivos.

               Tráfico en el servidor. Las páginas pueden reducir su tamaño entre un 40% y un 60%,
               y los navegadores guardan la hoja de estilos en la caché, esto reduce los costos de
               envío de información.

               Tiempos de carga. Por la gran reducción en el peso de las páginas, mejora la
               experiencia del usuario, que valora de un sitio el menor tiempo en la descarga.

               Precisión. La utilización de CSS permite un control mucho mayor sobre el diseño,
               especificando exactamente la ubicación y tamaño de los elementos en la página.
               También se pueden emplear medidas relativas o variables para que la pantalla o la caja
               contenedora se acomode a su contenido.

               Mantenimiento. Reduce notablemente el tiempo de mantenimiento cuando es
               necesario introducir un cambio porque se modifica un solo archivo, el de la
               presentación, sin tener que tocar las páginas que contienen la estructura con el
               contenido.

               Diseño unificado y flexibilidad. Es posible cambiar completa o parcialmente el
               aspecto de un sitio con sólo modificar la hoja de estilos. Por otro lado, el tener el estilo
               de una Web en un solo archivo permite mantener la misma apariencia en todas las
               páginas.

               Posicionamiento. Las páginas diseñadas con CSS tienen un código más limpio porque
               no llevan diseño, sólo contenido. Esto es semánticamente más correcto y la página
               aparecerá mejor posicionada en los buscadores. Google navega obviando el diseño.




Práctica: Análisis de una Web según criterios de SEO



      Práctica: Análisis de una Web según criterios de SEO
Analizarremos si la Web mundo animalia esta optimizada para SEO según los siguientes
criterios:

¿Dispone de todos los elementos en el header?

Abra el navegador e introducir en el campo de la URL: www.mundoanimalia.com




Una vez abierta la página en el navegador, vaya a la pestaña Ver > Código fuente de la
página.

A continuación se abrirá en otra ventana el código fuente de la página. Enmarque los
siguientes ítems: META NAME- META DESCRIPTION




Comprobará que no dispone de todos los elementos en el header, falta Title. Pero eso,
siempre dependerá de cada página.

Haga el mismo proceso, con algunas páginas que visite a menudo y vea, que entre ellas
existen muchas direncias en el código.
1.- ¿Influye el tiempo de carga de nuestra Web en el posicionamiento?
    No.
    Sí, la optimización de nuestra Web para un buscador viene determinada por factores como el
tiempo de carga del sitio.
   Si, porque mejora la experiencia del usuario.
   2.- ¿Qué es una URL amigable?
          La Web recomendada por un amigo.
       Es aquella que se estructura mediante identificadores en el texto que nos
   permiten saber de que se trata la Web.
        Las Web que ponemos en nuestros Favoritos.
   3.- ¿Cuáles son los elementos más importantes para un robot?
       La estructura del cuerpo, área de la cabecera, los textos alternativos, las negritas,
   los H1, h2,….
          La cabecera donde se describen las características del documento.
        Ambas respuestas son correctas.
   4.- ¿Qué es un crawler, spider o robot?
          Ambas respuestas son correctas.
          Ninguno de estos conceptos tiene el mismo significado.
        Un Crawler, spider o robot son los nombres comunes para llamar los
   analizadores de Web que usan los buscadores para analizar Web.
   5.- ¿Tiene nuestra Web que estar programada en CSS?
          Sí, es importante que nuestra Web se programe mediante tablas y javascript.
       Sí, el recomendable programar mediante CSS, ya que nos permitirá separar la
   forma del contenido, disminuir los tiempos de carga de la web, reducir los costes de
   mantenimiento y mejorar el posicionamiento.
          No, dependerá del programador.
1.- ¿Influye el tiempo de carga de nuestra Web en el
posicionamiento?
                                                                      No.
                                                                      Sí, la
                                                                  optimización
                                                                  de nuestra
                                                                  Web para un
                                                                  buscador
                                                                  viene
                                                                  determinada
                                                                  por factores
                                                                  como el
                                                                  tiempo de
                                                                  carga del sitio.
                                                                      Si, porque
                                                                  mejora la
                                                                  experiencia
                                                                  del usuario.
   2.- ¿Qué es una URL amigable?
       La Web recomendada por un amigo.
       Es aquella que se estructura mediante identificadores en el texto que
   nos permiten saber de que se trata la Web.
        Las Web que ponemos en nuestros Favoritos.
   3.- ¿Cuáles son los elementos más importantes para un robot?
        La estructura del cuerpo, área de la cabecera, los textos alternativos,
   las negritas, los H1, h2,….
       La cabecera donde se describen las características del documento.
        Ambas respuestas son correctas.
   4.- ¿Qué es un crawler, spider o robot?
       Ambas respuestas son correctas.
       Ninguno de estos conceptos tiene el mismo significado.
        Un Crawler, spider o robot son los nombres comunes para llamar los
   analizadores de Web que usan los buscadores para analizar Web.
   5.- ¿Tiene nuestra Web que estar programada en CSS?
       Sí, es importante que nuestra Web se programe mediante tablas y
   javascript.
       Sí, el recomendable programar mediante CSS, ya que nos permitirá
   separar la forma del contenido, disminuir los tiempos de carga de la web,
   reducir los costes de mantenimiento y mejorar el posicionamiento.
       No, dependerá del programador.
Los contenidos de su Web

    Los contenidos de una Web se deben preparar dándole forma según el código HTML y
    destacando, en todo caso las Keywords de forma correcta.

                    Contenidos


                    Elementos externos - link building


                    Elementos no reconocidos en el contenido


                    Lo que no hay que hacer


                    El efecto Sandbox


                    Optimización para varios buscadores


                    Práctica: Posicionamiento de un texto en la Web




Contenidos


La clave para una buena indexación son los contenidos: contenidos de calidad y optimizados
para las Keywords que queramos posicionar y que sean relevantes en nuestro sector.

Los contenidos de una Web se deben preparar dándole forma según el código HTML y
destacando, en todo caso las Keywords de forma correcta. Es bueno, que en toda nuestra
Web repitamos de forma constante las Keywords de interés, sin caer en lo absurdo. Es muy
importante que la repetición de estas palabras se vea como algo natural y no como algo
forzado o preparado para los robots, ya que de ser así, podemos ser penalizados por
sobrecargar la página.

Si realizamos contenido de calidad o interés fácilmente recibiremos enlaces de otras webs,
que nos ayudaran a mejorar el posicionamiento.

*La densidad de palabra para la Keywords Nero 9 en el texto extrado de Softonic es elevada,
sin llegar a ser forzada.
En el caso de los textos suplementarios en la Web, serian igualmente óptimos si no llevaras
esas palabras clave, aun así, reforzaremos la densidad si los incluimos.

Vemos también en la misma página que existen etiquetas optimizadas en otros apartados del
site:
Contenidos especiales: imágenes

Cada vez más, las imágenes son una fuente importante de tráfico para las Web. Para
posicionar correctamente nuestras imágenes es necesario facilitar su lectura y comprensión o
interpretación por parte de los crawlers, por lo que deberemos:

       Incluir los textos alternativos en las imágenes, que describan la imagen sin
       sobrecargarlo de palabras clave de forma innecesaria (atributo “Alt”).

       Usar las palabras clave en el texto que colinda en el HTML con la imagen.

       Usar la Keywords en el nombre de la imagen, o en la ruta hacia la misma.


Igual que en el contenido del texto, es importante usar imágenes de calidad que harán que se
vea más claro para el crawler en su listado de imágenes. Las imágenes deberían ser propias
para evitar la duplicidad de contenido, y si usamos imágenes de otros sitios es importante
alterarlas con marcas de agua, redimensionándolas o recortándolas para evitar que se
consideran duplicadas. Es bueno enlazar las imágenes pequeñas, con imágenes mayores y de
mejor resolución.
Elementos externos - link building




El link building es la estrategia previamente planificada para conseguir enlaces que nos permitan
posicionar nuestras páginas en los buscadores. Por lo tanto, se trata de conseguir cuantos más
enlaces mejor y de la mayor calidad posible. Los enlaces no son el fin, son el medio para aparecer en
lo alto de los buscadores.



El link building es el mecanismo de conseguir enlaces de forma artificial pero simulando que lo
hemos hecho de forma natural.



Una vez que tenemos preparado nuestro sitio perfectamente optimizado hay que empezar con el
trabajo de conseguir enlaces. El link Building es útil para absolutamente cualquier Web de Internet
que pretenda recibir tráfico de los buscadores, aunque es especialmente necesario para webs
comerciales que venden productos y que difícilmente recibirán enlaces. Éste es uno de los motivos
del éxito de los blogs: los blogs, como veremos más adelante, son un herramienta excepcional para
generar enlaces.



Claves para conseguir enlaces:



    1. Qué y cuántos enlaces necesito - hay que tener claro qué términos queremos posicionar,
       qué tipo de enlaces necesitamos, cuántos enlaces y en cuánto tiempo. En el caso de la
       mayoría de webs la respuesta es sencilla: cuantos más mejor, siempre que sean naturales.

    2. Cómo conseguir enlaces - una vez que sabemos lo que queremos, hay que plantear las
       estrategias. Estudiaremos los tipos de técnicas y mecanismos para conseguir enlaces.

    3. Tiempo - un buen enlace apunte a nuestra Web, con las palabras adecuadas y a donde
        queremos, no significa que automáticamente nuestro contenido suba. Es un proceso largo.
        Los enlaces son más importantes por su antigüedad que por su PageRank. Las
        actualizaciones de Google suelen ser cada tres meses. Si el sitio es nuevo, hay que
        mantenerse acumulando buenos enlaces durante meses para ver resultados.



No se preocupe si va consiguiendo enlaces pero no ve resultados. Llega un punto en que de repente,
tu duro trabajo durante meses da resultado, Google empieza a mandarte miles de visitas. Imagínate
la alegría. Pero para eso hay que trabajar duro y bien.



Páginas que poseen listado de directorios atractivos para construir popularidad Web:
www.xeoweb.com/foro/tema-1104.html
www.forobuscadores.com/recursos/index.php?m=c&c=7
www.directory-pages.com/tier2.htm
www.directoryarchives.com/index.php
www.isedb.com/
www.goguides.org/
www.strongestlinks.com/directories.php




Técnicas para el Link Building



        Link Baiting - Es la estrella del link building. Es la forma más efectiva, la mejor valorada por
        los buscadores, absolutamente legal y la más recomendable. Por desgracia, también es muy
        difícil de conseguir. Solo recibirás cientos de enlaces a tu Web si ésta aporta algo
        absolutamente de valor.

        Consiste en conseguir muchos enlaces en muy poco espacio de tiempo (dos o tres días). Se
        consigue sobretodo por sitios como Menéame (http://meneame.net), en los que un enlace
        que aparezca allí hace que llegue mucho tráfico, y por ello otra gente enlace a tu sitio Web
        porque le resulte



        Autoenlaces - buena parte de los enlaces que apuntan a cualquiera de las páginas con las
        que competimos son enlaces internos: secciones y páginas de la misma Web que apuntan a
        la principal del dominio. No se trata de un error. La popularidad también sirve para premiar
        a las webs con muchos contenidos... que sepan organizarlos bien. Es recomendable dar
        enlace a todas las novedades en la página principal, así como a las cabeceras de sección,
        dónde a su vez, deberíamos poder dar un acceso directo a todos los contenidos del tema. La
        plantilla del sitio también debe estar pensada desde esta lógica: que desde cualquier página
        del sitio pueda irse con un sólo clic a la cabecera de otra sección. Que nada quede a más de
        dos clicks de nada. Otra recomendación importante en este sentido es que el texto
        hiperenlazado que remite a una sección, así como el nombre del subdirectorio en que se
        guarda la sección, incluyan el título de una palabra clave secundaria interesante.



        Directorios - No hay que subestimar los directorios. Aparecer en directorios es positivo si
        son buenos directorios. Especialmente los que no te obligan a devolver el enlace. También
        hay varios tipos.



        Intercambio de enlaces - Sin duda una buena forma de conseguir enlaces, y probablemente
        la primera que apareció. También hay muchos tipos de intercambios y servicios.



        Compra de enlaces - Más efectiva que el intercambio, pero también más cara.
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento
Curso posicionamiento

Más contenido relacionado

La actualidad más candente

Buscadores de internet
Buscadores de internetBuscadores de internet
Buscadores de internetSaraFloria
 
Revista informatica
Revista informaticaRevista informatica
Revista informaticaaxelyvero
 
Medios de busqueda en internet y su importancia en la labor profesional
Medios de busqueda en internet y su importancia en la labor profesionalMedios de busqueda en internet y su importancia en la labor profesional
Medios de busqueda en internet y su importancia en la labor profesionalMaria Altagracia Tolentino Terrero
 
Medios de busqueda en internet (1)
Medios de busqueda en internet (1)Medios de busqueda en internet (1)
Medios de busqueda en internet (1)luciajimenezrosado
 
Consejos para buscar en Internet
Consejos para buscar en InternetConsejos para buscar en Internet
Consejos para buscar en InternetMariana Fossatti
 
1ra practica motores de busqueda
1ra practica motores de busqueda1ra practica motores de busqueda
1ra practica motores de busquedaJosé Perez Mendez
 
Uso de Internet y Email
 Uso de Internet y Email Uso de Internet y Email
Uso de Internet y EmailCarlos Daviran
 
Tema 4 funcionamiento de los motores de busqueda
Tema 4 funcionamiento de los motores de busquedaTema 4 funcionamiento de los motores de busqueda
Tema 4 funcionamiento de los motores de busquedaEncarna Lago
 
Gestion del conocimiento "Búsqueda de información en Internet"
Gestion del conocimiento "Búsqueda de información en Internet"Gestion del conocimiento "Búsqueda de información en Internet"
Gestion del conocimiento "Búsqueda de información en Internet"isamtz204
 
El internet y las mejores formas de buscar
El internet y las mejores formas de buscarEl internet y las mejores formas de buscar
El internet y las mejores formas de buscarIvan Sanchez
 
Expocicion de informatica1
Expocicion de informatica1Expocicion de informatica1
Expocicion de informatica1Andrs Prez
 
Expocicion de informatica1
Expocicion de informatica1Expocicion de informatica1
Expocicion de informatica1luisapuello1030
 
Tere
TereTere
Tereleooo
 

La actualidad más candente (17)

Buscadores de internet
Buscadores de internetBuscadores de internet
Buscadores de internet
 
Revista informatica
Revista informaticaRevista informatica
Revista informatica
 
Medios de busqueda en internet y su importancia en la labor profesional
Medios de busqueda en internet y su importancia en la labor profesionalMedios de busqueda en internet y su importancia en la labor profesional
Medios de busqueda en internet y su importancia en la labor profesional
 
Medios de busqueda en internet (1)
Medios de busqueda en internet (1)Medios de busqueda en internet (1)
Medios de busqueda en internet (1)
 
Consejos para buscar en Internet
Consejos para buscar en InternetConsejos para buscar en Internet
Consejos para buscar en Internet
 
1ra practica motores de busqueda
1ra practica motores de busqueda1ra practica motores de busqueda
1ra practica motores de busqueda
 
Uso de Internet y Email
 Uso de Internet y Email Uso de Internet y Email
Uso de Internet y Email
 
Ernesto
ErnestoErnesto
Ernesto
 
Presentación buscadores Web
Presentación  buscadores WebPresentación  buscadores Web
Presentación buscadores Web
 
Tema 4 funcionamiento de los motores de busqueda
Tema 4 funcionamiento de los motores de busquedaTema 4 funcionamiento de los motores de busqueda
Tema 4 funcionamiento de los motores de busqueda
 
Buscadores clase n°7
Buscadores   clase n°7Buscadores   clase n°7
Buscadores clase n°7
 
Gestion del conocimiento "Búsqueda de información en Internet"
Gestion del conocimiento "Búsqueda de información en Internet"Gestion del conocimiento "Búsqueda de información en Internet"
Gestion del conocimiento "Búsqueda de información en Internet"
 
El internet y las mejores formas de buscar
El internet y las mejores formas de buscarEl internet y las mejores formas de buscar
El internet y las mejores formas de buscar
 
Busquedas avanzadas en internet
Busquedas avanzadas en internetBusquedas avanzadas en internet
Busquedas avanzadas en internet
 
Expocicion de informatica1
Expocicion de informatica1Expocicion de informatica1
Expocicion de informatica1
 
Expocicion de informatica1
Expocicion de informatica1Expocicion de informatica1
Expocicion de informatica1
 
Tere
TereTere
Tere
 

Similar a Curso posicionamiento

Karen Paredes PéRez
Karen Paredes PéRezKaren Paredes PéRez
Karen Paredes PéRezbaberoxie
 
Taller de buscadores
Taller de buscadoresTaller de buscadores
Taller de buscadoresSaida Lopez
 
Unidad iv, actividad ii buscadores web
Unidad iv, actividad ii   buscadores webUnidad iv, actividad ii   buscadores web
Unidad iv, actividad ii buscadores webRolando Rodriguez
 
Buscadores Y Metabuscadores
Buscadores Y MetabuscadoresBuscadores Y Metabuscadores
Buscadores Y MetabuscadoresXimena Tabares
 
Motores de busqueda julia novelo vega
Motores de busqueda julia novelo vegaMotores de busqueda julia novelo vega
Motores de busqueda julia novelo vegaJuliia Noveloo Vegaa
 
Propuesta didactica buscadores y metabuscadores alexander
Propuesta didactica buscadores y metabuscadores alexanderPropuesta didactica buscadores y metabuscadores alexander
Propuesta didactica buscadores y metabuscadores alexanderalexander londoño ruiz
 
Lección 4 (Curso de Internet)
Lección 4 (Curso de Internet)Lección 4 (Curso de Internet)
Lección 4 (Curso de Internet)Noe_saul
 
Medios de busqueda en internet (1)
Medios de busqueda en internet (1)Medios de busqueda en internet (1)
Medios de busqueda en internet (1)giselioramirez
 
Medios de busqueda en internet y su importancia en la labor profesional
Medios de busqueda en internet y su importancia en la labor profesionalMedios de busqueda en internet y su importancia en la labor profesional
Medios de busqueda en internet y su importancia en la labor profesionalMaria Altagracia Tolentino Terrero
 
Medios de busqueda en internet
Medios de busqueda en internetMedios de busqueda en internet
Medios de busqueda en internetyanerismontano1
 
Expocicion de informatica1
Expocicion de informatica1Expocicion de informatica1
Expocicion de informatica1vanessaospino01
 
lorena(Las tecnologías de la información y la comunicación)
lorena(Las tecnologías de la información y la comunicación)lorena(Las tecnologías de la información y la comunicación)
lorena(Las tecnologías de la información y la comunicación)lorenamor
 
Busquedas avanzadas en internet
Busquedas avanzadas en internetBusquedas avanzadas en internet
Busquedas avanzadas en internetgral_sherman
 

Similar a Curso posicionamiento (20)

Karen Paredes PéRez
Karen Paredes PéRezKaren Paredes PéRez
Karen Paredes PéRez
 
Taller de buscadores
Taller de buscadoresTaller de buscadores
Taller de buscadores
 
Motores de busqueda
Motores de busquedaMotores de busqueda
Motores de busqueda
 
Unidad iv, actividad ii buscadores web
Unidad iv, actividad ii   buscadores webUnidad iv, actividad ii   buscadores web
Unidad iv, actividad ii buscadores web
 
Buscadores
BuscadoresBuscadores
Buscadores
 
Buscadores
BuscadoresBuscadores
Buscadores
 
Metodos de Busqueda de Información
Metodos de Busqueda de InformaciónMetodos de Busqueda de Información
Metodos de Busqueda de Información
 
Buscadores Y Metabuscadores
Buscadores Y MetabuscadoresBuscadores Y Metabuscadores
Buscadores Y Metabuscadores
 
Motores de busqueda julia novelo vega
Motores de busqueda julia novelo vegaMotores de busqueda julia novelo vega
Motores de busqueda julia novelo vega
 
Propuesta didactica buscadores y metabuscadores alexander
Propuesta didactica buscadores y metabuscadores alexanderPropuesta didactica buscadores y metabuscadores alexander
Propuesta didactica buscadores y metabuscadores alexander
 
Lección 4 (Curso de Internet)
Lección 4 (Curso de Internet)Lección 4 (Curso de Internet)
Lección 4 (Curso de Internet)
 
Medios de busqueda en internet (1)
Medios de busqueda en internet (1)Medios de busqueda en internet (1)
Medios de busqueda en internet (1)
 
Medios de busqueda en internet y su importancia en la labor profesional
Medios de busqueda en internet y su importancia en la labor profesionalMedios de busqueda en internet y su importancia en la labor profesional
Medios de busqueda en internet y su importancia en la labor profesional
 
Medios de busqueda en internet
Medios de busqueda en internetMedios de busqueda en internet
Medios de busqueda en internet
 
Buscadores
BuscadoresBuscadores
Buscadores
 
Buscadores
Buscadores Buscadores
Buscadores
 
Expocicion de informatica1
Expocicion de informatica1Expocicion de informatica1
Expocicion de informatica1
 
lorena(Las tecnologías de la información y la comunicación)
lorena(Las tecnologías de la información y la comunicación)lorena(Las tecnologías de la información y la comunicación)
lorena(Las tecnologías de la información y la comunicación)
 
Busquedas avanzadas en internet
Busquedas avanzadas en internetBusquedas avanzadas en internet
Busquedas avanzadas en internet
 
Busquedas avanzadas en internet
Busquedas avanzadas en internetBusquedas avanzadas en internet
Busquedas avanzadas en internet
 

Curso posicionamiento

  • 1. Introducción a Internet En esta lección, veremos cómo empezó Internet y de qué se trata. También hablaremos de los buscadores y su sistema de funcionamiento. Introducción Un poco de historia Qué es un buscador y su funcionamiento Modos de búsqueda en Internet Práctica: Diferencia entre un buscador y un directorio Práctica: Modos de búsqueda Introducción Habitualmente, escuchamos definiciones de Internet como “la Red de las Redes” o como “la autopista de la información”. Internet es una Red de porque está hecha a base de unir muchas redes locales de ordenadores, o sea de unos pocos ordenadores en un mismo edificio o empresa, con otras redes. La llamamos "Red de Redes" porque es la más grande, porque en todo el mundo se puede tener acceso a Internet: en algunos países como los del Tercer Mundo, sólo acceden los multimillonarios y en otros como USA o los países más desarrollados de Europa, podemos encontrar conexión e incluso en la calle. Visite este enlace y recibirá más información acerque de lo que es una Red: http://es.wikipedia.org/wiki/Red_de_comunicaciones
  • 2. Por la Red Internet circulan constantemente cantidades increíbles de información. Por este motivo se le llama también La Autopista de la Información. Hay 50 millones de "Internautas", es decir, de personas que "navegan" por Internet en todo el Mundo. Se dice "navegar" porque es normal el ver información que proviene de muchas partes distintas del Mundo en una sola sesión. La red nos permite conectar desde ordenadores personales, ordenadores centrales de grandes empresas como robots y maquinaria, hasta cámaras de vídeo,.. en definitiva es una red que interconecta una gran cantidad de dispositivos e información. Un poco de historia Para entender lo que es hoy en día Internet, es importante que hagamos un repaso a su historia. Internet nació en EE.UU. hace unos 30 años. Un proyecto militar llamado ARPANET pretendía poner en contacto una importante cantidad de ordenadores de las instalaciones del ejercito de EE.UU. Este proyecto gastó mucho dinero y recursos en construir la red de ordenadores más grande en aquella época. Visite este enlace y recibirá más información acerque de lo que es una ARPANET: http://es.wikipedia.org/wiki/ARPANET Al cabo del tiempo, a esta red se fueron añadiendo otras empresas. Así se logró que creciera por todo el territorio de EE.UU. Hará unos 10 años se conectaron las instituciones públicas como las Universidades y también algunas personas desde sus casas. Fue entonces cuando se empezó a extender Internet por los demás países del Mundo, abriendo un canal de comunicaciones entre Europa y EE.UU. En este gráfico podrán visualizar la evolución de Internet desde sus inicios en 1989 hasta 1999: Referencia: Número de ordenadores conectados permanentemente a Internet, desde 1989 hasta 1997. Internet crece a un ritmo vertiginoso, aunque es desde el 2000, cuando ese crecimiento se convierte en algo mundial. Constantemente se mejoran los canales de comunicación con el
  • 3. fin de aumentar la rapidez de envío y recepción de datos. Cada día que pasa se publican en la Red miles de documentos nuevos, y se conectan por primera vez miles de personas. Con relativa frecuencia aparecen nuevas posibilidades de uso de Internet, y constantemente se están inventando nuevos términos para poder entenderse en este nuevo mundo que no para de crecer. Internet crece exponencialmente, el número de usuarios aumenta de forma continua. En 2006 se estimaba el número de internautas en 1.100 millones, aunque como veremos a continuación, actualmente la cifra mundial de usuarios es en Junio de 2009 era de 1.668.870,408 usuarios de Internet. Para el 2016 se estima que el número ascenderá a 2.000 millones. Grafica que nos muestra el porcentaje de usuarios de Internet de acuerdo a la región geográfica donde están ubicados. Qué es un buscador y su funcionamiento Con más de 100 millones de páginas Web, casi otros tantos blogs, personas enviando e-mail, Internet esta saturada de información. La pregunta es: ¿cómo encuentro lo que busco? o ¿por dónde empiezo a buscar, aunque no sepa exactamente qué estoy buscando? Situémonos con un poco de historia en buscadores Antes de que Google apareciera en Internet, la única manera de aparecer en un buscador era gracias al botón Add URL que había al final de las páginas de muchos buscadores como Altavista. Debido al boom de Internet en el 2000, las empresas dejaron de invertir en publicidad, porque ya no era rentable y empezaron a investigar cómo aparecer entre los primeros resultados de los buscadores. A partir de este momento surgen los algoritmos automáticos y las necesidades de los anunciantes de poder averiguar cuáles eran los factores más importantes para poder aparecer en los buscadores. Google, como veremos más adelante no es el único buscador que existe, Ask, Google, Live y Yahoo son los buscadores más importantes, los cuales suman el 98% de la cobertura de Mercado. Un 95% de los usuarios de Internet en España buscan a través de Google, ¿pero realmente encuentran?. Un 4% de las visitas que llegan a través de buscadores se convertirán en clientes más o menos fieles y 1/3 de los que buscan creen que si estás arriba en los resultados de búsqueda es que eres relevante o líder del sector.
  • 4. Pero, ¿Qué es un buscador? Definiremos buscador como los servicios de búsqueda accesibles al público en la red (Google, Yahoo, MSN, Altavista, Go, etc) que usan varias técnicas para acelerar y mejorar las búsquedas que los usuarios realizan. La manera más habitual de elaborar los listados de búsquedas consiste en comparar la pregunta del usuario de Internet con un archivo índice de datos procesados previamente y almacenado en una ubicación determinada, en lugar de comparar con millones de sitios de la red. Esta base de datos la elaboran los buscadores de manera periódica mediante un programa llamado “Spider”, específicamente creado rastrear y leer las páginas de Internet. El Spider analiza las páginas y extrae de ellas aquellos términos y palabras denominadas “clave”, que se guardan en el “archivo índice” junto con los enlaces a las páginas correspondientes. Las preguntas o palabras de búsqueda que los usuarios realizan se comparan con este archivo índice. Modos de búsqueda en Internet Existen dos modos de búsqueda por la WWW, que se explican a continuación: Por Temas Por Palabras claves Por Temas
  • 5. Yahoo, es el principal representante de este modo de búsqueda. Existen otros buscadores de cómo Olé, pero son menos usados en España. Visite este enlace y conozca YAHOO: http://www.yahoo.com/ Este tipo de búsqueda es ideal para cuando estamos buscando información sobre un tema importante, como puede ser, "Revistas en Internet", o "Astronomía", o "Música Moderna". Por cada uno de estos temas, se nos mostrarán en el buscador muchas páginas que hablan de dicho tema. Cada página viene indicada con un título y una pequeña explicación, que nos puede dar una idea más concreta sobre lo que podemos encontrar en esa página sin necesidad de entrar a verla. En caso de que realmente nos interese ver toda la información de la página escogida, no tenemos mas que pulsar sobre su título, y automáticamente aparecerá la información en nuestra pantalla. El buscador de temas Yahoo dispone de muchas más direcciones en su base de datos que el buscador Ole. Este último es un buscador que sólo tiene en cuenta páginas Web en castellano, por lo que su número es muy inferior. Por lo tanto para saber qué buscador debemos usar, tenemos que tener una idea de si lo que buscamos puede estar o no en castellano. Si sospechamos que no, lo mejor es ir directamente al Yahoo, y buscar allí. Desde el punto de vista del administrador de un sitio Web es importante aparecer en este tipo de buscadores por temáticas. Por Palabras claves Hay ocasiones en que buscamos temas demasiado concretos como para que se puedan categorizar en un buscador por temas. Por ejemplo, si queremos obtener información sobre el edificio "Empire State Building" de Nueva York, lo mejor es buscarlo mediante palabras clave. El buscador por excelencia en España es Google y el que usan casi un 98% de la población. Este tipo de buscadores, nos permiten concretar el tipo de búsqueda a realizar. Cuando buscamos algo con varias palabras clave, el buscador puede pensar que queremos la páginas Web en las que aparezca alguna de esas palabras, o todas ellas en la misma página, o todas ellas en el mismo orden en que las hemos escrito, y seguidas una detrás de otra. Todo esto se puede especificar antes de realizar la búsqueda. La “búsqueda inteligente” Smart Representation La “búsqueda inteligente” o smart representation consiste en elaborar el índice según una estructura que reduzca al mínimo el tiempo de búsqueda. Así, por ejemplo, estos datos se ordenan con mucha mayor eficacia en forma de “árbol” que mediante un listado secuencial. En los índices “árbol” la búsqueda comienza desde arriba o nudo de raíz, por lo que para localizar términos que comienzan por letras del alfabeto anteriores a la letra inicial de la palabra nudo, el buscador parte de la ramificación izquierda; y si la letra es posterior en el alfabeto, de la ramificación derecha. Cada nudo subsiguiente ofrece más ramificaciones hasta que se localiza el término en cuestión, o hasta concluir que no se encuentra en el árbol.
  • 6. Mucha gente piensa que Google y Yahoo! son esencialmente lo mismo... y se equivocan. El primero es un buscador ("search engine" en inglés) y el segundo un directorio. En Yahoo! un grupo de personas llamados "surfers" recorren la Web seleccionando sitios, comentándolos y clasificándolos en una base de datos según unos criterios más o menos homogéneos. Efectivamente, luego existe un motor de búsqueda que busca en esa base de datos. Una base de datos hecha por humanos, más pequeña por tanto que la de cualquier gran buscador, y que está formada por los datos introducidos por esos humanos (es decir, incluye valoraciones como "categoría" o "país"). Práctica: Diferencia entre un buscador y un directorio Práctica: Diferencia entre un buscador y un directorio Como prueba de la potencia de estos buscadores de palabras clave, podemos hacer el siguiente experimento. Buscamos nuestro nombre en Internet. Se introduce en la celda reservada para meter la palabra clave nuestro nombre. Si especificamos demasiado en un directorio no encontremos nada, pero si sólo ponemos un nombre y un apellido, puede que encontremos páginas Web donde aparezcan estos nombres, refiriéndose a personas que se llaman igual que nosotros, de las cuales puede haber varias en el Mundo. Abra el navegador e inserte en la barra de direcciones: www.google.com Introduzca su nombre completo y apellidos. Vemos que se proceden millones de páginas que están indexadas con tu nombre. Haremos ahora la comparativa: Abra el navegador – Abrir un directorio Yahoo: http://search.yahoo.com/dir Introduzca su nombre completo y apellidos. Tenga presente, que dependiendo del dato que introduzca, podrá darle resultados o no encontrar nada. ¿Por qué se produce esta diferencia en los resultados? Porque un directorio guarda una estructura de temas más amplia, mientras que un buscador indexa por palabras.
  • 7. 1.- ¿Yahoo es un buscador como Google? Yahoo y Google son iguales y se basan en la misma estructura Ninguna de las respuestas es correcta. Sí, Yahoo muestra resultados de cuando se introduces una palabra. 2.- ¿Qué es un buscador? Ninguna de las respuestas es correcta. Una herramienta para buscar conceptos según unos archivos realizados aleatoriamente. Una técnica para acelerar y mejorar las búsquedas que los usuarios realizan a través de Internet. 3.- ¿Qué es la smart representation? La smart representation es lo que hace Google cuando muestra los resultados en sus páginas. La búsqueda inteligente se refiere a listados de temas. La “búsqueda inteligente” consiste en elaborar el índice según una estructura que reduzca al mínimo el tiempo de búsqueda Por palabras clave. 4.- Modos de búsqueda a través de Internet. Ambas respuestas son correctas. Por temas, que busca por un tema en general o una categoría amplia. Por palabras clave que busca por temas más concretos o palabras. 5.- ¿Diferencias entre un buscador y un Directorio? Un buscador es un motor de búsqueda que ordena según conceptos, y un directorio se basa en el trabajo de unos “surfers”que recorren la Internet seleccionando sitios y clasificándolos según unos criterios homogéneos. No existe diferencia entre un buscador y un directorio, ambos se utilizan para mostrar resultados tras una búsqueda. Un buscador se ordena según una estructura de árbol y un directorio no sigue estructura alguna.
  • 8. 1.- ¿Yahoo es un buscador como Google? Yahoo y Google son iguales y se basan en la misma estructura Ninguna de las respuestas es correcta. Sí, Yahoo muestra resultados de cuando se introduces una palabra. 2.- ¿Qué es un buscador? Ninguna de las respuestas es correcta. Una herramienta para buscar conceptos según unos archivos realizados aleatoriamente. Una técnica para acelerar y mejorar las búsquedas que los usuarios realizan a través de Internet. 3.- ¿Qué es la smart representation? La smart representation es lo que hace Google cuando muestra los resultados en sus páginas. La búsqueda inteligente se refiere a listados de temas. La “búsqueda inteligente” consiste en elaborar el índice según una estructura que reduzca al mínimo el tiempo de búsqueda Por palabras clave. 4.- Modos de búsqueda a través de Internet. Ambas respuestas son correctas. Por temas, que busca por un tema en general o una categoría amplia. Por palabras clave que busca por temas más concretos o palabras. 5.- ¿Diferencias entre un buscador y un Directorio? Un buscador es un motor de búsqueda que ordena según conceptos, y un directorio se basa en el trabajo de unos “surfers”que recorren la Internet seleccionando sitios y clasificándolos según unos criterios homogéneos. No existe diferencia entre un buscador y un directorio, ambos se utilizan para mostrar resultados tras una búsqueda. Un buscador se ordena según una estructura de árbol y un directorio no sigue estructura alguna.
  • 9. Cómo funciona el posicionamiento En esta lección, veremos cómo funciona el posicionamiento de las páginas Web que encontramos en los buscadores. Cómo rastrea Internet Cómo hacer para que se indexen mis páginas Cómo lee un buscador un sitio Web Organización de un SERP Elementos para fomentar la entrada de un robot en nuestra Web Puedo evitar ser rastreado Práctica: Diferencia existe entre los resultados orgánicos y de pago Cómo rastrea Internet Para acceder al mayor número de páginas posibles, los buscadores acceden a unas páginas introducidas manualmente en una lista (semillas) y guardan las URL de los hipervínculos para descargarlas posteriormente. Una URL (sigla en inglés de uniform resource locator) es un localizador uniforme de Recursos, una secuencia de caracteres, de acuerdo a un formato estándar, que se usa para nombrar recursos, como documentos e imágenes en Internet, para su posterior localización. Ningún buscador dispone de información actualizada de todas y cada una de la páginas de Internet, pero realizan esfuerzos importantes para que sus robots rastreen todas las páginas posibles luchando contra estos dos factores: 1. Para luchar contra el gran volumen de páginas, los buscadores deben aumentar el número de páginas descargadas por segundo, y esto lo consiguen mejorando su conectividad y la localización geográfica y número de robots de rastreo. 2. Para tener siempre los contenidos actualizados, la solución no es tan sencilla como revisar cada Web más a menudo, porque esto supone un aumento enorme del
  • 10. número de páginas a descargar. En estos casos lo que se hace es detectar el grado de variabilidad (también llamado frescura) de cada documento indexado para determinar cada cuando hay que revisarla. Cómo hacer para que se indexen mis páginas Para que un buscador rastree tu página Web, primero deberá conocer tu URL, esto podemos conseguirlo enviando la URL al buscador desde un formulario para que la guarde en su base de datos, o poniendo enlaces hacia nuestra URL en otras páginas ya indexadas, vamos a detallar más cada opción: El formulario de URL's La mayoría de buscadores disponen de formularios que permiten introducir la URL de tu página para ser indexada, proceso por el que el contenido de un sitio se añade a un motor de búsqueda, posteriormente. Este sistema suele ser menos interesante ya que un factor importante para aparecer en los primeros resultados de un buscador es el número de enlaces hacia tu página y de esta manera nuestra página tendrá 0 enlaces entrantes. Google ha introducido una nueva e interesante manera de indicar al buscador que contenidos de tu Web debe rastrear llamada sitemaps. Los enlaces entrantes Aunque para que un robot nos rastree encontrando un enlace entrante a nuestra página es una opción más lenta (hay que conseguir enlaces entrantes en sitios indexados, esperar que el robot los rastree y apunte nuestra URL y esperar que finalmente nos rastree a nosotros) sobre todo si contamos con el efecto sandbox, los enlaces entrantes son un factor importante para conseguir una buena posición. Ambas prácticas tienen sus pros y sus contras, por esto es aconsejable llevar a cabo ambas simultáneamente. Cómo lee un buscador un sitio Web Una vez que un robot entra en una página se lee el código buscando identificar una serie de zonas: la cabecera, el cuerpo... y dentro de éstas, intenta localizar las etiquetas clave, es decir, las palabras que identifican los contenidos, estructuras, archivos, secciones, etc. de la Web. Sin embargo, esta lectura del código no tiene porque ser lineal. Google por ejemplo posterga el contenido de las tablas. En la clásica página en la que los contenidos aparecen enmarcados por un par de tablas anidadas, fuera de las cuales apenas queda la dirección de la empresa o el copywrite, lo primero que leería sería precisamente aquello que aparece fuera de la tabla (es decir, información secundaria). ¿Es eso realmente importante? Desde luego, ya que veremos que es una de las variables a tener en cuenta es la posición del término de búsqueda dentro del cuerpo de la página.
  • 11. La "sensación" del robot a la hora de leer nuestra página será muy parecida a la que tengamos nosotros al leer la misma página desde un ordenador de bolsillo (ODB o PDA en inglés). Es una experiencia recomendable para programadores y diseñadores Web: al no tener espacio para mostrar todo el ancho de página, rompe el contenido mostrando columna a columna. Lo primero que vemos de una Web es un largo e inútil menú, y no la información que buscamos. El robot en cambio lee fila a fila, pero al anidar tablas en celdas de otras tablas mayores, hacemos que el orden de lectura del buscador sea diferente del que intuitivamente pensamos al ver la página en el navegador. Incluso el orden es algo importante. Algunos robots incluso, buscan las cosas en un determinado orden y sólo en él. De modo que si por ejemplo, la etiqueta <TITLE> no es la primera bajo la etiqueta <HEAD>, no archivará en su base de datos el título de la Web. Organización de un SERP SEPR viene de Search Engine Results Page (Páginas de Resultados de Buscadores), es la página de los resultados que nos muestra un buscador. Frecuentemente se hace referencia a la lista de resultados de un buscador. Si hablamos de Google podemos distinguir entre la lista de resultados orgánica y la de pago. La lista de resultados orgánica se basa en las páginas indexadas que rastrea y almacena el crawler o robot, mientras que la lista de lago es aquella que nos aparece como enlaces patrocinados. A continuación vemos los resultados de búsqueda orgánicos o naturales en un buscador como Google:
  • 12. A continuación vemos los resultados de búsqueda de pago o SEM: Elementos para fomentar la entrada de un robot en nuestra Web Peso según frecuencia Como resultado de estas búsquedas suelen ofrecerse numerosos enlaces o URL (unified resource locator) de sitios que contienen los términos o palabras claves buscadas. Pero todos los enlaces resultantes tienen por lo general la misma relevancia, debido sobre todo a determinadas ambigüedades de cada uno de los idiomas y a que el sistema es incapaz de interpretar totalmente el contenido semántico de los textos. Para deducir los registros más pertinentes, el algoritmo de búsqueda aplica otras estrategias clasificatorias más complejas. Un método habitual, conocido como “peso según frecuencia”, asigna un peso relativo a las
  • 13. palabras para indicar su importancia en cada documento; la asignación de relevancia se basa en la distribución de las palabras y en la frecuencia con que aparecen en cada uno de los sites. Sin embargo, como veremos a continuación este nuevo filtro tampoco es perfecto y es muy vulnerable al “pirateo” o a la trampa (la más simple de ellas sería la creación de Web únicamente destinada a la acumulación, visible o invisible para el visitante del sitio, de enlaces) y se requieren más análisis. La importancia del Contenido Si queremos que los robots nos visiten más a menudo, consiguiendo tener siempre nuestro contenido actualizado en sus índices, deberemos aumentar el grado de variabilidad o frescura de nuestras páginas modificándolas a menudo y aportando nuevos contenidos de forma regular, esto lo veremos en el capitulo siguiente. Actualmente, una Web ha de ser dinámica, es decir, que presente un constante cambio de contenidos. Las Web corporativas y estáticas que no se actualizan en meses o años, han quedado desfasadas y reemplazadas por la calidad, cantidad y originalidad de los contenidos que publiquemos. El secreto de un sitio Web son sus contenidos y, principalmente, que estos contenidos sean originales, ya que un buscador va a enseñar a los usuarios que hacen búsquedas lo optimo y actual para ellos. Análisis de enlaces Pero ¿qué usa Google que hace más efectiva su búsqueda?. El análisis de enlaces, constituye la estrategia fundamental de discriminación y a la que mayor peso específico tiene sobre el SEO. Básicamente esta técnica estudia la naturaleza de cada página, si se trata de una “autoridad”(es decir, los enlaces de otras páginas remiten a ella) o si es un “eje” (remite a otras páginas). En otras palabras: la popularidad de la página donde se sitúa el enlace. Puedo evitar ser rastreado Existen diferentes métodos llamados Métodos de Exclusión que permiten evitar que un buscador rastree e indexe nuestra página, vamos a conocer algunos de ellos: El estándar de exclusión de robots, también conocido como el protocolo de la exclusión de robots o protocolo de robots.txt es un método para evitar que ciertos bots que analizan los sitios Web u otros robots que investigan todo o una parte del acceso de un sitio Web, público o privado, agreguen información innecesaria a los resultados de búsqueda. Los robots son de uso frecuente por los motores de búsqueda para categorizar archivos de los sitios Webs, o por los webmasters para corregir o filtrar el código fuente. El archivo robots.txt - un archivo robots.txt en un sitio web funcionará como una petición que especifica que determinados robots no hagan caso a archivos o directorios específicos en su búsqueda. Esto puede realizarse, por ejemplo, para dejar fuera de una preferencia los resultados de una búsqueda avanzada, o de la creencia que el contenido de los directorios seleccionados puede ser engañoso o inaplicable a la clasificación del sitio en su totalidad.
  • 14. Meta-Tags específicos para robots - son unos caracteres pertenecientes al HTML que se deben de escribir dentro del tag general <head> y que lo podemos definir como líneas de código que indican a los buscadores que le indexan por qué términos debe ser encontrada la página. Dependiendo de la utilización, caracterización y objetividad de dichos meta, se puede conseguir una excelente posición en el listado resultante de una búsqueda. Formularios de eliminación Práctica: Diferencia existe entre los resultados orgánicos y de pago Práctica: Diferencia existe entre los resultados orgánicos y de pago Abra el navegador e introduzca www.Google.es en la barra del navegador. Busque las palabras " formación profesional". Marque con un recuadro los resultados orgánicos, y marque con otro recuadro los resultados de SEM. Realice esta misma operación, con 2 ó 3 palabras que le interese.
  • 15. 1.- ¿Es importante el contenido de una Web corporativa? No, aunque de forma interna para la compañía sí. El secreto de una Web no radica en el contenido, aunque es importante. Sí, ya que una Web corporativa es la imagen de la empresa, debe ser dinámica y con contenido de calidad. 2.- ¿Es importante cómo se estructura el código para posicionar nuestra Web? No, ya que lo importante es el peso y la relevancia de las palabras de nuestro sitio. El secreto de una Web es el cuerpo del código html. Sí, ya que el código determinará la lectura del buscador en nuestra Web y así, descartará o cogerá lo que sea de interés. 3.- ¿Que es el SERP? Es la página resultante de los resultados de búsqueda de pago. Es la página resultante de los resultados de búsqueda orgánicos. Es la página resultante de los resultados de búsqueda naturales y de pago. 4.- ¿Qué hace efectiva la búsqueda que ofrece Google? La notoriedad que cada uno le da a su página Web. El SEO que aplica. El análisis de enlaces que constituye una estrategia fundamental de discriminación entre todas las Web. 5.- ¿Qué es una Url? Es el nombre de mi Web. Es una secuencia de caracteres que se usa para nombrar documentos e imágenes en Internet, para su posterior localización. Es el título que le ponemos a cada una de las Web que se indexan. 6.- ¿Puedo evitar ser rastreado? No. Los métodos de exclusión permiten que un buscador rastree o indexe las zonas que le indicamos de nuestra Web. A veces, en función de cómo este hecha la Web. 7.- ¿Cómo podemos indexar las páginas de una Web? No se puede indexar las páginas de una Web manualmente, es el buscador quien lo hace. Indicándole al crawler o robot la Url, a través de un formulario y con enlaces entrantes a mi Web. A través de un formulario.
  • 16. 1.- ¿Puedo evitar ser rastreado? No. A veces, en función de cómo este hecha la Web. Los métodos de exclusión permiten que un buscador rastree o indexe las zonas que le indicamos de nuestra Web. 2.- ¿Qué hace efectiva la búsqueda que ofrece Google? El análisis de enlaces que constituye una estrategia fundamental de discriminación entre todas las Web. La notoriedad que cada uno le da a su página Web. El SEO que aplica. 3.- ¿Es importante cómo se estructura el código para posicionar nuestra Web? No, ya que lo importante es el peso y la relevancia de las palabras de nuestro sitio. El secreto de una Web es el cuerpo del código html. Sí, ya que el código determinará la lectura del buscador en nuestra Web y así, descartará o cogerá lo que sea de interés. 4.- ¿Que es el SERP? Es la página resultante de los resultados de búsqueda de pago. Es la página resultante de los resultados de búsqueda orgánicos. Es la página resultante de los resultados de búsqueda naturales y de pago. 5.- ¿Qué es una Url? Es el nombre de mi Web. Es el título que le ponemos a cada una de las Web que se indexan. Es una secuencia de caracteres que se usa para nombrar documentos e imágenes en Internet, para su posterior localización. 6.- ¿Cómo podemos indexar las páginas de una Web? A través de un formulario. No se puede indexar las páginas de una Web manualmente, es el buscador quien lo hace. Indicándole al crawler o robot la Url, a través de un formulario y con enlaces entrantes a mi Web. 7.- ¿Es importante el contenido de una Web corporativa? No, aunque de forma interna para la compañía sí. El secreto de una Web no radica en el contenido, aunque es importante. Sí, ya que una Web corporativa es la imagen de la empresa, debe ser dinámica y con contenido de calidad.
  • 17. Importancia del dominio y elección de palabras claves En esta lección, veremos conceptos relacionados con el dominio, trataremos sobre la relevancia que tiene la elección de las palabras claves que definen nuestra Web. El dominio Cómo crear palabras claves El concepto de popularidad Elección de los términos clave o Keywords Elección del hosting y el efecto sobre el posicionamiento Práctica: Comprobar la antigüedad de un dominio El dominio Uno de los elementos más importantes de un sitio Web es su dominio. Si quiere que tenga algún peso en posicionamiento es interesante que contenga la palabra clave principal del proyecto. Esto no significa que sea imprescindible, pero ayudará a mejorar la posición en la mayoría de motores de búsqueda. Ante la elección entre un dominio con o sin guiones, lo mejor es no usar ningún tipo de elemento “extraño” en la dirección, y en caso de ser necesario, sólo tenga como máximo un guión. Vea este enlace y la importancia de un buen dominio: http://www.inmoblog.com/portales-inmobiliarios/la-importancia-de-un-buen-dominio/ Territorialidad del dominio
  • 18. Los buscadores, cada vez más, están dando más importancia a la geoposición de un dominio, es decir, que si la información de un dominio está enfocada a un país en concreto, este dominio aparecerá mejor posicionado en la edición local de ese buscador. Esto significa que si el contenido de un dominio está enfocada a España, lo mejor es usar un dominio .ES, que si está enfocada para Estados Unidos usemos un dominio .US o si está enfocada para Grecia usemos un .GR. Esto no significa que no podamos usar los dominios .COM o .NET para incorporar información, pero en estos casos los haremos de una forma más genérica. Al fin y al cabo… ¿para qué existen dominios territoriales si luego no tienen ninguna influencia en los usuarios o los motores de búsqueda? Edad del dominio Que un dominio lleve mucho tiempo registrado y en línea es un buen elemento a tener en cuenta para que se indexe de forma correcta y se tenga en cuenta como lugar destacado de Internet. Aún así, aquellos que compran un dominio pensando en mantener su edad histórica, han de saber que hoy en día la mayor parte de buscadores también son registradores de dominios, de forma que tienen control absoluto sobre los cambios de titularidad o que haya en los mismos. Fuentes internas de Google dicen que si un dominio cambia de titular, ese dominio queda reseteado en su edad y el motor lo tratará como uno nuevo. Aún así, los resultados de búsqueda por ahora no indican eso. En caso de que tengas la posibilidad de adquirir un dominio antiguo, es muy interesante ver qué había en él históricamente y para ello puedes usar la herramienta Wayback Machine donde verás de forma temporal el contenido de un sitio a modo de caché. Compruebe la antigüedad de su dominio, con esta herramienta tendrá acceso al contenido que había publicado en su Web antiguamente: http://www.archive.org/web/web.php Dominios Aparcados En la actualidad cuando se compra un dominio que no está pensado desarrollarse es posible establecerlo en sitios donde, al entrar, aparece una página en la que únicamente hay enlaces de pago. Aunque este sistema puede ser rentable, en el momento en el que se decida lanzar un proyecto bajo
  • 19. este dominio es probable que te encuentres con que los robots de búsqueda no pasan a indexarlo y mucho menos posicionarlo. En caso de encontrarte en esta situación lo mejor es comenzar a generar contenido y cuando hayan pasado al menos 6 semanas dar de alta el dominio en los buscadores de nuevo, crear Sitemaps y comenzar un proceso de reinclusión, como el que permite Google. Cómo crear palabras claves Una vez analizados los elementos estructurales del código de sites veamos el análisis de la importancia de las palabras claves. Los conceptos generalmente usados son: Frecuencia Recuento Peso Relevancia El trabajo sobre el código de una página de cara a su posicionamiento consiste en medir cada una de estas variables en cada una de las áreas y modificar su contenido si sale de los márgenes recomendados por el estudio lexométrico para uno o varios buscadores. Definamos ahora estos conceptos: Frecuencia Es el número de veces que el término de búsqueda aparece en el área. Varía en función de si los robots "leen" partiendo palabra o no, de si distinguen o no acentos, de si se elige la opción de búsqueda exacta y de si la búsqueda es sensible o no a las mayúsculas ("case sensitive" en inglés). Por ejemplo: Scooter, el robot de Altavista, distingue como palabras diferentes "leon" y "león" o "enfermería" y "enfermeria" (buscada 12 veces más que la anterior). Sin embargo si encuentra "Leon" y "leon", asignaría una frecuencia uno al término de búsqueda "leon" (ya que parece ser sensible a la distinción mayúsculas/minúsculas). Googleboot, el robot de Google, por el contrario ha modificado su algoritmo recientemente para equiparar "leon" a "león" y "Leon" como la misma palabra (los usuarios no suelen poner acentos :)) aunque al igual que Scooter sigue sin partir palabra (de modo que en la frase "Los ciberpunks piensan que el ciberpunk es algo más que un género literario", la frecuencia de "ciberpunk" sería uno y no dos tanto para Scooter como para Googleboot). En este ejemplo vemos como Google tiene en cuenta la palabra "Leon" y "león", de la misma manera:
  • 20. Recuento Cuenta el total de palabras en un área excluyendo las etiquetas HTML. Peso El peso es el porcentaje que el término de búsqueda representa sobre el total de palabras en la página o el área analizados. Dado que el término de búsqueda puede estar formado por varias palabras, la fórmula general del peso podríamos definirla como: P=n*F/R n = número de palabras del término de búsqueda. R = Recuento del área. F = Frecuencia del término de búsqueda. En cualquier caso hay una amplia discusión sobre el papel del peso y su cálculo exacto. En general, suele rondar el 3% para las páginas mejor posicionadas... aunque obviamente esto se debe a que la frecuencia y el recuento de estas suele ser similar. Es lo que en lexometría llamaríamos un caso de "multicolinealidad".En la práctica vigilar el peso sirve como chequeo de la proporción entre frecuencia y recuento, no tanto como una variable independiente que actúe por si misma. Relevancia La relevancia mide la distancia entre el comienzo del área y el lugar donde aparece la palabra clave. Claro que hay que tener en cuenta la forma en la que los robots "leen" la página, pues algo que esté gráficamente más arriba al verlo en el navegador, no necesariamente está más arriba en el código. Recordemos que Google por ejemplo "salta" las tablas y las lee al final. Si el término de búsqueda aparece como primera palabra del área la prominencia es 100% y si es la última el 0%. Si aparece varias veces, se promedia. Es decir, a no ser que hagamos R muy baja, dejando la palabra clave sólo como primera palabra del body, nunca tendrá un 100%, aunque lo más recomendable es colocarla con cierta profusión en el primer tercio de cada área. Un ejemplo de artículo podría ser éste (una supuesta Web de ciencia con un nivel medio-bajo): La vida empezó “en el fondo del mar”. Una nueva y controvertida teoría sobre el origen de la vida en la Tierra ha dado que hablar en la comunidad científica. La nueva concepción sostiene que los organismos vivos se originaron en los que llama “incubadores inorgánicos”. Se trata de pequeños nidos formados en rocas de sulfuro de hierro. La teoría, propuesta por los profesores William Martin, de la Universidad de Düsseldorf (Alemania), y Michael Russell, del Centro Escocés de Investigación Ambiental en Glasgow, cuestiona de la raíz ideas convencionales. Hasta ahora se ha sostenido que primero se formaron los ladrillos elementales de la vida, los cuales se fueron juntando para generar una estructura celular básica. La nueva propuesta señala, en cambio, que la célula se formó primero y que después se rellenó con moléculas de vida. Una de las implicaciones de la teoría es que existen más probabilidades de que se desarrollen
  • 21. organismos en planetas donde antes se pensaba que sería imposible. Tras la lectura de este fragmento de noticia podrías plantearte cuáles son los conceptos que tal vez interesaría posicionar: “dónde comenzó la vida” y “origen de la vida”. Estas dos frases pueden ser una búsqueda que la gente haga y por tanto es algo que debes plantearte posicionar. Además podrías destacar los nombres de los científicos. Así pues, puedes dejar redactado el artículo de la siguiente manera: El origen de la vida en el fondo del mar Una nueva y controvertida teoría sobre el origen de la vida en la Tierra ha dado que hablar en la comunidad científica. La nueva concepción sostiene que los organismos vivos se originaron en los que llama “incubadores inorgánicos”. Se trata de pequeños nidos formados en rocas de sulfuro de hierro. La teoría sobre dónde comenzó la vida, propuesta por los profesores William Martin, de la Universidad de Düsseldorf (Alemania), y Michael Russell, del Centro Escocés de Investigación Ambiental en Glasgow, cuestiona de la raíz ideas convencionales. Hasta ahora se ha sostenido que primero se formaron los ladrillos elementales de la vida, los cuales se fueron juntando para generar una estructura celular básica. La nueva propuesta señala, en cambio, que el origen de la vida está en la célula que se formó primero y que después se rellenó con moléculas de vida. Una de las implicaciones de la teoría es que existen más probabilidades de que se desarrollen organismos en planetas donde antes se pensaba que sería imposible. Una vez tienes el texto completamente redactado (con las principales frases con las que conseguir tráfico en párrafos con cierta distancia, una combinación de palabras cada 2 ó 3 párrafos), debes plantear si debe quedar como texto plano o marcando algunas palabras de alguna forma. Con este nuevo título y el haber introducido un par de veces los conceptos es muy probable que el posicionamiento mejore en muchos buscadores. Eso sí, hay que tener en cuenta una cosa: no abusar. La lectura para una persona es muy similar en los dos textos, aunque en el segundo, hacemos que la lectura para los buscadores mejore significativamente. El origen de la vida en el fondo del mar Una nueva y controvertida teoría sobre el origen de la vida en la Tierra ha dado que hablar en la comunidad científica. La nueva concepción sostiene que los organismos vivos se originaron en los que llama “incubadores inorgánicos”. Se trata de pequeños nidos formados en rocas de sulfuro de hierro. La teoría sobre dónde comenzó la vida, propuesta por los profesores William Martin, de la Universidad de Düsseldorf (Alemania), y Michael Russell, del Centro Escocés de Investigación Ambiental en Glasgow, cuestiona de la raíz ideas convencionales. Hasta ahora se ha sostenido que primero se formaron los ladrillos elementales de la vida, los cuales se fueron juntando para generar una estructura celular básica.
  • 22. La nueva propuesta señala, en cambio, que el origen de la vida está en la célula que se formó primero y que después se rellenó con moléculas de vida. Una de las implicaciones de la teoría es que existen más probabilidades de que se desarrollen organismos en planetas donde antes se pensaba que sería imposible. En este último fragmento, el haber añadido conceptos en negritas y cursivas hará que el robot de búsqueda se quede atento a esos conceptos y les de cierta importancia por encima del resto del documento. El concepto de popularidad Cuando Google apareció en la Web, allá por el 2000, la noticia se transmitió rápidamente por el viejo sistema del boca a boca. Expertos y usuarios finales pensaban que por fin había alguien un motor de búsqueda imparcial y realmente útil. ¿Por qué? Sobre todo por su capacidad para jerarquizar resultados. Hasta entonces, el lugar en la lista de resultados venía dado exclusivamente por el grado de asociación de la página al término de búsqueda en la base de datos del buscador (en los buenos buscadores) o incluso por la antigüedad (en los malos) Google fue el primero en completar la asociación con un criterio jerárquico completamente diferente e independiente de los componentes del código: la "popularidad". ¿Qué significa esto? De un modo muy sencillo podríamos decir que tu página será tanto más importante a la hora de ordenar resultados, cuantas más enlaces en otras páginas indexadas le apunten. ¿Eso era todo? Realmente no. Si el "índice de popularidad" fuera igual a la suma del número de enlaces que nos apuntan, bastaría con crear una multitud de páginas que apuntaran a la nuestra para mejorar su posicionamiento. Los algoritmos de "popularidad" se defienden de un modo sencillo pero efectivo de esta posible trampa: El "índice de popularidad" es en realidad la suma del número de páginas que nos apuntan ponderada por el índice de popularidad de cada una de ellas (medido en porcentaje sobre la máxima puntuación alcanzable). Podríamos resumirlo en la siguiente fórmula: P(x) = 1/P(1) + 1/P(2) + ..... + 1/P(n) Esta fórmula se ve ponderada según el término de búsqueda por el grado de relación con los términos buscados de las páginas que nos apuntan, de modo que la fórmula de ordenación final de resultados sería un poco más compleja y sería parecida a: F (x) = G(x) *(1/G(1)*P(1) + 1/G(2)*P(2) + ..... + 1/G(n)*P(n) ) Siendo G el algoritmo que en función del análisis del código de una página y del texto del enlace que nos apunta establece el grado de relación de esta con el término de búsqueda y que se mide también como un porcentaje del máximo alcanzable. Es decir, Google representa un avance en las herramientas de indexación y búsqueda en la WWW porque cuando solicitas una búsqueda realiza un trabajo en cuatro fases:
  • 23. 1. Busca en su base de datos aquellas URLs asociadas a la palabra criterio de búsqueda. 2. Calcula sus distintos grados de asociación. 3. Ordena las URL en función de su popularidad ponderada con el grado de asociación de las páginas que le apuntan y del texto del enlace que nos apunta desde ellas. 4. Presenta los resultados. Hay que señalar sin embargo que aunque las tecnologías basadas en la popularidad se van extendiendo, ni siquiera Google las incorpora homogéneamente: por ejemplo, en la ordenación de resultados de su directorio simplemente ordena dentro de cada categoría en función del índice de popularidad (representado por una barrita verde). Si lo pensamos esto tiene su lógica, ya que se supone que el criterio que nos lleva a una categoría determinada de un directorio es el mismo para todas las Web incluidas en él, lo que le exime de realizar el trabajo de asociación URL/criterio de búsqueda. Otra nota importante es la importancia del “qué” nos apunta. El texto del enlace puede, si el número de enlaces es suficiente, llegar a determinar la asociación de una página con un término de búsqueda que ni siquiera contenga en su contenido. Como escribe Adam Mathes: Descubrí que cuando buscaba el término "Internet rockstar" devolvía la página de Ben [Brown]. En aquel momento, sin embargo el ni siquiera tenía la frase en su página aunque la legión de Blogger quinceañeros que le enlazaban siempre usaban esa frase en sus enlaces. Este hecho, recientemente comprobado en Google, implica no sólo la inutilidad de las tradicionales campañas de banners de cara a la popularidad (ya que los enlaces pasan por un servidor intermedio), sino también que frente al tradicional énfasis en los gráficos, el elemento clave del enlace vuelve a ser el texto. Elección de los términos clave o Keywords Es lo primero y parece obvio... Pero no lo es: no lo es por varios motivos: en primer lugar porque como ya hemos visto, en la mayoría de los buscadores no es lo mismo una palabra con acento que la misma sin acento ("enfermería" que "enfermería" por ejemplo), por lo que de optimizar para una (normalmente la que no tiene acentos) estaríamos perdiendo los que buscan la otra. Claro que no siempre podemos elegir y tendremos que forzar en muchos casos una "doble optimización" para la palabra con y sin acento. Por otro lado, conseguir resultados óptimos para una única palabra nos sitúa en la competición más dura. En general será más fácil obtener un buen posicionamiento cuanto más específica sea la búsqueda, es decir, posicionar www.guiadeenfermeria.com para "enfermería" será siempre más difícil que para "enfermería clínica".
  • 24. Lo recomendable es jugar con un término principal para el que optimizamos el código consciente y rigurosamente y un término secundario o dos para el que dejaremos pistas en el código pero sin forzar la programación. Pero, ¿cómo elegimos el término principal?. Tres deberían ser los criterios: el término más buscado relacionado con el tema principal de nuestra página el término por el que los usuarios que ya nos conocen buscarían nuestra página el término más atractivo para el potencial público de nuestra página Con esta herramienta que proporciona Google podremos ver cuál es el volúmenes de búsquedas que tiene una palabra clave: http://www.google.com/insights/search/# Elección del hosting y el efecto sobre el posicionamiento De la misma manera que el dominio determinará, en muchos casos, nuestro posicionamiento orgánico, es importante la elección del hosting. El hosting determinará en gran medida la respuesta de nuestro site, por lo que es importante que esté situado en el lugar para el que está respondiendo. Si queremos alojar una Web española es necesario que la Web esté en un hosting Español. Así como la Geolocalización del dominio es vital, la elección del hosting también afectará a la localización. Definición sobre hosting o alojamiento de nuestra Web: http://es.wikipedia.org/wiki/Hosting Práctica: Comprobar la antigüedad de un dominio Práctica: Comprobar la antigüedad de un dominio Abra una nueva pantalla del navegador. Introduzca http://web.archive.org Introduzca la URL del la página que se desea saber (indicar que sea www.lavanguardia.es).
  • 25. Nos indica que el dominio es de 01 de enero de 1996 Realice esta misma operación, con 2 ó 3 dominios que le interese conocer. 1.- ¿Qué es una palabra clave y cómo nos afecta Una palabra clave es el término con los que vamos a optimizar nuestro sitio. Una palabra clave es la palabra con que se asocia a nuestra Web. Una palabra clave determina el sector de nuestra Web. 2.- Definamos el concepto de popularidad como: El "índice de popularidad" es la suma del número de páginas que nos apuntan por el índice de popularidad de cada una de ellas. La popularidad es lo conocida que es nuestra marca en Internet. Es el número de links que apuntan a nuestra página. 3.- ¿Qué es la relevancia? Es el número de veces que el término de búsqueda aparece en el contenido.
  • 26. Es la importancia de nuestra Web en los buscadores. La relevancia mide la distancia entre el comienzo del area y el lugar donde aparece la palabra clave. 4.- ¿Es importante la edad de un dominio? Sí, es interesante adquirir un dominio antiguo. Sí es importante aunque hay que comprobar que no se haya reseteado la edad y haya perdido toda la antigüedad. No. 5.- Definamos recuento como: Es la cuenta el total de palabras en un área excluyendo las etiquetas HTML. Total de veces que sale nuestra Web en un buscador y en directorio. Total de veces que sale nuestra Web en un buscador. 6.- ¿Es lo mismo el dominio y la URL? Ambas respuestas son correctas. El dominio es uno de los elementos más importantes de un sitio Web. El dominio es parte de la composición de la URL. 7.- ¿Cómo elegir una Keywords? Según el tema principal de nuestra Web, por como los usuarios nos buscarían en nuestra Web. En función del sector de la empresa. Por las palabras los usuarios nos relacionan. 8.- ¿Qué es la Frecuencia? Es el número de veces que búscan nuestra Web en Google. Número de veces que sale nuestra Web en un buscador. Es el número de veces que el término de búsqueda aparece en el área del contenido de nuestra Web. 9.- ¿Qué es el peso? El peso es el total de Kilobytes que pesa mi Web. El peso es el porcentaje que el término de búsqueda representa sobre el total de palabras en la página o el área analizados. El peso se mide en función de cada Web y tiene que ver con las palabras claves. 1.- ¿Qué es una palabra clave y cómo nos afecta Una palabra clave es el término con los que vamos a optimizar nuestro sitio. Una palabra clave es la palabra con que se asocia a nuestra Web. Una palabra clave determina el sector de nuestra Web. 2.- Definamos el concepto de popularidad como:
  • 27. El "índice de popularidad" es la suma del número de páginas que nos apuntan por el índice de popularidad de cada una de ellas. La popularidad es lo conocida que es nuestra marca en Internet. Es el número de links que apuntan a nuestra página. 3.- ¿Qué es la relevancia? Es el número de veces que el término de búsqueda aparece en el contenido. Es la importancia de nuestra Web en los buscadores. La relevancia mide la distancia entre el comienzo del area y el lugar donde aparece la palabra clave. 4.- ¿Es importante la edad de un dominio? Sí, es interesante adquirir un dominio antiguo. Sí es importante aunque hay que comprobar que no se haya reseteado la edad y haya perdido toda la antigüedad. No. 5.- Definamos recuento como: Es la cuenta el total de palabras en un área excluyendo las etiquetas HTML. Total de veces que sale nuestra Web en un buscador y en directorio. Total de veces que sale nuestra Web en un buscador. 6.- ¿Es lo mismo el dominio y la URL? Ambas respuestas son correctas. El dominio es uno de los elementos más importantes de un sitio Web. El dominio es parte de la composición de la URL. 7.- ¿Cómo elegir una Keywords? Según el tema principal de nuestra Web, por como los usuarios nos buscarían en nuestra Web. En función del sector de la empresa. Por las palabras los usuarios nos relacionan. 8.- ¿Qué es la Frecuencia? Es el número de veces que búscan nuestra Web en Google. Número de veces que sale nuestra Web en un buscador. Es el número de veces que el término de búsqueda aparece en el área del contenido de nuestra Web. 9.- ¿Qué es el peso? El peso es el total de Kilobytes que pesa mi Web. El peso es el porcentaje que el término de búsqueda representa sobre el total de palabras en la página o el área analizados. El peso se mide en función de cada Web y tiene que ver con las palabras claves.
  • 28. Herramientas de optimización y evaluación En esta lección, trataremos de conocerlas herramientas necesarias para conseguir el mejor posicionamiento de nuestra Web. Primer paso Herramientas de analítica Web Práctica: Análisis de una Web Primer paso Para conocer el posicionamiento SEO desde un punto de vista analítico podemos recurrir a una serie de herramientas que nos proporcionarán la información precisa necesaria. Antes de pasar a ver algunas de las aplicaciones más conocidas y útiles vamos a hacer un glosario de términos. Ranking: Google PageRank (PR): Google ofrece una herramienta denominada “Page Rank”, un valor numérico con el que se representa la importancia que una página Web tiene en Internet. Este valor, mediante un análisis constante, sirve de referencia para determinar la posición de un site dentro de los resultados de búsqueda. Cuanto mayor es el PR mayor es la importancia de nuestro site. Technorati: es un motor de búsqueda de Internet para buscar blogs. Esta aplicación utiliza y contribuye al software de código abierto mediante una comunidad de desarrolladores activa, a la que pertenecen muchos desarrolladores de la cultura del software libre. Visite este enlace y recibirá más información acerque de lo que es un motor de búsqueda : http://es.wikipedia.org/wiki/Motor_de_b%C3%BAsqueda Si desea ampliar la información acerca del termino código abierto o software libre: http://es.wikipedia.org/wiki/Open_source Alexa: Alexa es una Web de www.amazon.com, que ofrece información acerca de la cantidad de visitas que recibe un sitio Web. Ofrece unos datos fiables y objetivos, por lo que su consulta es imprescindible a la hora de realizar el seguimiento de visitantes de un site.
  • 29. Si desea instalar la barra de herramientas de Alexa: http://www.alexa.com/site/download DMOZ:. También conocido como Open Directory Project (ODP), es un proyecto colaborativo en el que editores voluntarios categorizan enlaces a páginas Web. El directorio de Google está basado en el DMOZ, al cual añade la ordenación según el page rank de cada página categorizada. Si desea más información de este directorio: http://www.dmoz.org/World/Espa%C3%B1ol/ Index pages: Este valor indica la cantidad de links o enlaces propios que una Web tiene en buscadores (links internos que van a otras secciones de la Web). Backlinks: son los enlaces que recibe una determinada Web desde otras páginas. Keywords: palabra clave o palabra que resume los contenidos de una Web. Son las palabras que esperamos que los usuarios de buscadores usen para sus consultas. W3C: son las siglas del World Wide Web Consortium,asociación que establece estándares para las principales tecnologías sobre las que se basa Internet. Que un site cumpla las normas del W3C va a significar una mejora sustancial en la eficiencia de su funcionamiento, y ello contribuye a la mejora en su posicionamiento en buscadores. RSS: Real Sindicate System: Herramientas de analítica Web WebCEO Para las empresas o particulares que cuentan con una Web, WebCEO es una utilidad que te permite hacer conocer los puestos que ocupas en motores de búsqueda y analizar el tráfico y las visitas a la Web a fin de optimizar el contenido y diseño del sitio. Incorpora herramientas especializadas en marketing de motores de búsqueda, análisis inteligente de tráfico Web, y mantenimiento óptimo del sitio Web.
  • 30. El programa te ayuda a encontrar las mejores palabras clave para búsquedas efectivas de tu página, optimizar su contenido para alcanzar los mejores puestos en los motores de búsqueda (además de realizar envíos masivos de tu URL a los mismos y comprobar periódicamente tu clasificación) o analizar al detalle las visitas producidas en tu Web, entre otras cosas. De esta manera podrás tener una idea exacta de cómo promocionar tu página de la mejor forma, qué buscan tus clientes y qué es lo que menos les gusta, y cómo adaptar los servicios que ofreces a las necesidades y demandas de tus visitas. El programa también incluye un módulo que te permite modificar ficheros HTML y subirlos al servidor FTP directamente desde WebCEO. Para conocer más acerca de Web CEO o descargarlo: http://www.webceo.com/ Analytics, una herramientas imprescindible para nuestro site Google pone a la disposición de webmasters una herramienta para empresas que proporciona información sobre el tráfico del sitio Web desde distintos puntos de vista: patrones de comportamientos, segmentación, horarios, páginas que visitan. Ofrece una serie de funciones potentes, flexibles y fáciles de usar con las que analizar su tráfico y mejorar sus campañas de marketing. Web Analytics busca comprender lo que sucede en un sitio web usando técnicas de análisis de datos. Nos permite desde medir el tráfico de una web de manera muy general o de manera especifica hasta los niveles de análisis más complejos. Analytis es una herramienta muy eficaz para reorientar la optimización del posicionamiento del site: Permite analizar las palabras clave por las que los usuarios más nos visitan, aportando esto un flujo de información que nos permitirá verificar si estos usuarios encuentran lo que buscan o no en la web. Muestra patrones de navegación y reebote de las páginas, que páginas son las más visitadas y con que páginas los usuarios abandonan. Nos genera listados de palabras clave, que podemos analizar en el contenido. Analytics también nos permite establecer Indicadores Clave de desempeño (KPI – Key Performance Indicators), que nos serán ultimes para medir el logro de los objetivos y metas del proyecto o
  • 31. negocio: Estos indicadores pueden ser: Indicadores Básicos: indicandonos el número de visitas, usuarios únicos, páginas vistas, origen,… Indicadores Avanzados: Mostrando el porcentaje de abandono, páginas vistas por visita, porcentaje de conversión, valor de objetivo por vista,.. Indicadores de Comercio electrónico: en cuantro a producto, servicio o información.Nos mostraran información de la lealtad de nustros usuarios, porcentaje de visitas nuevas, palabras clave, porcentaje de conversión... Cómo Instalar Google Analytics: 1. Vaya a http://www.google.com/analytics/ 2. Haga clic en registrate ahora mismo. 3. Podrá acceder a su cuenta de analytics si dispone de una cuenta de Google. Introduzca sus datos y accederá al panel de control del analytics.
  • 32. Haga clic en añadir sitio Web e itroduzca la Url de la web.
  • 33. Pulse Finalizar. Automáticamente le mostrará un código, que deberá introducir en el pie de la página Web. Vuelva a su cuenta de Google analytics y hagaz clic en Finalizar. Hay que tener en cuenta, que analytics es una fuente fiable de información a cerca de una web, aunque no debemos olvidar que existen algunas razones por las que no debemos de olvidar otras herramientas importantes para el SEO. La primera de estas razones es que Analytics sólo registra la información en los navegadores que ejecutan javascript. Esto proporciona información de calidad acerca de las tendencias del usuarios, pero no detecta los comportamientos que los robots o arañas de los buscadores hacen en una web, y esto para el posicionamiento es vital. En segundo lugar, si solo confiamos en una fuente de datos, podemos caer en el error de nos darnos cuenta de otros datos significativos que no aparecen en esta herramienta, por lo que es de vital importancia tener siempre al alcance varios métodos de análisis SEO que proporcione información diversa. Si desea conocer más acerca de analytics: http://www.google.com/analytics/tour.html Xinu Returns Xinu Returns es una completa herramienta on-line que proporciona de manera resumida toda clase de información técnica sobre un sitio Web y/o dominio que le indiquemos. Es ideal para un análisis rápido SEO ya que podrás conocer sin dificultad elementos relevantes para el posicionamiento como
  • 34. PageRank, Alexa Rank, enlaces entrantes, etc. que posee cualquier Web. Si desea ampliar la información acerca de esta herramientas: http://elgeek.com/xinu-returns-informacion-sobre-sitios-webs Xinu Returns realmente brinda mucha información, entre la que podemos mencionar: Ranking de la página en Google, Technorati, Alexa y DMOZ. Imagen de captura de la página Web. Estado del dominio (IP, autor, país…). Información sobre los subscriptores de la página (Sindicación). Validación de la página con los principales estándares (XHTML, CSS, RSS). Número de páginas indexadas en los buscadores de Google, Google Images, Yahoo! y Live. En este enlace podrá ver toda la información acerca de su Web: http://xinureturns.com/ Práctica: Análisis de una Web Práctica: Análisis de una Web Utilizaremos una herramienta fácil y eficaz que nos dará los elementos más relevantes. Acceda a la dirección: http://www.sitetrail.com/xinureturns.com
  • 35. Dentro de Xinu, introduca la URL: www.mundoanimalia.com Ahora resalte los elementos más importantes para el posicionamiento de una Web: 1. Google Page Rank (PR) 2. Tecnorati 3. Alexa 4. Dmoz 5. Index pages 6. Back links 7. Keywords 8. W3C 9. Rss ¿Dirías, con lo que has aprendido en esta lección, que esta página esta bien posicionada?
  • 36. 1.- ¿Qué es el Google Page Rank y para qué sirve? El Page Rank es un valor numérico que Google atribuye a nuestra Web y que servirá de referencia para determinar la posición de un site dentro de los resultados de búsqueda. Ambas respuestas son correctas. El Page Rank es una herramienta de Google. 2.- ¿Alexa es un contador de visitas de nuestro site? Ambas respuestas son correctas. Sí, ofrece unos datos fiables y objetivos, es imprescindible a la hora de realizar el seguimiento de visitantes de un sitio. No. 3.- ¿Existe alguna herramienta que nos proporcione información técnica y SEO acerca de un sitio Web? Sí, Xinu Returns. Ninguna de las respuestas es correcta. No 4.- ¿Es importante saber más sobre las visitas que recibimos en nuestra Web? Sí, con Google analytics podremos analizar su tráfico y mejorar nuestras campañas de marketing. Sí, con Google analytics obtenemos información acerca de nuestras visitas y adaptaremos nuestro sitio en función a la demanda, analizando el tráfico y pudiendo mejorar la campaña de marketing. No. 5.- ¿Es importantes darse de alta de DMOZ? No, ya que es un directorio. Sí, porque añade la ordenación según el page rank de cada página categorizada. Sí, el directorio Dmoz se basa en los resultados de búsqueda de Google.
  • 37. 1.- ¿Qué es el Google Page Rank y para qué sirve? El Page Rank es un valor numérico que Google atribuye a nuestra Web y que servirá de referencia para determinar la posición de un site dentro de los resultados de búsqueda. Ambas respuestas son correctas. El Page Rank es una herramienta de Google. 2.- ¿Alexa es un contador de visitas de nuestro site? Ambas respuestas son correctas. Sí, ofrece unos datos fiables y objetivos, es imprescindible a la hora de realizar el seguimiento de visitantes de un sitio. No. 3.- ¿Existe alguna herramienta que nos proporcione información técnica y SEO acerca de un sitio Web? Sí, Xinu Returns. Ninguna de las respuestas es correcta. No 4.- ¿Es importante saber más sobre las visitas que recibimos en nuestra Web? Sí, con Google analytics podremos analizar su tráfico y mejorar nuestras campañas de marketing. Sí, con Google analytics obtenemos información acerca de nuestras visitas y adaptaremos nuestro sitio en función a la demanda, analizando el tráfico y pudiendo mejorar la campaña de marketing. No. 5.- ¿Es importantes darse de alta de DMOZ? No, ya que es un directorio. Sí, porque añade la ordenación según el page rank de cada página categorizada. Sí, el directorio Dmoz se basa en los resultados de búsqueda de Google.
  • 38. Optimiza el diseño y la programación de su Web La optimización de una Web se basa en unos algoritmos que cambian y se perfeccionan constantemente. Sin embargo existen una serie de prácticas comprobadas a lo largo de los últimos dos años. Los mecanismos algorítmicos que yacen bajo ellas se caracterizan por permanecer estables a lo largo del tiempo. Son conocidas como "los mandamientos" y reconocidas como parte del "core" del algoritmo común a todos los buscadores por ingenieros y matemáticos de los principales motores en las cada vez más conferencias y encuentros internacionales entre hackers y diseñadores de buscadores en los que cada vez más se prodiga la comunidad de expertos ("hacker" =experto informático). Rastreo de un sitio Web Elementos On-Page Robots, nofollows y otros Mapa del sitio URL amigable Linking interno Programación en CSS Práctica: Analisis de una Web según criterios de SEO Rastreo de un sitio Web Uno de los aspectos más importantes a tener en cuenta a la hora de posicionar un sitio Web es conocer los criterios que utiliza el Robot o crawler del motor de búsqueda en relación con las diferentes partes del documento HTML. A continuación vamos a definir la estructura típica de un documento HTML y seguidamente veremos cómo ésta puede afectar a su posicionamiento. Esta es la típica estructura de un documento HTML: <HTML> <HEAD>
  • 39. <!-- información de cabecera utilizada para contener información adicional acerca de este documento, y que no se muestra en pantalla --> </HEAD> <BODY> <!-- todo el HTML a visualizar --> :: :: :: </BODY> </HTML> Elementos On-Page Llamaremos elementos On Page a los que dependen directamente de la aplicación en nuestra Web. Estos factores normalmente se aplican por técnicos de las Web, aunque es necesario conocerlos cuando se trabajan o se plantean nuevas categorías dentro de la Web. Como hemos comentado anteriormente, los crawlers o robots de los buscadores dan la importancia que se merecen a los elementos HTML que encontraremos dentro del código de nuestro sitio Web. Eso implica una gran concordancia entre estos elementos y las Keywords relevantes en nuestro sector. A. Información de la cabecera El primer elemento de un documento es la etiqueta <HEAD>, es decir, la cabecera del documento. En esta etiqueta se encuentra toda la información que va a describir las características del documento: título, descripción, palabras clave, Copyright, autor... En el área del header encontraremos algunos elementos que a continuación analizaremos en profundidad: - Título de máximo 5 palabras en el que la primera sea tu palabra clave objetivo. - Metatag de descripción igual al título. - Metatag de palabras clave con las mismas 5 palabras separadas por comas.
  • 40. B. Área del título <TITLE>: Esta etiqueta transmite al robot el título de la página, por lo que se deben incluir en éste las palabras clave por las que queremos que nuestro sitio sea encontrado. La extensión del título no debe superar los 75 caracteres. A continuación mostraremos donde se ubica el titulo en una web: Área de metainformación Es la encuadrada dentro de las etiquetas <META>. Esta es una etiqueta genérica de información adicional, tuvo su época dorada cuando Altavista lideraba el mundo de los buscadores, aunque ahora ha perdido parte de su relevancia. Su sintaxis es <META NAME="nombre del atributo" CONTENT="variables o directrices"> Los principales atributos del Área de Metainformación son los siguientes: DESCRIPTION: Es la descripción de lo contenido en el documento. En ella se ha de reflejar en pocas frases, la síntesis de todo el documento, toda la información. KEYWORDS: son las palabras clave. Facilitan al buscador información del documento, indicándole las palabras más importantes por las que quiere ser encontrado en un buscador.
  • 41. En este enlace podrá ver las Keywords de si Web: http://www.webconfs.com/website-keyword-suggestions.php Ejemplo de una etiqueta "keywords" de la página http://www.ienrformacion.es/ <META NAME="Keywords" CONTENT="Formación, Formacion barcelona, Formación Bcn, Formación subvencionada Barcelona, Formación Subvencionada, subvenciones catalunya , cataluña, barcelona subvenciones, cursos gratis barcelona, cursos, cursos barcelona, IenR formación, grupo IenR, Formación técnica, formación jlg, habilidades directivas, conocimientos sectoriales, ofimática, RRHH y management, Idiomas, Contabilidad y finanzas, Productividad, Técnica, Procesos de selección, prevención y riesgos de salud laboral, Conocimientos sectoriales, Posicionamiento Google"> Siguiendo con el ejemplo donde hemos visto la descripción que nos muestran los buscadores en sus resultados, comprobaremos que efectivamente en el código fuente de la página se ve el mismo contenido. Podremos ver tambien, las Meta Keywords y las Meta decriptions: 1. Abra el navegador Firefox y teclee la Url www.pelotazo.com y presione Intro. 2. Una vez en la página Web, vaya a la barra del navegador pestaña Ver, y haga clic en Código fuente de la página. Abrimos la página, visualizando el código completo, fijémonos en el código de la cabecera.
  • 42. El DOCTYPE: es la explicación de que tipo de código HTML / XHTML vas a encontrar en el sitio. Con esto ayudas al navegador a que muestre el sitio de una forma correcta. Es un elemento obligatorio en los sitios Web. Además puede llegar a indicar si un sitio está pensado para verse en un tipo de plataforma u otro (como por ejemplo el especificar el formato XHTML para móviles). STYLESHEET: indica la dirección URL del CSS (Hojas de Estilo). Este parámetro es opcional, aunque se recomienda hacer uso de CSS. LINK ALTERNATE: indica la dirección XML del feed (sindicación de contenidos). Este parámetro es opcional, aunque si la página dispone de noticias o información actualizada se recomienda hacer uso del mismo ya que ayudará a los buscadores específicos de blogs. En principio todos estos son suficientes para que la cabecera del sitio sea lo más estándar para los robots de búsqueda, navegadores y usuarios. Gran parte de estos elementos son los que aparecen en los resultados de búsqueda (título, descripción…) y que hay que tenerlos muy estudiados ya que son los que los usuarios encuentran. C. Información del cuerpo de la página La otra parte del documento queda encuadrada en lo que se denomina el cuerpo de la página Web, (todo lo que está entre <BODY> y </BODY>. Dentro de esta estructura aparecerán todos los elementos visibles por el usuario fotos, texto, animaciones... Área del cuerpo o contenido La disposición de los elementos HTML y el contenido dentro de la página es relevante para los robots. Un texto ubicado al principio del código fuente HTML es más relevante que un texto que aparece el pie del mismo. Es importante aclarar, que, cuando hablamos de código HTML no estamos
  • 43. hablando de algo perceptible para nuestros usuarios, como hemos visto anteriormente. Esta disposición es muy importante para la correcta indexación de nuestros contenidos, este código de alguna manera también ha de ir limpio y con la disposición correcta de los elementos que a continuación explicaremos como (hojas de estilo CSS, H1, negritas….). El texto del documento, que como hemos dicho va incluido en el "body", puede jerarquizarse (aunque la mayoría de diseñadores lo consideren "anticuado", los robots no). La manera óptima de especificar dicha jerarquía es mediante las etiquetas <H1>, <H2>, <H3>, <H4>, <H5> y <H6>. Al conjunto de texto incluido dentro de estas etiquetas les llamaremos "Área de Cabeceras" (del inglés "header"). Como hemos comentado, el contenido de los titles, metas y el resto de etiquetas que hemos nombrado y que veremos a continuación han de aparecer destacas en el código fuente de la página así, como en los diferentes puntos de la web. En este caso, el title de la página es el nombre en concreto del perro: Airedale Terrier – Perros. El title que además corresponde con el H1 de la página, le indica al robot que esta es el elemento más importante de la página y que el contenido que va a encontrar en ella se refiere a eso.
  • 44. A partir de aquí encontramos numerosas palabras en negrita, correspondientes al nombre del perro. Con esto de indicamos al crawler la relevancia de esta palabra en concreto. Encontramos otras etiquetas como el H2 que un contenido no tan relevante como : ellos lo son, remarcado también en la imagen. Algunas especificaciones a tener en cuenta: Empieza y termina la página (tal como la lee el boot) con un texto que describa en 5 palabras tu Web. La primera de ellas tiene que ser tu palabra clave. No abuses de las imágenes ni del texto alternativo de estas. Pon como texto alternativo de la primera de ellas en orden de lectura en el código tu palabra clave. Usar etiquetas <H1>. Algunos buscadores como Google no sólo miden el área de cabecera sino que distingue entre sus distintas jerarquías. Incluye también el término de búsqueda como primera palabra del primer texto hiperenlazado de tu página. Otros buscadores, como Google, consideran el área de negritas y los tamaños de letra. Destacar tus palabras clave en negrita en el texto e incluso en un tamaño de letra mayor que el resto ayuda. Utiliza ampliamente la palabra clave en el texto "normal de tu página" sobre todo en su tercio superior, aunque tampoco abuses (por ejemplo no lo uses varias veces en una fila de tabla). La proporción entre código y texto cuenta. Aunque se discute si directamente o por el efecto sobre otras variables, abusar de las líneas de código javascript o crear páginas intermedias de cookies o redirecciones consigue dañar seriamente el posicionamiento de tu página. Google también puntúa las URLs. Ayuda tener un dominio que incluyan tu palabra clave; recuerda que no separa las palabras, por ejemplo el dominio www.saludytecnologia.com no aporta nada al posicionamiento con la palabra "salud" aunque www.salud-ytecnologia.com si. Sin embargo, los subdominios o directorios en la palabra clave también ayudan como sería www.saludytecnologia.com/salud). Texto alternativo Es el texto que se asocia a la imagen mediante el atributo ALT de la etiqueta <IMG SRC>. Es una de las áreas más sensibles y menos cuidadas por los diseñadores que no siguen los estándares de usabilidad.
  • 45. <img title="Armario del siglo XIX con un estilo contemporáneo" src=”http://misitio.ext/imagen/armario-XIX-contenporaneo.gif” alt=”armario siglo XIX contemporáneo” /> http://www.marketingconsulting.es/ Texto hiper enlazado Es el conjunto de texto de la página que aparece entre etiquetas <a href="URL"> y </a> Área de comentarios Aún existen un par de buscadores que analizan el código de los comentarios que, de modo invisible para los usuarios, los programadores colocan para otros programadores dentro del código. La etiqueta de comentarios sigue el siguiente formato: <!-- Texto del comentario --> Etiquetado <p> - usada para distinguir lo diferentes párrafos. Acostumbra a usarse para definir o explicar conceptos importantes. Se trata de una etiqueta usada en webs muy concretas (por ejemplo diccionarios online o glosarios profesionales) ya que causa espacios en blanco en algunos navegadores, especialmente FireFox. <strong> - destaca una palabra clave al poner el texto en negrita. Hay la variante <b>, pero que no es aconsejada por el W3C. Otras etiquetas <abbr> - indica que el texto es una abreviatura (WWW, HTTP, URI…). <acronym> - indica que el texto es un acrónimo (WAC…).
  • 46. <address> - indica una dirección postal. <big> - marca que el texto ha de tener un tamaño mayor. <blockquote> - se utiliza de forma muy similar al <cite>. <cite> - contiene una cita o referencia de otro texto. <code> - indica que el texto es un fragmento de código informático. <del> - marca que el texto ya no tiene valor. Suele acompañar a <ins>. <dfn> - marca la definición de una palabra o frase. <em> - es la etiqueta para indicar énfasis en un texto (cursiva). Se puede usar también <i>. <i> - es la etiqueta para indicar énfasis en un texto (cursiva). Se puede usar también <em>. <ins> - marca que el texto es nuevo con respecto al original. Suele acompañar a <del>. <kbd> - indica texto que el usuario debe introducir en su ordenador. <pre> - para mostrar texto sin formato. <q> - muy similar a <cite>, pero para fragmentos muy cortos (normalmente en una misma línea). <samp> - código que daría un ordenador. <small> - marca que el texto ha de tener un tamaño menor. <sub> - indica que el texto está por debajo del normal. <sup> - indica que el texto está por encima del normal. <tt> - marca que el contenido tiene formato teletipo. <var> - marca el texto como si fuera una variable. Robots, nofollows y otros A parte de la navegación natural que un crawler puede hacer en nuestro sitio Web, disponemos de herramientas para especificarle que queremos que indexe y que no. Robots.txt El robots.txt es un archivo de texto plano en el que podemos especificar diferentes instrucciones a los crawlers de los buscadores:
  • 47. Ejemplo: Para identificar a los crawlers usaremos el User-agent: * User-agent: * Disallow: /view_content.cfm (No permite el acceso a la pagina content.cfm) Disallow: /view_content.cfm?* (no permite el acceso a las paginas content.cfm seguidas de cualquier parámetro – (view_content.cfm?param1=value1)) NowFollow En el mismo sentido, nuestra Web contendrá enlaces por lo que si no queremos que los robots los indexen habrá que aplicar un NowFollow a un enlace, basta con añadir al código del mismo una relación “now follow” (rel=nofollow). Para destacar los enlaces con nowfollow existe una aplicación de firefox que podréis encontrar en el siguiente enlace: http://www.quirk.biz/searchstatus/ A continuación mostramos los enlaces que no indexan:
  • 48. Mapa del sitio El mapa del sitio es una lista de vínculos a las diferentes páginas de la propia Web. De esta manera, la página ayuda a los buscadores para que encuentren dónde está situado cada contenido. Para facilitar el trabajo a los robots: Archivo “sitemap”: es un archivo XML con una estructura específica que facilita a los crawlers información sobre el contenido que tenemos y con que periodicidad se actualiza. Así, se generará el archivo XML llamado sitemap.xml y se insertará en el directorio raíz. Ejemplo: www.apple.com/es/sitemap URL amigable Podríamos hacer una clasificación simple de dos tipos de direcciones Web: las que llevan “identificadores” y las que no. Llamemos URL amigable a aquella que se estructura mediante identificadores en el texto que nos permiten saber de que se trata la Web. Vea que URL es amigable y cuál no: Linking interno Entendemos por Linking interno el conjunto de enlaces que apuntamos a nuestro site, desde el mismo. Anteriormente, hemos visto que es importante ofrecer a los robots enlaces con los que acceder a toda la información que queremos indexar, para ello es imprescindible estructurar un sistema de Linking interno que facilite la navegación a través de nuestro sitio. Una buena estrategia de Linking interno generará flujo natural del crawler a través de nuestro sitio y potenciará la indexación. Las claves para generar un buen Linking interno son: Enlazar con buenos anchor text* (optimizados y coherentes con las Keywords de nuestro sector así como, con el contenido que mostramos). Hacer un buen uso de los Now follow, para priorizar unos enlaces frente a otros. Crear enlaces con rutas absolutas.
  • 49. Intentar contextualizar enlaces: crear enlaces en medio de un texto. En la imagen que se puede ver a continuación, vemos los links internos remarcados. Como se puede apreciar muchos de estos links están contextualizados con Keywords. Esto fomenta por un lado, la densidad de palabras clave y por otro la navegación tanto del usuario como del crawler. En este articulo de la Wikipedia podemos ver varios anchor contextualizados, por ejemplo, Harry Potter.
  • 50. * Un anchor text es el texto o palabra con la que hacemos un link. Programación en CSS Las tablas existen desde el comienzo en HTML, pero no se crearon para diseñar un sitio, sino para la presentación de datos tabulares. La utilización de “border=0” y las imágenes transparentes hicieron posible crear una rejilla que permitió a los diseñadores organizar textos e imágenes, establecer tamaños y ubicar objetos. Pero esto es sencillamente incorrecto. Las tablas no se crearon para maquetar y no deben utilizarse para eso, porque de esta forma se mezclan presentación y contenido, y lo que es importante, este es el factor principal por el cual los robots de buscadores no leen bien las webs con tablas. La solución es clara: CSS+HTML. Algunas de las ventajas de la maquetación con CSS: Separación de forma y contenido. Generalmente CSS y HTML se encuentran en archivos separados, lo que facilita el trabajo en equipo porque diseñador y programador pueden trabajar independientemente. Por otro lado, permite el acceso a distintos navegadores y dispositivos. Tráfico en el servidor. Las páginas pueden reducir su tamaño entre un 40% y un 60%, y los navegadores guardan la hoja de estilos en la caché, esto reduce los costos de envío de información. Tiempos de carga. Por la gran reducción en el peso de las páginas, mejora la experiencia del usuario, que valora de un sitio el menor tiempo en la descarga. Precisión. La utilización de CSS permite un control mucho mayor sobre el diseño, especificando exactamente la ubicación y tamaño de los elementos en la página. También se pueden emplear medidas relativas o variables para que la pantalla o la caja contenedora se acomode a su contenido. Mantenimiento. Reduce notablemente el tiempo de mantenimiento cuando es necesario introducir un cambio porque se modifica un solo archivo, el de la presentación, sin tener que tocar las páginas que contienen la estructura con el contenido. Diseño unificado y flexibilidad. Es posible cambiar completa o parcialmente el aspecto de un sitio con sólo modificar la hoja de estilos. Por otro lado, el tener el estilo de una Web en un solo archivo permite mantener la misma apariencia en todas las páginas. Posicionamiento. Las páginas diseñadas con CSS tienen un código más limpio porque no llevan diseño, sólo contenido. Esto es semánticamente más correcto y la página aparecerá mejor posicionada en los buscadores. Google navega obviando el diseño. Práctica: Análisis de una Web según criterios de SEO Práctica: Análisis de una Web según criterios de SEO
  • 51. Analizarremos si la Web mundo animalia esta optimizada para SEO según los siguientes criterios: ¿Dispone de todos los elementos en el header? Abra el navegador e introducir en el campo de la URL: www.mundoanimalia.com Una vez abierta la página en el navegador, vaya a la pestaña Ver > Código fuente de la página. A continuación se abrirá en otra ventana el código fuente de la página. Enmarque los siguientes ítems: META NAME- META DESCRIPTION Comprobará que no dispone de todos los elementos en el header, falta Title. Pero eso, siempre dependerá de cada página. Haga el mismo proceso, con algunas páginas que visite a menudo y vea, que entre ellas existen muchas direncias en el código.
  • 52. 1.- ¿Influye el tiempo de carga de nuestra Web en el posicionamiento? No. Sí, la optimización de nuestra Web para un buscador viene determinada por factores como el tiempo de carga del sitio. Si, porque mejora la experiencia del usuario. 2.- ¿Qué es una URL amigable? La Web recomendada por un amigo. Es aquella que se estructura mediante identificadores en el texto que nos permiten saber de que se trata la Web. Las Web que ponemos en nuestros Favoritos. 3.- ¿Cuáles son los elementos más importantes para un robot? La estructura del cuerpo, área de la cabecera, los textos alternativos, las negritas, los H1, h2,…. La cabecera donde se describen las características del documento. Ambas respuestas son correctas. 4.- ¿Qué es un crawler, spider o robot? Ambas respuestas son correctas. Ninguno de estos conceptos tiene el mismo significado. Un Crawler, spider o robot son los nombres comunes para llamar los analizadores de Web que usan los buscadores para analizar Web. 5.- ¿Tiene nuestra Web que estar programada en CSS? Sí, es importante que nuestra Web se programe mediante tablas y javascript. Sí, el recomendable programar mediante CSS, ya que nos permitirá separar la forma del contenido, disminuir los tiempos de carga de la web, reducir los costes de mantenimiento y mejorar el posicionamiento. No, dependerá del programador.
  • 53. 1.- ¿Influye el tiempo de carga de nuestra Web en el posicionamiento? No. Sí, la optimización de nuestra Web para un buscador viene determinada por factores como el tiempo de carga del sitio. Si, porque mejora la experiencia del usuario. 2.- ¿Qué es una URL amigable? La Web recomendada por un amigo. Es aquella que se estructura mediante identificadores en el texto que nos permiten saber de que se trata la Web. Las Web que ponemos en nuestros Favoritos. 3.- ¿Cuáles son los elementos más importantes para un robot? La estructura del cuerpo, área de la cabecera, los textos alternativos, las negritas, los H1, h2,…. La cabecera donde se describen las características del documento. Ambas respuestas son correctas. 4.- ¿Qué es un crawler, spider o robot? Ambas respuestas son correctas. Ninguno de estos conceptos tiene el mismo significado. Un Crawler, spider o robot son los nombres comunes para llamar los analizadores de Web que usan los buscadores para analizar Web. 5.- ¿Tiene nuestra Web que estar programada en CSS? Sí, es importante que nuestra Web se programe mediante tablas y javascript. Sí, el recomendable programar mediante CSS, ya que nos permitirá separar la forma del contenido, disminuir los tiempos de carga de la web, reducir los costes de mantenimiento y mejorar el posicionamiento. No, dependerá del programador.
  • 54. Los contenidos de su Web Los contenidos de una Web se deben preparar dándole forma según el código HTML y destacando, en todo caso las Keywords de forma correcta. Contenidos Elementos externos - link building Elementos no reconocidos en el contenido Lo que no hay que hacer El efecto Sandbox Optimización para varios buscadores Práctica: Posicionamiento de un texto en la Web Contenidos La clave para una buena indexación son los contenidos: contenidos de calidad y optimizados para las Keywords que queramos posicionar y que sean relevantes en nuestro sector. Los contenidos de una Web se deben preparar dándole forma según el código HTML y destacando, en todo caso las Keywords de forma correcta. Es bueno, que en toda nuestra Web repitamos de forma constante las Keywords de interés, sin caer en lo absurdo. Es muy importante que la repetición de estas palabras se vea como algo natural y no como algo forzado o preparado para los robots, ya que de ser así, podemos ser penalizados por sobrecargar la página. Si realizamos contenido de calidad o interés fácilmente recibiremos enlaces de otras webs, que nos ayudaran a mejorar el posicionamiento. *La densidad de palabra para la Keywords Nero 9 en el texto extrado de Softonic es elevada, sin llegar a ser forzada.
  • 55. En el caso de los textos suplementarios en la Web, serian igualmente óptimos si no llevaras esas palabras clave, aun así, reforzaremos la densidad si los incluimos. Vemos también en la misma página que existen etiquetas optimizadas en otros apartados del site:
  • 56. Contenidos especiales: imágenes Cada vez más, las imágenes son una fuente importante de tráfico para las Web. Para posicionar correctamente nuestras imágenes es necesario facilitar su lectura y comprensión o interpretación por parte de los crawlers, por lo que deberemos: Incluir los textos alternativos en las imágenes, que describan la imagen sin sobrecargarlo de palabras clave de forma innecesaria (atributo “Alt”). Usar las palabras clave en el texto que colinda en el HTML con la imagen. Usar la Keywords en el nombre de la imagen, o en la ruta hacia la misma. Igual que en el contenido del texto, es importante usar imágenes de calidad que harán que se vea más claro para el crawler en su listado de imágenes. Las imágenes deberían ser propias para evitar la duplicidad de contenido, y si usamos imágenes de otros sitios es importante alterarlas con marcas de agua, redimensionándolas o recortándolas para evitar que se consideran duplicadas. Es bueno enlazar las imágenes pequeñas, con imágenes mayores y de mejor resolución.
  • 57. Elementos externos - link building El link building es la estrategia previamente planificada para conseguir enlaces que nos permitan posicionar nuestras páginas en los buscadores. Por lo tanto, se trata de conseguir cuantos más enlaces mejor y de la mayor calidad posible. Los enlaces no son el fin, son el medio para aparecer en lo alto de los buscadores. El link building es el mecanismo de conseguir enlaces de forma artificial pero simulando que lo hemos hecho de forma natural. Una vez que tenemos preparado nuestro sitio perfectamente optimizado hay que empezar con el trabajo de conseguir enlaces. El link Building es útil para absolutamente cualquier Web de Internet que pretenda recibir tráfico de los buscadores, aunque es especialmente necesario para webs comerciales que venden productos y que difícilmente recibirán enlaces. Éste es uno de los motivos del éxito de los blogs: los blogs, como veremos más adelante, son un herramienta excepcional para generar enlaces. Claves para conseguir enlaces: 1. Qué y cuántos enlaces necesito - hay que tener claro qué términos queremos posicionar, qué tipo de enlaces necesitamos, cuántos enlaces y en cuánto tiempo. En el caso de la mayoría de webs la respuesta es sencilla: cuantos más mejor, siempre que sean naturales. 2. Cómo conseguir enlaces - una vez que sabemos lo que queremos, hay que plantear las estrategias. Estudiaremos los tipos de técnicas y mecanismos para conseguir enlaces. 3. Tiempo - un buen enlace apunte a nuestra Web, con las palabras adecuadas y a donde queremos, no significa que automáticamente nuestro contenido suba. Es un proceso largo. Los enlaces son más importantes por su antigüedad que por su PageRank. Las actualizaciones de Google suelen ser cada tres meses. Si el sitio es nuevo, hay que mantenerse acumulando buenos enlaces durante meses para ver resultados. No se preocupe si va consiguiendo enlaces pero no ve resultados. Llega un punto en que de repente, tu duro trabajo durante meses da resultado, Google empieza a mandarte miles de visitas. Imagínate la alegría. Pero para eso hay que trabajar duro y bien. Páginas que poseen listado de directorios atractivos para construir popularidad Web:
  • 58. www.xeoweb.com/foro/tema-1104.html www.forobuscadores.com/recursos/index.php?m=c&c=7 www.directory-pages.com/tier2.htm www.directoryarchives.com/index.php www.isedb.com/ www.goguides.org/ www.strongestlinks.com/directories.php Técnicas para el Link Building Link Baiting - Es la estrella del link building. Es la forma más efectiva, la mejor valorada por los buscadores, absolutamente legal y la más recomendable. Por desgracia, también es muy difícil de conseguir. Solo recibirás cientos de enlaces a tu Web si ésta aporta algo absolutamente de valor. Consiste en conseguir muchos enlaces en muy poco espacio de tiempo (dos o tres días). Se consigue sobretodo por sitios como Menéame (http://meneame.net), en los que un enlace que aparezca allí hace que llegue mucho tráfico, y por ello otra gente enlace a tu sitio Web porque le resulte Autoenlaces - buena parte de los enlaces que apuntan a cualquiera de las páginas con las que competimos son enlaces internos: secciones y páginas de la misma Web que apuntan a la principal del dominio. No se trata de un error. La popularidad también sirve para premiar a las webs con muchos contenidos... que sepan organizarlos bien. Es recomendable dar enlace a todas las novedades en la página principal, así como a las cabeceras de sección, dónde a su vez, deberíamos poder dar un acceso directo a todos los contenidos del tema. La plantilla del sitio también debe estar pensada desde esta lógica: que desde cualquier página del sitio pueda irse con un sólo clic a la cabecera de otra sección. Que nada quede a más de dos clicks de nada. Otra recomendación importante en este sentido es que el texto hiperenlazado que remite a una sección, así como el nombre del subdirectorio en que se guarda la sección, incluyan el título de una palabra clave secundaria interesante. Directorios - No hay que subestimar los directorios. Aparecer en directorios es positivo si son buenos directorios. Especialmente los que no te obligan a devolver el enlace. También hay varios tipos. Intercambio de enlaces - Sin duda una buena forma de conseguir enlaces, y probablemente la primera que apareció. También hay muchos tipos de intercambios y servicios. Compra de enlaces - Más efectiva que el intercambio, pero también más cara.