1. Introducción a Internet
En esta lección, veremos cómo empezó Internet y de qué se trata. También hablaremos de
los buscadores y su sistema de funcionamiento.
Introducción
Un poco de historia
Qué es un buscador y su funcionamiento
Modos de búsqueda en Internet
Práctica: Diferencia entre un buscador y un directorio
Práctica: Modos de búsqueda
Introducción
Habitualmente, escuchamos definiciones de Internet como “la Red de las Redes” o como “la
autopista de la información”.
Internet es una Red de porque está hecha a base de unir muchas redes locales de
ordenadores, o sea de unos pocos ordenadores en un mismo edificio o empresa, con otras
redes.
La llamamos "Red de Redes" porque es la más grande, porque en todo el mundo se puede
tener acceso a Internet: en algunos países como los del Tercer Mundo, sólo acceden los
multimillonarios y en otros como USA o los países más desarrollados de Europa, podemos
encontrar conexión e incluso en la calle.
Visite este enlace y recibirá más información acerque de lo que es una Red:
http://es.wikipedia.org/wiki/Red_de_comunicaciones
2. Por la Red Internet circulan constantemente cantidades increíbles de información. Por este
motivo se le llama también La Autopista de la Información. Hay 50 millones de
"Internautas", es decir, de personas que "navegan" por Internet en todo el Mundo. Se dice
"navegar" porque es normal el ver información que proviene de muchas partes distintas del
Mundo en una sola sesión.
La red nos permite conectar desde ordenadores personales, ordenadores centrales de grandes
empresas como robots y maquinaria, hasta cámaras de vídeo,.. en definitiva es una red que
interconecta una gran cantidad de dispositivos e información.
Un poco de historia
Para entender lo que es hoy en día Internet, es importante que hagamos un repaso a su
historia. Internet nació en EE.UU. hace unos 30 años. Un proyecto militar llamado
ARPANET pretendía poner en contacto una importante cantidad de ordenadores de las
instalaciones del ejercito de EE.UU. Este proyecto gastó mucho dinero y recursos en
construir la red de ordenadores más grande en aquella época.
Visite este enlace y recibirá más información acerque de lo que es una ARPANET:
http://es.wikipedia.org/wiki/ARPANET
Al cabo del tiempo, a esta red se fueron añadiendo otras empresas. Así se logró que creciera
por todo el territorio de EE.UU. Hará unos 10 años se conectaron las instituciones públicas
como las Universidades y también algunas personas desde sus casas. Fue entonces cuando se
empezó a extender Internet por los demás países del Mundo, abriendo un canal de
comunicaciones entre Europa y EE.UU.
En este gráfico podrán visualizar la evolución de Internet desde sus inicios en 1989 hasta
1999:
Referencia: Número de ordenadores conectados permanentemente a Internet, desde 1989
hasta 1997.
Internet crece a un ritmo vertiginoso, aunque es desde el 2000, cuando ese crecimiento se
convierte en algo mundial. Constantemente se mejoran los canales de comunicación con el
3. fin de aumentar la rapidez de envío y recepción de datos. Cada día que pasa se publican en la
Red miles de documentos nuevos, y se conectan por primera vez miles de personas. Con
relativa frecuencia aparecen nuevas posibilidades de uso de Internet, y constantemente se
están inventando nuevos términos para poder entenderse en este nuevo mundo que no para de
crecer.
Internet crece exponencialmente, el número de usuarios aumenta de forma continua. En 2006
se estimaba el número de internautas en 1.100 millones, aunque como veremos a
continuación, actualmente la cifra mundial de usuarios es en Junio de 2009 era de
1.668.870,408 usuarios de Internet. Para el 2016 se estima que el número ascenderá a 2.000
millones.
Grafica que nos muestra el porcentaje de usuarios de Internet de acuerdo a la región
geográfica donde están ubicados.
Qué es un buscador y su funcionamiento
Con más de 100 millones de páginas Web, casi otros tantos blogs, personas enviando e-mail,
Internet esta saturada de información.
La pregunta es: ¿cómo encuentro lo que busco? o ¿por dónde empiezo a buscar, aunque no
sepa exactamente qué estoy buscando?
Situémonos con un poco de historia en buscadores
Antes de que Google apareciera en Internet, la única manera de aparecer en un buscador era
gracias al botón Add URL que había al final de las páginas de muchos buscadores como
Altavista.
Debido al boom de Internet en el 2000, las empresas dejaron de invertir en publicidad,
porque ya no era rentable y empezaron a investigar cómo aparecer entre los primeros
resultados de los buscadores. A partir de este momento surgen los algoritmos automáticos y
las necesidades de los anunciantes de poder averiguar cuáles eran los factores más
importantes para poder aparecer en los buscadores.
Google, como veremos más adelante no es el único buscador que existe, Ask, Google, Live y
Yahoo son los buscadores más importantes, los cuales suman el 98% de la cobertura de
Mercado. Un 95% de los usuarios de Internet en España buscan a través de Google, ¿pero
realmente encuentran?. Un 4% de las visitas que llegan a través de buscadores se convertirán
en clientes más o menos fieles y 1/3 de los que buscan creen que si estás arriba en los
resultados de búsqueda es que eres relevante o líder del sector.
4. Pero, ¿Qué es un buscador?
Definiremos buscador como los servicios de búsqueda accesibles al público en la red
(Google, Yahoo, MSN, Altavista, Go, etc) que usan varias técnicas para acelerar y mejorar
las búsquedas que los usuarios realizan. La manera más habitual de elaborar los listados de
búsquedas consiste en comparar la pregunta del usuario de Internet con un archivo índice de
datos procesados previamente y almacenado en una ubicación determinada, en lugar de
comparar con millones de sitios de la red.
Esta base de datos la elaboran los buscadores de manera periódica mediante un programa
llamado “Spider”, específicamente creado rastrear y leer las páginas de Internet. El Spider
analiza las páginas y extrae de ellas aquellos términos y palabras denominadas “clave”, que
se guardan en el “archivo índice” junto con los enlaces a las páginas correspondientes. Las
preguntas o palabras de búsqueda que los usuarios realizan se comparan con este archivo
índice.
Modos de búsqueda en Internet
Existen dos modos de búsqueda por la WWW, que se explican a continuación:
Por Temas
Por Palabras claves
Por Temas
5. Yahoo, es el principal representante de este modo de búsqueda. Existen otros buscadores de
cómo Olé, pero son menos usados en España.
Visite este enlace y conozca YAHOO: http://www.yahoo.com/
Este tipo de búsqueda es ideal para cuando estamos buscando información sobre un tema
importante, como puede ser, "Revistas en Internet", o "Astronomía", o "Música Moderna".
Por cada uno de estos temas, se nos mostrarán en el buscador muchas páginas que hablan de
dicho tema. Cada página viene indicada con un título y una pequeña explicación, que nos
puede dar una idea más concreta sobre lo que podemos encontrar en esa página sin necesidad
de entrar a verla. En caso de que realmente nos interese ver toda la información de la página
escogida, no tenemos mas que pulsar sobre su título, y automáticamente aparecerá la
información en nuestra pantalla.
El buscador de temas Yahoo dispone de muchas más direcciones en su base de datos que el
buscador Ole. Este último es un buscador que sólo tiene en cuenta páginas Web en
castellano, por lo que su número es muy inferior. Por lo tanto para saber qué buscador
debemos usar, tenemos que tener una idea de si lo que buscamos puede estar o no en
castellano. Si sospechamos que no, lo mejor es ir directamente al Yahoo, y buscar allí.
Desde el punto de vista del administrador de un sitio Web es importante aparecer en este tipo
de buscadores por temáticas.
Por Palabras claves
Hay ocasiones en que buscamos temas demasiado concretos como para que se puedan
categorizar en un buscador por temas. Por ejemplo, si queremos obtener información sobre el
edificio "Empire State Building" de Nueva York, lo mejor es buscarlo mediante palabras
clave. El buscador por excelencia en España es Google y el que usan casi un 98% de la
población.
Este tipo de buscadores, nos permiten concretar el tipo de búsqueda a realizar. Cuando
buscamos algo con varias palabras clave, el buscador puede pensar que queremos la páginas
Web en las que aparezca alguna de esas palabras, o todas ellas en la misma página, o todas
ellas en el mismo orden en que las hemos escrito, y seguidas una detrás de otra. Todo esto se
puede especificar antes de realizar la búsqueda.
La “búsqueda inteligente” Smart Representation
La “búsqueda inteligente” o smart representation consiste en elaborar el índice según una
estructura que reduzca al mínimo el tiempo de búsqueda. Así, por ejemplo, estos datos se
ordenan con mucha mayor eficacia en forma de “árbol” que mediante un listado secuencial.
En los índices “árbol” la búsqueda comienza desde arriba o nudo de raíz, por lo que para
localizar términos que comienzan por letras del alfabeto anteriores a la letra inicial de la
palabra nudo, el buscador parte de la ramificación izquierda; y si la letra es posterior en el
alfabeto, de la ramificación derecha. Cada nudo subsiguiente ofrece más ramificaciones hasta
que se localiza el término en cuestión, o hasta concluir que no se encuentra en el árbol.
6. Mucha gente piensa que Google y Yahoo! son esencialmente lo mismo... y se equivocan. El
primero es un buscador ("search engine" en inglés) y el segundo un directorio. En Yahoo! un
grupo de personas llamados "surfers" recorren la Web seleccionando sitios, comentándolos y
clasificándolos en una base de datos según unos criterios más o menos homogéneos.
Efectivamente, luego existe un motor de búsqueda que busca en esa base de datos. Una base
de datos hecha por humanos, más pequeña por tanto que la de cualquier gran buscador, y que
está formada por los datos introducidos por esos humanos (es decir, incluye valoraciones
como "categoría" o "país").
Práctica: Diferencia entre un buscador y un directorio
Práctica: Diferencia entre un buscador y un directorio
Como prueba de la potencia de estos buscadores de palabras clave, podemos hacer
el siguiente experimento.
Buscamos nuestro nombre en Internet. Se introduce en la celda reservada para
meter la palabra clave nuestro nombre. Si especificamos demasiado en un directorio
no encontremos nada, pero si sólo ponemos un nombre y un apellido, puede que
encontremos páginas Web donde aparezcan estos nombres, refiriéndose a personas
que se llaman igual que nosotros, de las cuales puede haber varias en el Mundo.
Abra el navegador e inserte en la barra de direcciones: www.google.com
Introduzca su nombre completo y apellidos. Vemos que se proceden millones de
páginas que están indexadas con tu nombre.
Haremos ahora la comparativa:
Abra el navegador – Abrir un directorio Yahoo: http://search.yahoo.com/dir
Introduzca su nombre completo y apellidos. Tenga presente, que dependiendo del
dato que introduzca, podrá darle resultados o no encontrar nada.
¿Por qué se produce esta diferencia en los resultados? Porque un directorio
guarda una estructura de temas más amplia, mientras que un buscador indexa por
palabras.
7. 1.- ¿Yahoo es un buscador como Google?
Yahoo y Google son iguales y se basan en la misma estructura
Ninguna de las respuestas es correcta.
Sí, Yahoo muestra resultados de cuando se introduces una palabra.
2.- ¿Qué es un buscador?
Ninguna de las respuestas es correcta.
Una herramienta para buscar conceptos según unos archivos
realizados aleatoriamente.
Una técnica para acelerar y mejorar las búsquedas que los usuarios
realizan a través de Internet.
3.- ¿Qué es la smart representation?
La smart representation es lo que hace Google cuando muestra los
resultados en sus páginas.
La búsqueda inteligente se refiere a listados de temas.
La “búsqueda inteligente” consiste en elaborar el índice según una
estructura que reduzca al mínimo el tiempo de búsqueda Por palabras
clave.
4.- Modos de búsqueda a través de Internet.
Ambas respuestas son correctas.
Por temas, que busca por un tema en general o una categoría amplia.
Por palabras clave que busca por temas más concretos o palabras.
5.- ¿Diferencias entre un buscador y un Directorio?
Un buscador es un motor de búsqueda que ordena según conceptos, y
un directorio se basa en el trabajo de unos “surfers”que recorren la Internet
seleccionando sitios y clasificándolos según unos criterios homogéneos.
No existe diferencia entre un buscador y un directorio, ambos se
utilizan para mostrar resultados tras una búsqueda.
Un buscador se ordena según una estructura de árbol y un directorio
no sigue estructura alguna.
8. 1.- ¿Yahoo es un buscador como Google?
Yahoo y Google son iguales y se basan en la misma estructura
Ninguna de las respuestas es correcta.
Sí, Yahoo muestra resultados de cuando se introduces una palabra.
2.- ¿Qué es un buscador?
Ninguna de las respuestas es correcta.
Una herramienta para buscar conceptos según unos archivos realizados
aleatoriamente.
Una técnica para acelerar y mejorar las búsquedas que los usuarios realizan a través
de Internet.
3.- ¿Qué es la smart representation?
La smart representation es lo que hace Google cuando muestra los resultados en sus
páginas.
La búsqueda inteligente se refiere a listados de temas.
La “búsqueda inteligente” consiste en elaborar el índice según una estructura que
reduzca al mínimo el tiempo de búsqueda Por palabras clave.
4.- Modos de búsqueda a través de Internet.
Ambas respuestas son correctas.
Por temas, que busca por un tema en general o una categoría amplia.
Por palabras clave que busca por temas más concretos o palabras.
5.- ¿Diferencias entre un buscador y un Directorio?
Un buscador es un motor de búsqueda que ordena según conceptos, y un directorio
se basa en el trabajo de unos “surfers”que recorren la Internet seleccionando sitios y
clasificándolos según unos criterios homogéneos.
No existe diferencia entre un buscador y un directorio, ambos se utilizan para
mostrar resultados tras una búsqueda.
Un buscador se ordena según una estructura de árbol y un directorio no sigue
estructura alguna.
9. Cómo funciona el
posicionamiento
En esta lección, veremos cómo funciona el posicionamiento de las páginas Web que
encontramos en los buscadores.
Cómo rastrea Internet
Cómo hacer para que se indexen mis páginas
Cómo lee un buscador un sitio Web
Organización de un SERP
Elementos para fomentar la entrada de un robot en nuestra
Web
Puedo evitar ser rastreado
Práctica: Diferencia existe entre los resultados orgánicos y de
pago
Cómo rastrea Internet
Para acceder al mayor número de páginas posibles, los buscadores acceden a unas páginas
introducidas manualmente en una lista (semillas) y guardan las URL de los hipervínculos
para descargarlas posteriormente.
Una URL (sigla en inglés de uniform resource locator) es un localizador uniforme de
Recursos, una secuencia de caracteres, de acuerdo a un formato estándar, que se usa para
nombrar recursos, como documentos e imágenes en Internet, para su posterior localización.
Ningún buscador dispone de información actualizada de todas y cada una de la páginas de
Internet, pero realizan esfuerzos importantes para que sus robots rastreen todas las páginas
posibles luchando contra estos dos factores:
1. Para luchar contra el gran volumen de páginas, los buscadores deben aumentar el
número de páginas descargadas por segundo, y esto lo consiguen mejorando su
conectividad y la localización geográfica y número de robots de rastreo.
2. Para tener siempre los contenidos actualizados, la solución no es tan sencilla como
revisar cada Web más a menudo, porque esto supone un aumento enorme del
10. número de páginas a descargar. En estos casos lo que se hace es detectar el grado de
variabilidad (también llamado frescura) de cada documento indexado para
determinar cada cuando hay que revisarla.
Cómo hacer para que se indexen mis páginas
Para que un buscador rastree tu página Web, primero deberá conocer tu URL, esto podemos
conseguirlo enviando la URL al buscador desde un formulario para que la guarde en su base
de datos, o poniendo enlaces hacia nuestra URL en otras páginas ya indexadas, vamos a
detallar más cada opción:
El formulario de URL's
La mayoría de buscadores disponen de formularios que permiten introducir la URL de tu
página para ser indexada, proceso por el que el contenido de un sitio se añade a un motor de
búsqueda, posteriormente.
Este sistema suele ser menos interesante ya que un factor importante para aparecer en los
primeros resultados de un buscador es el número de enlaces hacia tu página y de esta
manera nuestra página tendrá 0 enlaces entrantes.
Google ha introducido una nueva e interesante manera de indicar al buscador que
contenidos de tu Web debe rastrear llamada sitemaps.
Los enlaces entrantes
Aunque para que un robot nos rastree encontrando un enlace entrante a nuestra página es
una opción más lenta (hay que conseguir enlaces entrantes en sitios indexados, esperar que
el robot los rastree y apunte nuestra URL y esperar que finalmente nos rastree a nosotros)
sobre todo si contamos con el efecto sandbox, los enlaces entrantes son un factor importante
para conseguir una buena posición.
Ambas prácticas tienen sus pros y sus contras, por esto es aconsejable llevar a cabo ambas
simultáneamente.
Cómo lee un buscador un sitio Web
Una vez que un robot entra en una página se lee el código buscando identificar una serie de
zonas: la cabecera, el cuerpo... y dentro de éstas, intenta localizar las etiquetas clave, es
decir, las palabras que identifican los contenidos, estructuras, archivos, secciones, etc. de la
Web.
Sin embargo, esta lectura del código no tiene porque ser lineal. Google por ejemplo
posterga el contenido de las tablas. En la clásica página en la que los contenidos aparecen
enmarcados por un par de tablas anidadas, fuera de las cuales apenas queda la dirección de
la empresa o el copywrite, lo primero que leería sería precisamente aquello que aparece
fuera de la tabla (es decir, información secundaria).
¿Es eso realmente importante? Desde luego, ya que veremos que es una de las variables a
tener en cuenta es la posición del término de búsqueda dentro del cuerpo de la página.
11. La "sensación" del robot a la hora de leer nuestra página será muy parecida a la que
tengamos nosotros al leer la misma página desde un ordenador de bolsillo (ODB o PDA en
inglés). Es una experiencia recomendable para programadores y diseñadores Web: al no
tener espacio para mostrar todo el ancho de página, rompe el contenido mostrando columna
a columna.
Lo primero que vemos de una Web es un largo e inútil menú, y no la información que
buscamos. El robot en cambio lee fila a fila, pero al anidar tablas en celdas de otras tablas
mayores, hacemos que el orden de lectura del buscador sea diferente del que intuitivamente
pensamos al ver la página en el navegador. Incluso el orden es algo importante. Algunos
robots incluso, buscan las cosas en un determinado orden y sólo en él. De modo que si por
ejemplo, la etiqueta <TITLE> no es la primera bajo la etiqueta <HEAD>, no archivará en
su base de datos el título de la Web.
Organización de un SERP
SEPR viene de Search Engine Results Page (Páginas de Resultados de Buscadores), es la
página de los resultados que nos muestra un buscador. Frecuentemente se hace referencia a la
lista de resultados de un buscador.
Si hablamos de Google podemos distinguir entre la lista de resultados orgánica y la de pago.
La lista de resultados orgánica se basa en las páginas indexadas que rastrea y almacena el
crawler o robot, mientras que la lista de lago es aquella que nos aparece como enlaces
patrocinados.
A continuación vemos los resultados de búsqueda orgánicos o naturales en un buscador
como Google:
12. A continuación vemos los resultados de búsqueda de pago o SEM:
Elementos para fomentar la entrada de un robot en nuestra Web
Peso según frecuencia
Como resultado de estas búsquedas suelen ofrecerse numerosos enlaces o URL (unified
resource locator) de sitios que contienen los términos o palabras claves buscadas. Pero todos
los enlaces resultantes tienen por lo general la misma relevancia, debido sobre todo a
determinadas ambigüedades de cada uno de los idiomas y a que el sistema es incapaz de
interpretar totalmente el contenido semántico de los textos. Para deducir los registros más
pertinentes, el algoritmo de búsqueda aplica otras estrategias clasificatorias más complejas.
Un método habitual, conocido como “peso según frecuencia”, asigna un peso relativo a las
13. palabras para indicar su importancia en cada documento; la asignación de relevancia se basa
en la distribución de las palabras y en la frecuencia con que aparecen en cada uno de los
sites.
Sin embargo, como veremos a continuación este nuevo filtro tampoco es perfecto y es muy
vulnerable al “pirateo” o a la trampa (la más simple de ellas sería la creación de Web
únicamente destinada a la acumulación, visible o invisible para el visitante del sitio, de
enlaces) y se requieren más análisis.
La importancia del Contenido
Si queremos que los robots nos visiten más a menudo, consiguiendo tener siempre nuestro
contenido actualizado en sus índices, deberemos aumentar el grado de variabilidad o frescura
de nuestras páginas modificándolas a menudo y aportando nuevos contenidos de forma
regular, esto lo veremos en el capitulo siguiente.
Actualmente, una Web ha de ser dinámica, es decir, que presente un constante cambio de
contenidos. Las Web corporativas y estáticas que no se actualizan en meses o años, han
quedado desfasadas y reemplazadas por la calidad, cantidad y originalidad de los contenidos
que publiquemos.
El secreto de un sitio Web son sus contenidos y, principalmente, que estos contenidos sean
originales, ya que un buscador va a enseñar a los usuarios que hacen búsquedas lo optimo y
actual para ellos.
Análisis de enlaces
Pero ¿qué usa Google que hace más efectiva su búsqueda?. El análisis de enlaces, constituye
la estrategia fundamental de discriminación y a la que mayor peso específico tiene sobre el
SEO. Básicamente esta técnica estudia la naturaleza de cada página, si se trata de una
“autoridad”(es decir, los enlaces de otras páginas remiten a ella) o si es un “eje” (remite a
otras páginas). En otras palabras: la popularidad de la página donde se sitúa el enlace.
Puedo evitar ser rastreado
Existen diferentes métodos llamados Métodos de Exclusión que permiten evitar que un
buscador rastree e indexe nuestra página, vamos a conocer algunos de ellos:
El estándar de exclusión de robots, también conocido como el protocolo de la exclusión
de robots o protocolo de robots.txt es un método para evitar que ciertos bots que analizan
los sitios Web u otros robots que investigan todo o una parte del acceso de un sitio Web,
público o privado, agreguen información innecesaria a los resultados de búsqueda. Los
robots son de uso frecuente por los motores de búsqueda para categorizar archivos de los
sitios Webs, o por los webmasters para corregir o filtrar el código fuente.
El archivo robots.txt - un archivo robots.txt en un sitio web funcionará como una
petición que especifica que determinados robots no hagan caso a archivos o
directorios específicos en su búsqueda. Esto puede realizarse, por ejemplo, para dejar
fuera de una preferencia los resultados de una búsqueda avanzada, o de la creencia
que el contenido de los directorios seleccionados puede ser engañoso o inaplicable a
la clasificación del sitio en su totalidad.
14. Meta-Tags específicos para robots - son unos caracteres pertenecientes al HTML
que se deben de escribir dentro del tag general <head> y que lo podemos definir
como líneas de código que indican a los buscadores que le indexan por qué términos
debe ser encontrada la página. Dependiendo de la utilización, caracterización y
objetividad de dichos meta, se puede conseguir una excelente posición en el listado
resultante de una búsqueda.
Formularios de eliminación
Práctica: Diferencia existe entre los resultados orgánicos y de pago
Práctica: Diferencia existe entre los resultados orgánicos y de pago
Abra el navegador e introduzca www.Google.es en la barra del navegador.
Busque las palabras " formación profesional".
Marque con un recuadro los resultados orgánicos, y marque con otro recuadro
los resultados de SEM.
Realice esta misma operación, con 2 ó 3 palabras que le interese.
15. 1.- ¿Es importante el contenido de una Web corporativa?
No, aunque de forma interna para la compañía sí.
El secreto de una Web no radica en el contenido, aunque es
importante.
Sí, ya que una Web corporativa es la imagen de la empresa, debe ser
dinámica y con contenido de calidad.
2.- ¿Es importante cómo se estructura el código para posicionar
nuestra Web?
No, ya que lo importante es el peso y la relevancia de las palabras de
nuestro sitio.
El secreto de una Web es el cuerpo del código html.
Sí, ya que el código determinará la lectura del buscador en nuestra
Web y así, descartará o cogerá lo que sea de interés.
3.- ¿Que es el SERP?
Es la página resultante de los resultados de búsqueda de pago.
Es la página resultante de los resultados de búsqueda orgánicos.
Es la página resultante de los resultados de búsqueda naturales y de
pago.
4.- ¿Qué hace efectiva la búsqueda que ofrece Google?
La notoriedad que cada uno le da a su página Web.
El SEO que aplica.
El análisis de enlaces que constituye una estrategia fundamental de
discriminación entre todas las Web.
5.- ¿Qué es una Url?
Es el nombre de mi Web.
Es una secuencia de caracteres que se usa para nombrar documentos e
imágenes en Internet, para su posterior localización.
Es el título que le ponemos a cada una de las Web que se indexan.
6.- ¿Puedo evitar ser rastreado?
No.
Los métodos de exclusión permiten que un buscador rastree o indexe
las zonas que le indicamos de nuestra Web.
A veces, en función de cómo este hecha la Web.
7.- ¿Cómo podemos indexar las páginas de una Web?
No se puede indexar las páginas de una Web manualmente, es el
buscador quien lo hace.
Indicándole al crawler o robot la Url, a través de un formulario y con
enlaces entrantes a mi Web.
A través de un formulario.
16. 1.- ¿Puedo evitar ser rastreado?
No.
A veces, en función de cómo este hecha la Web.
Los métodos de exclusión permiten que un buscador rastree o indexe
las zonas que le indicamos de nuestra Web.
2.- ¿Qué hace efectiva la búsqueda que ofrece Google?
El análisis de enlaces que constituye una estrategia fundamental de
discriminación entre todas las Web.
La notoriedad que cada uno le da a su página Web.
El SEO que aplica.
3.- ¿Es importante cómo se estructura el código para posicionar
nuestra Web?
No, ya que lo importante es el peso y la relevancia de las palabras de
nuestro sitio.
El secreto de una Web es el cuerpo del código html.
Sí, ya que el código determinará la lectura del buscador en nuestra
Web y así, descartará o cogerá lo que sea de interés.
4.- ¿Que es el SERP?
Es la página resultante de los resultados de búsqueda de pago.
Es la página resultante de los resultados de búsqueda orgánicos.
Es la página resultante de los resultados de búsqueda naturales y de
pago.
5.- ¿Qué es una Url?
Es el nombre de mi Web.
Es el título que le ponemos a cada una de las Web que se indexan.
Es una secuencia de caracteres que se usa para nombrar documentos e
imágenes en Internet, para su posterior localización.
6.- ¿Cómo podemos indexar las páginas de una Web?
A través de un formulario.
No se puede indexar las páginas de una Web manualmente, es el
buscador quien lo hace.
Indicándole al crawler o robot la Url, a través de un formulario y con
enlaces entrantes a mi Web.
7.- ¿Es importante el contenido de una Web corporativa?
No, aunque de forma interna para la compañía sí.
El secreto de una Web no radica en el contenido, aunque es
importante.
Sí, ya que una Web corporativa es la imagen de la empresa, debe ser
dinámica y con contenido de calidad.
17. Importancia del dominio y
elección de palabras claves
En esta lección, veremos conceptos relacionados con el dominio, trataremos sobre la relevancia
que tiene la elección de las palabras claves que definen nuestra Web.
El dominio
Cómo crear palabras claves
El concepto de popularidad
Elección de los términos clave o Keywords
Elección del hosting y el efecto sobre el posicionamiento
Práctica: Comprobar la antigüedad de un dominio
El dominio
Uno de los elementos más importantes de un sitio Web es su dominio. Si quiere que tenga algún peso
en posicionamiento es interesante que contenga la palabra clave principal del proyecto. Esto no
significa que sea imprescindible, pero ayudará a mejorar la posición en la mayoría de motores de
búsqueda. Ante la elección entre un dominio con o sin guiones, lo mejor es no usar ningún tipo de
elemento “extraño” en la dirección, y en caso de ser necesario, sólo tenga como máximo un guión.
Vea este enlace y la importancia de un buen dominio:
http://www.inmoblog.com/portales-inmobiliarios/la-importancia-de-un-buen-dominio/
Territorialidad del dominio
18. Los buscadores, cada vez más, están dando más importancia a la geoposición de un dominio, es
decir, que si la información de un dominio está enfocada a un país en concreto, este dominio
aparecerá mejor posicionado en la edición local de ese buscador.
Esto significa que si el contenido de un dominio está enfocada a España, lo mejor es usar un dominio
.ES, que si está enfocada para Estados Unidos usemos un dominio .US o si está enfocada para Grecia
usemos un .GR.
Esto no significa que no podamos usar los dominios .COM o .NET para incorporar información, pero en
estos casos los haremos de una forma más genérica. Al fin y al cabo… ¿para qué existen dominios
territoriales si luego no tienen ninguna influencia en los usuarios o los motores de búsqueda?
Edad del dominio
Que un dominio lleve mucho tiempo registrado y en línea es un buen elemento a tener en cuenta para
que se indexe de forma correcta y se tenga en cuenta como lugar destacado de Internet.
Aún así, aquellos que compran un dominio pensando en mantener su edad histórica, han de saber que
hoy en día la mayor parte de buscadores también son registradores de dominios, de forma que tienen
control absoluto sobre los cambios de titularidad o que haya en los mismos.
Fuentes internas de Google dicen que si un dominio cambia de titular, ese dominio queda reseteado
en su edad y el motor lo tratará como uno nuevo. Aún así, los resultados de búsqueda por ahora no
indican eso.
En caso de que tengas la posibilidad de adquirir un dominio antiguo, es muy interesante ver qué había
en él históricamente y para ello puedes usar la herramienta Wayback Machine donde verás de forma
temporal el contenido de un sitio a modo de caché.
Compruebe la antigüedad de su dominio, con esta herramienta tendrá acceso al contenido que había
publicado en su Web antiguamente: http://www.archive.org/web/web.php
Dominios Aparcados
En la actualidad cuando se compra un dominio que no está pensado desarrollarse es posible
establecerlo en sitios donde, al entrar, aparece una página en la que únicamente hay enlaces de pago.
Aunque este sistema puede ser rentable, en el momento en el que se decida lanzar un proyecto bajo
19. este dominio es probable que te encuentres con que los robots de búsqueda no pasan a indexarlo y
mucho menos posicionarlo.
En caso de encontrarte en esta situación lo mejor es comenzar a generar contenido y cuando
hayan pasado al menos 6 semanas dar de alta el dominio en los buscadores de nuevo, crear
Sitemaps y comenzar un proceso de reinclusión, como el que permite Google.
Cómo crear palabras claves
Una vez analizados los elementos estructurales del código de sites veamos el análisis de la
importancia de las palabras claves. Los conceptos generalmente usados son:
Frecuencia
Recuento
Peso
Relevancia
El trabajo sobre el código de una página de cara a su posicionamiento consiste en medir cada
una de estas variables en cada una de las áreas y modificar su contenido si sale de los márgenes
recomendados por el estudio lexométrico para uno o varios buscadores.
Definamos ahora estos conceptos:
Frecuencia
Es el número de veces que el término de búsqueda aparece en el área. Varía en función de si los
robots "leen" partiendo palabra o no, de si distinguen o no acentos, de si se elige la opción de
búsqueda exacta y de si la búsqueda es sensible o no a las mayúsculas ("case sensitive" en
inglés).
Por ejemplo: Scooter, el robot de Altavista, distingue como palabras diferentes "leon" y "león"
o "enfermería" y "enfermeria" (buscada 12 veces más que la anterior). Sin embargo si
encuentra "Leon" y "leon", asignaría una frecuencia uno al término de búsqueda "leon" (ya que
parece ser sensible a la distinción mayúsculas/minúsculas).
Googleboot, el robot de Google, por el contrario ha modificado su algoritmo recientemente
para equiparar "leon" a "león" y "Leon" como la misma palabra (los usuarios no suelen poner
acentos :)) aunque al igual que Scooter sigue sin partir palabra (de modo que en la frase "Los
ciberpunks piensan que el ciberpunk es algo más que un género literario", la frecuencia de
"ciberpunk" sería uno y no dos tanto para Scooter como para Googleboot).
En este ejemplo vemos como Google tiene en cuenta la palabra "Leon" y "león", de la misma
manera:
20. Recuento
Cuenta el total de palabras en un área excluyendo las etiquetas HTML.
Peso
El peso es el porcentaje que el término de búsqueda representa sobre el total de palabras en la
página o el área analizados. Dado que el término de búsqueda puede estar formado por varias
palabras, la fórmula general del peso podríamos definirla como:
P=n*F/R
n = número de palabras del término de búsqueda.
R = Recuento del área.
F = Frecuencia del término de búsqueda.
En cualquier caso hay una amplia discusión sobre el papel del peso y su cálculo exacto. En
general, suele rondar el 3% para las páginas mejor posicionadas... aunque obviamente esto se
debe a que la frecuencia y el recuento de estas suele ser similar. Es lo que en lexometría
llamaríamos un caso de "multicolinealidad".En la práctica vigilar el peso sirve como chequeo
de la proporción entre frecuencia y recuento, no tanto como una variable independiente que
actúe por si misma.
Relevancia
La relevancia mide la distancia entre el comienzo del área y el lugar donde aparece la palabra
clave. Claro que hay que tener en cuenta la forma en la que los robots "leen" la página, pues
algo que esté gráficamente más arriba al verlo en el navegador, no necesariamente está más
arriba en el código. Recordemos que Google por ejemplo "salta" las tablas y las lee al final.
Si el término de búsqueda aparece como primera palabra del área la prominencia es 100% y si
es la última el 0%. Si aparece varias veces, se promedia. Es decir, a no ser que hagamos R muy
baja, dejando la palabra clave sólo como primera palabra del body, nunca tendrá un 100%,
aunque lo más recomendable es colocarla con cierta profusión en el primer tercio de cada área.
Un ejemplo de artículo podría ser éste (una supuesta Web de ciencia con un nivel medio-bajo):
La vida empezó “en el fondo del mar”. Una nueva y controvertida teoría sobre el origen de la
vida en la Tierra ha dado que hablar en la comunidad científica.
La nueva concepción sostiene que los organismos vivos se originaron en los que llama
“incubadores inorgánicos”. Se trata de pequeños nidos formados en rocas de sulfuro de
hierro.
La teoría, propuesta por los profesores William Martin, de la Universidad de Düsseldorf
(Alemania), y Michael Russell, del Centro Escocés de Investigación Ambiental en Glasgow,
cuestiona de la raíz ideas convencionales.
Hasta ahora se ha sostenido que primero se formaron los ladrillos elementales de la vida, los
cuales se fueron juntando para generar una estructura celular básica.
La nueva propuesta señala, en cambio, que la célula se formó primero y que después se rellenó
con moléculas de vida.
Una de las implicaciones de la teoría es que existen más probabilidades de que se desarrollen
21. organismos en planetas donde antes se pensaba que sería imposible.
Tras la lectura de este fragmento de noticia podrías plantearte cuáles son los conceptos que tal
vez interesaría posicionar: “dónde comenzó la vida” y “origen de la vida”. Estas dos frases
pueden ser una búsqueda que la gente haga y por tanto es algo que debes plantearte posicionar.
Además podrías destacar los nombres de los científicos.
Así pues, puedes dejar redactado el artículo de la siguiente manera:
El origen de la vida en el fondo del mar
Una nueva y controvertida teoría sobre el origen de la vida en la Tierra ha dado que hablar en
la comunidad científica.
La nueva concepción sostiene que los organismos vivos se originaron en los que llama
“incubadores inorgánicos”. Se trata de pequeños nidos formados en rocas de sulfuro de
hierro.
La teoría sobre dónde comenzó la vida, propuesta por los profesores William Martin, de la
Universidad de Düsseldorf (Alemania), y Michael Russell, del Centro Escocés de Investigación
Ambiental en Glasgow, cuestiona de la raíz ideas convencionales.
Hasta ahora se ha sostenido que primero se formaron los ladrillos elementales de la vida, los
cuales se fueron juntando para generar una estructura celular básica.
La nueva propuesta señala, en cambio, que el origen de la vida está en la célula que se formó
primero y que después se rellenó con moléculas de vida.
Una de las implicaciones de la teoría es que existen más probabilidades de que se desarrollen
organismos en planetas donde antes se pensaba que sería imposible.
Una vez tienes el texto completamente redactado (con las principales frases con las que
conseguir tráfico en párrafos con cierta distancia, una combinación de palabras cada 2 ó 3
párrafos), debes plantear si debe quedar como texto plano o marcando algunas palabras de
alguna forma.
Con este nuevo título y el haber introducido un par de veces los conceptos es muy probable que
el posicionamiento mejore en muchos buscadores. Eso sí, hay que tener en cuenta una cosa: no
abusar. La lectura para una persona es muy similar en los dos textos, aunque en el segundo,
hacemos que la lectura para los buscadores mejore significativamente.
El origen de la vida en el fondo del mar
Una nueva y controvertida teoría sobre el origen de la vida en la Tierra ha dado que hablar en
la comunidad científica.
La nueva concepción sostiene que los organismos vivos se originaron en los que llama
“incubadores inorgánicos”. Se trata de pequeños nidos formados en rocas de sulfuro de
hierro.
La teoría sobre dónde comenzó la vida, propuesta por los profesores William Martin, de la
Universidad de Düsseldorf (Alemania), y Michael Russell, del Centro Escocés de Investigación
Ambiental en Glasgow, cuestiona de la raíz ideas convencionales.
Hasta ahora se ha sostenido que primero se formaron los ladrillos elementales de la vida, los
cuales se fueron juntando para generar una estructura celular básica.
22. La nueva propuesta señala, en cambio, que el origen de la vida está en la célula que se formó
primero y que después se rellenó con moléculas de vida.
Una de las implicaciones de la teoría es que existen más probabilidades de que se desarrollen
organismos en planetas donde antes se pensaba que sería imposible.
En este último fragmento, el haber añadido conceptos en negritas y cursivas hará que el robot
de búsqueda se quede atento a esos conceptos y les de cierta importancia por encima del resto
del documento.
El concepto de popularidad
Cuando Google apareció en la Web, allá por el 2000, la noticia se transmitió rápidamente por
el viejo sistema del boca a boca. Expertos y usuarios finales pensaban que por fin había alguien
un motor de búsqueda imparcial y realmente útil. ¿Por qué? Sobre todo por su capacidad para
jerarquizar resultados.
Hasta entonces, el lugar en la lista de resultados venía dado exclusivamente por el grado de
asociación de la página al término de búsqueda en la base de datos del buscador (en los buenos
buscadores) o incluso por la antigüedad (en los malos) Google fue el primero en completar la
asociación con un criterio jerárquico completamente diferente e independiente de los
componentes del código: la "popularidad".
¿Qué significa esto? De un modo muy sencillo podríamos decir que tu página será tanto más
importante a la hora de ordenar resultados, cuantas más enlaces en otras páginas indexadas le
apunten. ¿Eso era todo? Realmente no. Si el "índice de popularidad" fuera igual a la suma del
número de enlaces que nos apuntan, bastaría con crear una multitud de páginas que apuntaran a
la nuestra para mejorar su posicionamiento. Los algoritmos de "popularidad" se defienden de
un modo sencillo pero efectivo de esta posible trampa:
El "índice de popularidad" es en realidad la suma del número de páginas que nos apuntan
ponderada por el índice de popularidad de cada una de ellas (medido en porcentaje sobre la
máxima puntuación alcanzable).
Podríamos resumirlo en la siguiente fórmula:
P(x) = 1/P(1) + 1/P(2) + ..... + 1/P(n)
Esta fórmula se ve ponderada según el término de búsqueda por el grado de relación con los
términos buscados de las páginas que nos apuntan, de modo que la fórmula de ordenación final
de resultados sería un poco más compleja y sería parecida a:
F (x) = G(x) *(1/G(1)*P(1) + 1/G(2)*P(2) + ..... + 1/G(n)*P(n) )
Siendo G el algoritmo que en función del análisis del código de una página y del texto del
enlace que nos apunta establece el grado de relación de esta con el término de búsqueda y que
se mide también como un porcentaje del máximo alcanzable.
Es decir, Google representa un avance en las herramientas de indexación y búsqueda en la
WWW porque cuando solicitas una búsqueda realiza un trabajo en cuatro fases:
23. 1. Busca en su base de datos aquellas URLs asociadas a la palabra criterio de búsqueda.
2. Calcula sus distintos grados de asociación.
3. Ordena las URL en función de su popularidad ponderada con el grado de asociación de
las páginas que le apuntan y del texto del enlace que nos apunta desde ellas.
4. Presenta los resultados.
Hay que señalar sin embargo que aunque las tecnologías basadas en la popularidad se van
extendiendo, ni siquiera Google las incorpora homogéneamente: por ejemplo, en la ordenación
de resultados de su directorio simplemente ordena dentro de cada categoría en función del
índice de popularidad (representado por una barrita verde). Si lo pensamos esto tiene su lógica,
ya que se supone que el criterio que nos lleva a una categoría determinada de un directorio es
el mismo para todas las Web incluidas en él, lo que le exime de realizar el trabajo de
asociación URL/criterio de búsqueda.
Otra nota importante es la importancia del “qué” nos apunta. El texto del enlace puede, si el
número de enlaces es suficiente, llegar a determinar la asociación de una página con un
término de búsqueda que ni siquiera contenga en su contenido. Como escribe Adam Mathes:
Descubrí que cuando buscaba el término "Internet rockstar" devolvía la página de Ben
[Brown]. En aquel momento, sin embargo el ni siquiera tenía la frase en su página aunque la
legión de Blogger quinceañeros que le enlazaban siempre usaban esa frase en sus enlaces.
Este hecho, recientemente comprobado en Google, implica no sólo la inutilidad de las
tradicionales campañas de banners de cara a la popularidad (ya que los enlaces pasan por un
servidor intermedio), sino también que frente al tradicional énfasis en los gráficos, el elemento
clave del enlace vuelve a ser el texto.
Elección de los términos clave o Keywords
Es lo primero y parece obvio... Pero no lo es: no lo es por varios motivos: en primer lugar porque como
ya hemos visto, en la mayoría de los buscadores no es lo mismo una palabra con acento que la misma
sin acento ("enfermería" que "enfermería" por ejemplo), por lo que de optimizar para una
(normalmente la que no tiene acentos) estaríamos perdiendo los que buscan la otra. Claro que no
siempre podemos elegir y tendremos que forzar en muchos casos una "doble optimización" para la
palabra con y sin acento.
Por otro lado, conseguir resultados óptimos para una única palabra nos sitúa en la competición más
dura. En general será más fácil obtener un buen posicionamiento cuanto más específica sea la
búsqueda, es decir, posicionar www.guiadeenfermeria.com para "enfermería" será siempre más difícil
que para "enfermería clínica".
24. Lo recomendable es jugar con un término principal para el que optimizamos el código consciente y
rigurosamente y un término secundario o dos para el que dejaremos pistas en el código pero sin
forzar la programación. Pero, ¿cómo elegimos el término principal?. Tres deberían ser los criterios:
el término más buscado relacionado con el tema principal de nuestra página
el término por el que los usuarios que ya nos conocen buscarían nuestra página
el término más atractivo para el potencial público de nuestra página
Con esta herramienta que proporciona Google podremos ver cuál es el volúmenes de búsquedas que
tiene una palabra clave: http://www.google.com/insights/search/#
Elección del hosting y el efecto sobre el posicionamiento
De la misma manera que el dominio determinará, en muchos casos, nuestro posicionamiento
orgánico, es importante la elección del hosting. El hosting determinará en gran medida la respuesta
de nuestro site, por lo que es importante que esté situado en el lugar para el que está respondiendo.
Si queremos alojar una Web española es necesario que la Web esté en un hosting Español. Así como
la Geolocalización del dominio es vital, la elección del hosting también afectará a la localización.
Definición sobre hosting o alojamiento de nuestra Web: http://es.wikipedia.org/wiki/Hosting
Práctica: Comprobar la antigüedad de un dominio
Práctica: Comprobar la antigüedad de un dominio
Abra una nueva pantalla del navegador.
Introduzca http://web.archive.org
Introduzca la URL del la página que se desea saber (indicar que sea
www.lavanguardia.es).
25. Nos indica que el dominio es de 01 de enero de 1996
Realice esta misma operación, con 2 ó 3 dominios que le interese conocer.
1.- ¿Qué es una palabra clave y cómo nos afecta
Una palabra clave es el término con los que vamos a optimizar nuestro
sitio.
Una palabra clave es la palabra con que se asocia a nuestra Web.
Una palabra clave determina el sector de nuestra Web.
2.- Definamos el concepto de popularidad como:
El "índice de popularidad" es la suma del número de páginas que nos
apuntan por el índice de popularidad de cada una de ellas.
La popularidad es lo conocida que es nuestra marca en Internet.
Es el número de links que apuntan a nuestra página.
3.- ¿Qué es la relevancia?
Es el número de veces que el término de búsqueda aparece en el
contenido.
26. Es la importancia de nuestra Web en los buscadores.
La relevancia mide la distancia entre el comienzo del area y el lugar
donde aparece la palabra clave.
4.- ¿Es importante la edad de un dominio?
Sí, es interesante adquirir un dominio antiguo.
Sí es importante aunque hay que comprobar que no se haya reseteado
la edad y haya perdido toda la antigüedad.
No.
5.- Definamos recuento como:
Es la cuenta el total de palabras en un área excluyendo las etiquetas
HTML.
Total de veces que sale nuestra Web en un buscador y en directorio.
Total de veces que sale nuestra Web en un buscador.
6.- ¿Es lo mismo el dominio y la URL?
Ambas respuestas son correctas.
El dominio es uno de los elementos más importantes de un sitio Web.
El dominio es parte de la composición de la URL.
7.- ¿Cómo elegir una Keywords?
Según el tema principal de nuestra Web, por como los usuarios nos
buscarían en nuestra Web.
En función del sector de la empresa.
Por las palabras los usuarios nos relacionan.
8.- ¿Qué es la Frecuencia?
Es el número de veces que búscan nuestra Web en Google.
Número de veces que sale nuestra Web en un buscador.
Es el número de veces que el término de búsqueda aparece en el área
del contenido de nuestra Web.
9.- ¿Qué es el peso?
El peso es el total de Kilobytes que pesa mi Web.
El peso es el porcentaje que el término de búsqueda representa sobre
el total de palabras en la página o el área analizados.
El peso se mide en función de cada Web y tiene que ver con las
palabras claves.
1.- ¿Qué es una palabra clave y cómo nos afecta
Una palabra clave es el término con los que vamos a optimizar nuestro
sitio.
Una palabra clave es la palabra con que se asocia a nuestra Web.
Una palabra clave determina el sector de nuestra Web.
2.- Definamos el concepto de popularidad como:
27. El "índice de popularidad" es la suma del número de páginas que nos
apuntan por el índice de popularidad de cada una de ellas.
La popularidad es lo conocida que es nuestra marca en Internet.
Es el número de links que apuntan a nuestra página.
3.- ¿Qué es la relevancia?
Es el número de veces que el término de búsqueda aparece en el
contenido.
Es la importancia de nuestra Web en los buscadores.
La relevancia mide la distancia entre el comienzo del area y el lugar
donde aparece la palabra clave.
4.- ¿Es importante la edad de un dominio?
Sí, es interesante adquirir un dominio antiguo.
Sí es importante aunque hay que comprobar que no se haya reseteado
la edad y haya perdido toda la antigüedad.
No.
5.- Definamos recuento como:
Es la cuenta el total de palabras en un área excluyendo las etiquetas
HTML.
Total de veces que sale nuestra Web en un buscador y en directorio.
Total de veces que sale nuestra Web en un buscador.
6.- ¿Es lo mismo el dominio y la URL?
Ambas respuestas son correctas.
El dominio es uno de los elementos más importantes de un sitio Web.
El dominio es parte de la composición de la URL.
7.- ¿Cómo elegir una Keywords?
Según el tema principal de nuestra Web, por como los usuarios nos
buscarían en nuestra Web.
En función del sector de la empresa.
Por las palabras los usuarios nos relacionan.
8.- ¿Qué es la Frecuencia?
Es el número de veces que búscan nuestra Web en Google.
Número de veces que sale nuestra Web en un buscador.
Es el número de veces que el término de búsqueda aparece en el área
del contenido de nuestra Web.
9.- ¿Qué es el peso?
El peso es el total de Kilobytes que pesa mi Web.
El peso es el porcentaje que el término de búsqueda representa sobre
el total de palabras en la página o el área analizados.
El peso se mide en función de cada Web y tiene que ver con las
palabras claves.
28. Herramientas de optimización y
evaluación
En esta lección, trataremos de conocerlas herramientas necesarias para
conseguir el mejor posicionamiento de nuestra Web.
Primer paso
Herramientas de analítica Web
Práctica: Análisis de una Web
Primer paso
Para conocer el posicionamiento SEO desde un punto de vista analítico podemos recurrir a una serie
de herramientas que nos proporcionarán la información precisa necesaria. Antes de pasar a ver
algunas de las aplicaciones más conocidas y útiles vamos a hacer un glosario de términos.
Ranking:
Google PageRank (PR): Google ofrece una herramienta denominada “Page Rank”, un valor
numérico con el que se representa la importancia que una página Web tiene en Internet.
Este valor, mediante un análisis constante, sirve de referencia para determinar la posición de
un site dentro de los resultados de búsqueda. Cuanto mayor es el PR mayor es la
importancia de nuestro site.
Technorati: es un motor de búsqueda de Internet para buscar blogs. Esta aplicación utiliza y
contribuye al software de código abierto mediante una comunidad de desarrolladores
activa, a la que pertenecen muchos desarrolladores de la cultura del software libre. Visite
este enlace y recibirá más información acerque de lo que es un motor de búsqueda :
http://es.wikipedia.org/wiki/Motor_de_b%C3%BAsqueda
Si desea ampliar la información acerca del termino código abierto o software libre:
http://es.wikipedia.org/wiki/Open_source
Alexa: Alexa es una Web de www.amazon.com, que ofrece información acerca de la
cantidad de visitas que recibe un sitio Web. Ofrece unos datos fiables y objetivos, por lo que
su consulta es imprescindible a la hora de realizar el seguimiento de visitantes de un site.
29. Si desea instalar la barra de herramientas de Alexa: http://www.alexa.com/site/download
DMOZ:. También conocido como Open Directory Project (ODP), es un proyecto colaborativo
en el que editores voluntarios categorizan enlaces a páginas Web. El directorio de Google
está basado en el DMOZ, al cual añade la ordenación según el page rank de cada página
categorizada.
Si desea más información de este directorio: http://www.dmoz.org/World/Espa%C3%B1ol/
Index pages: Este valor indica la cantidad de links o enlaces propios que una Web tiene en
buscadores (links internos que van a otras secciones de la Web).
Backlinks: son los enlaces que recibe una determinada Web desde otras páginas.
Keywords: palabra clave o palabra que resume los contenidos de una Web. Son las palabras
que esperamos que los usuarios de buscadores usen para sus consultas.
W3C: son las siglas del World Wide Web Consortium,asociación que establece estándares
para las principales tecnologías sobre las que se basa Internet. Que un site cumpla las
normas del W3C va a significar una mejora sustancial en la eficiencia de su funcionamiento, y
ello contribuye a la mejora en su posicionamiento en buscadores.
RSS: Real Sindicate System:
Herramientas de analítica Web
WebCEO
Para las empresas o particulares que cuentan con una Web, WebCEO es una utilidad que te permite
hacer conocer los puestos que ocupas en motores de búsqueda y analizar el tráfico y las visitas a la
Web a fin de optimizar el contenido y diseño del sitio. Incorpora herramientas especializadas en
marketing de motores de búsqueda, análisis inteligente de tráfico Web, y mantenimiento óptimo del
sitio Web.
30. El programa te ayuda a encontrar las mejores palabras clave para búsquedas efectivas de tu página,
optimizar su contenido para alcanzar los mejores puestos en los motores de búsqueda (además de
realizar envíos masivos de tu URL a los mismos y comprobar periódicamente tu clasificación) o
analizar al detalle las visitas producidas en tu Web, entre otras cosas.
De esta manera podrás tener una idea exacta de cómo promocionar tu página de la mejor forma, qué
buscan tus clientes y qué es lo que menos les gusta, y cómo adaptar los servicios que ofreces a las
necesidades y demandas de tus visitas.
El programa también incluye un módulo que te permite modificar ficheros HTML y subirlos al
servidor FTP directamente desde WebCEO. Para conocer más acerca de Web CEO o descargarlo:
http://www.webceo.com/
Analytics, una herramientas imprescindible para nuestro site
Google pone a la disposición de webmasters una herramienta para empresas que proporciona
información sobre el tráfico del sitio Web desde distintos puntos de vista: patrones de
comportamientos, segmentación, horarios, páginas que visitan. Ofrece una serie de funciones
potentes, flexibles y fáciles de usar con las que analizar su tráfico y mejorar sus campañas de
marketing.
Web Analytics busca comprender lo que sucede en un sitio web usando técnicas de análisis de datos.
Nos permite desde medir el tráfico de una web de manera muy general o de manera especifica hasta
los niveles de análisis más complejos.
Analytis es una herramienta muy eficaz para reorientar la optimización del posicionamiento del site:
Permite analizar las palabras clave por las que los usuarios más nos visitan, aportando esto
un flujo de información que nos permitirá verificar si estos usuarios encuentran lo que
buscan o no en la web.
Muestra patrones de navegación y reebote de las páginas, que páginas son las más visitadas
y con que páginas los usuarios abandonan.
Nos genera listados de palabras clave, que podemos analizar en el contenido.
Analytics también nos permite establecer Indicadores Clave de desempeño (KPI – Key Performance
Indicators), que nos serán ultimes para medir el logro de los objetivos y metas del proyecto o
31. negocio:
Estos indicadores pueden ser:
Indicadores Básicos: indicandonos el número de visitas, usuarios únicos, páginas vistas,
origen,…
Indicadores Avanzados: Mostrando el porcentaje de abandono, páginas vistas por visita,
porcentaje de conversión, valor de objetivo por vista,..
Indicadores de Comercio electrónico: en cuantro a producto, servicio o información.Nos
mostraran información de la lealtad de nustros usuarios, porcentaje de visitas nuevas,
palabras clave, porcentaje de conversión...
Cómo Instalar Google Analytics:
1. Vaya a http://www.google.com/analytics/
2. Haga clic en registrate ahora mismo.
3. Podrá acceder a su cuenta de analytics si dispone de una cuenta de Google. Introduzca sus datos y
accederá al panel de control del analytics.
32. Haga clic en añadir sitio Web e itroduzca la Url de la web.
33. Pulse Finalizar. Automáticamente le mostrará un código, que deberá introducir en el pie de la página
Web.
Vuelva a su cuenta de Google analytics y hagaz clic en Finalizar.
Hay que tener en cuenta, que analytics es una fuente fiable de información a cerca de una web,
aunque no debemos olvidar que existen algunas razones por las que no debemos de olvidar otras
herramientas importantes para el SEO.
La primera de estas razones es que Analytics sólo registra la información en los navegadores que
ejecutan javascript. Esto proporciona información de calidad acerca de las tendencias del usuarios,
pero no detecta los comportamientos que los robots o arañas de los buscadores hacen en una web, y
esto para el posicionamiento es vital.
En segundo lugar, si solo confiamos en una fuente de datos, podemos caer en el error de nos darnos
cuenta de otros datos significativos que no aparecen en esta herramienta, por lo que es de vital
importancia tener siempre al alcance varios métodos de análisis SEO que proporcione información
diversa.
Si desea conocer más acerca de analytics: http://www.google.com/analytics/tour.html
Xinu Returns
Xinu Returns es una completa herramienta on-line que proporciona de manera resumida toda clase
de información técnica sobre un sitio Web y/o dominio que le indiquemos. Es ideal para un análisis
rápido SEO ya que podrás conocer sin dificultad elementos relevantes para el posicionamiento como
34. PageRank, Alexa Rank, enlaces entrantes, etc. que posee cualquier Web.
Si desea ampliar la información acerca de esta herramientas:
http://elgeek.com/xinu-returns-informacion-sobre-sitios-webs
Xinu Returns realmente brinda mucha información, entre la que podemos mencionar:
Ranking de la página en Google, Technorati, Alexa y DMOZ.
Imagen de captura de la página Web.
Estado del dominio (IP, autor, país…).
Información sobre los subscriptores de la página (Sindicación).
Validación de la página con los principales estándares (XHTML, CSS, RSS).
Número de páginas indexadas en los buscadores de Google, Google Images, Yahoo! y Live.
En este enlace podrá ver toda la información acerca de su Web: http://xinureturns.com/
Práctica: Análisis de una Web
Práctica: Análisis de una Web
Utilizaremos una herramienta fácil y eficaz que nos dará los elementos más
relevantes.
Acceda a la dirección: http://www.sitetrail.com/xinureturns.com
35. Dentro de Xinu, introduca la URL: www.mundoanimalia.com
Ahora resalte los elementos más importantes para el posicionamiento de una Web:
1. Google Page Rank (PR)
2. Tecnorati
3. Alexa
4. Dmoz
5. Index pages
6. Back links
7. Keywords
8. W3C
9. Rss
¿Dirías, con lo que has aprendido en esta lección, que esta página esta bien
posicionada?
36. 1.- ¿Qué es el Google Page Rank y para qué sirve?
El Page Rank es un valor numérico que Google atribuye a
nuestra Web y que servirá de referencia para determinar la
posición de un site dentro de los resultados de búsqueda.
Ambas respuestas son correctas.
El Page Rank es una herramienta de Google.
2.- ¿Alexa es un contador de visitas de nuestro site?
Ambas respuestas son correctas.
Sí, ofrece unos datos fiables y objetivos, es imprescindible a
la hora de realizar el seguimiento de visitantes de un sitio.
No.
3.- ¿Existe alguna herramienta que nos proporcione
información técnica y SEO acerca de un sitio Web?
Sí, Xinu Returns.
Ninguna de las respuestas es correcta.
No
4.- ¿Es importante saber más sobre las visitas que recibimos
en nuestra Web?
Sí, con Google analytics podremos analizar su tráfico y
mejorar nuestras campañas de marketing.
Sí, con Google analytics obtenemos información acerca de
nuestras visitas y adaptaremos nuestro sitio en función a la
demanda, analizando el tráfico y pudiendo mejorar la campaña
de marketing.
No.
5.- ¿Es importantes darse de alta de DMOZ?
No, ya que es un directorio.
Sí, porque añade la ordenación según el page rank de cada
página categorizada.
Sí, el directorio Dmoz se basa en los resultados de búsqueda
de Google.
37. 1.- ¿Qué es el Google Page Rank y para qué sirve?
El Page Rank es un valor numérico que Google atribuye a nuestra
Web y que servirá de referencia para determinar la posición de un site
dentro de los resultados de búsqueda.
Ambas respuestas son correctas.
El Page Rank es una herramienta de Google.
2.- ¿Alexa es un contador de visitas de nuestro site?
Ambas respuestas son correctas.
Sí, ofrece unos datos fiables y objetivos, es imprescindible a la hora de
realizar el seguimiento de visitantes de un sitio.
No.
3.- ¿Existe alguna herramienta que nos proporcione información
técnica y SEO acerca de un sitio Web?
Sí, Xinu Returns.
Ninguna de las respuestas es correcta.
No
4.- ¿Es importante saber más sobre las visitas que recibimos en
nuestra Web?
Sí, con Google analytics podremos analizar su tráfico y mejorar
nuestras campañas de marketing.
Sí, con Google analytics obtenemos información acerca de nuestras
visitas y adaptaremos nuestro sitio en función a la demanda, analizando el
tráfico y pudiendo mejorar la campaña de marketing.
No.
5.- ¿Es importantes darse de alta de DMOZ?
No, ya que es un directorio.
Sí, porque añade la ordenación según el page rank de cada página
categorizada.
Sí, el directorio Dmoz se basa en los resultados de búsqueda de
Google.
38. Optimiza el diseño y la
programación de su Web
La optimización de una Web se basa en unos algoritmos que cambian y se perfeccionan
constantemente. Sin embargo existen una serie de prácticas comprobadas a lo largo de los
últimos dos años. Los mecanismos algorítmicos que yacen bajo ellas se caracterizan por
permanecer estables a lo largo del tiempo. Son conocidas como "los mandamientos" y
reconocidas como parte del "core" del algoritmo común a todos los buscadores por
ingenieros y matemáticos de los principales motores en las cada vez más conferencias y
encuentros internacionales entre hackers y diseñadores de buscadores en los que cada vez
más se prodiga la comunidad de expertos ("hacker" =experto informático).
Rastreo de un sitio Web
Elementos On-Page
Robots, nofollows y otros
Mapa del sitio
URL amigable
Linking interno
Programación en CSS
Práctica: Analisis de una Web según criterios de SEO
Rastreo de un sitio Web
Uno de los aspectos más importantes a tener en cuenta a la hora de posicionar un sitio Web
es conocer los criterios que utiliza el Robot o crawler del motor de búsqueda en relación con
las diferentes partes del documento HTML.
A continuación vamos a definir la estructura típica de un documento HTML y seguidamente
veremos cómo ésta puede afectar a su posicionamiento.
Esta es la típica estructura de un documento HTML:
<HTML>
<HEAD>
39. <!-- información de cabecera utilizada para contener información adicional acerca de este
documento, y que no se muestra en pantalla -->
</HEAD>
<BODY>
<!-- todo el HTML a visualizar -->
::
::
::
</BODY>
</HTML>
Elementos On-Page
Llamaremos elementos On Page a los que dependen directamente de la aplicación en nuestra Web.
Estos factores normalmente se aplican por técnicos de las Web, aunque es necesario conocerlos
cuando se trabajan o se plantean nuevas categorías dentro de la Web.
Como hemos comentado anteriormente, los crawlers o robots de los buscadores dan la importancia
que se merecen a los elementos HTML que encontraremos dentro del código de nuestro sitio Web.
Eso implica una gran concordancia entre estos elementos y las Keywords relevantes en nuestro
sector.
A. Información de la cabecera
El primer elemento de un documento es la etiqueta <HEAD>, es decir, la cabecera del documento.
En esta etiqueta se encuentra toda la información que va a describir las características del
documento: título, descripción, palabras clave, Copyright, autor...
En el área del header encontraremos algunos elementos que a continuación analizaremos en
profundidad:
- Título de máximo 5 palabras en el que la primera sea tu palabra clave objetivo.
- Metatag de descripción igual al título.
- Metatag de palabras clave con las mismas 5 palabras separadas por comas.
40. B. Área del título
<TITLE>: Esta etiqueta transmite al robot el título de la página, por lo que se deben incluir en éste las
palabras clave por las que queremos que nuestro sitio sea encontrado. La extensión del título no
debe superar los 75 caracteres.
A continuación mostraremos donde se ubica el titulo en una web:
Área de metainformación
Es la encuadrada dentro de las etiquetas <META>. Esta es una etiqueta genérica de información
adicional, tuvo su época dorada cuando Altavista lideraba el mundo de los buscadores, aunque
ahora ha perdido parte de su relevancia. Su sintaxis es <META NAME="nombre del atributo"
CONTENT="variables o directrices">
Los principales atributos del Área de Metainformación son los siguientes:
DESCRIPTION: Es la descripción de lo contenido en el documento. En ella se ha de reflejar en
pocas frases, la síntesis de todo el documento, toda la información.
KEYWORDS: son las palabras clave. Facilitan al buscador información del documento,
indicándole las palabras más importantes por las que quiere ser encontrado en un buscador.
41. En este enlace podrá ver las Keywords de si Web:
http://www.webconfs.com/website-keyword-suggestions.php
Ejemplo de una etiqueta "keywords" de la página http://www.ienrformacion.es/
<META NAME="Keywords" CONTENT="Formación, Formacion barcelona, Formación Bcn, Formación
subvencionada Barcelona, Formación Subvencionada, subvenciones catalunya , cataluña, barcelona
subvenciones, cursos gratis barcelona, cursos, cursos barcelona, IenR formación, grupo IenR,
Formación técnica, formación jlg, habilidades directivas, conocimientos sectoriales, ofimática, RRHH
y management, Idiomas, Contabilidad y finanzas, Productividad, Técnica, Procesos de selección,
prevención y riesgos de salud laboral, Conocimientos sectoriales, Posicionamiento Google">
Siguiendo con el ejemplo donde hemos visto la descripción que nos muestran los buscadores en sus
resultados, comprobaremos que efectivamente en el código fuente de la página se ve el mismo
contenido. Podremos ver tambien, las Meta Keywords y las Meta decriptions:
1. Abra el navegador Firefox y teclee la Url www.pelotazo.com y presione Intro.
2. Una vez en la página Web, vaya a la barra del navegador pestaña Ver, y haga clic en Código
fuente de la página.
Abrimos la página, visualizando el código completo, fijémonos en el código de la cabecera.
42. El DOCTYPE: es la explicación de que tipo de código HTML / XHTML vas a encontrar en el
sitio. Con esto ayudas al navegador a que muestre el sitio de una forma correcta. Es un
elemento obligatorio en los sitios Web. Además puede llegar a indicar si un sitio está
pensado para verse en un tipo de plataforma u otro (como por ejemplo el especificar el
formato XHTML para móviles).
STYLESHEET: indica la dirección URL del CSS (Hojas de Estilo). Este parámetro es opcional,
aunque se recomienda hacer uso de CSS.
LINK ALTERNATE: indica la dirección XML del feed (sindicación de contenidos). Este
parámetro es opcional, aunque si la página dispone de noticias o información actualizada se
recomienda hacer uso del mismo ya que ayudará a los buscadores específicos de blogs.
En principio todos estos son suficientes para que la cabecera del sitio sea lo más estándar para los
robots de búsqueda, navegadores y usuarios.
Gran parte de estos elementos son los que aparecen en los resultados de búsqueda (título,
descripción…) y que hay que tenerlos muy estudiados ya que son los que los usuarios encuentran.
C. Información del cuerpo de la página
La otra parte del documento queda encuadrada en lo que se denomina el cuerpo de la página Web,
(todo lo que está entre <BODY> y </BODY>. Dentro de esta estructura aparecerán todos los
elementos visibles por el usuario fotos, texto, animaciones...
Área del cuerpo o contenido
La disposición de los elementos HTML y el contenido dentro de la página es relevante para los
robots. Un texto ubicado al principio del código fuente HTML es más relevante que un texto que
aparece el pie del mismo. Es importante aclarar, que, cuando hablamos de código HTML no estamos
43. hablando de algo perceptible para nuestros usuarios, como hemos visto anteriormente.
Esta disposición es muy importante para la correcta indexación de nuestros contenidos, este código
de alguna manera también ha de ir limpio y con la disposición correcta de los elementos que a
continuación explicaremos como (hojas de estilo CSS, H1, negritas….).
El texto del documento, que como hemos dicho va incluido en el "body", puede jerarquizarse
(aunque la mayoría de diseñadores lo consideren "anticuado", los robots no). La manera óptima de
especificar dicha jerarquía es mediante las etiquetas <H1>, <H2>, <H3>, <H4>, <H5> y <H6>. Al
conjunto de texto incluido dentro de estas etiquetas les llamaremos "Área de Cabeceras" (del inglés
"header").
Como hemos comentado, el contenido de los titles, metas y el resto de etiquetas que hemos
nombrado y que veremos a continuación han de aparecer destacas en el código fuente de la página
así, como en los diferentes puntos de la web.
En este caso, el title de la página es el nombre en concreto del perro: Airedale Terrier – Perros. El
title que además corresponde con el H1 de la página, le indica al robot que esta es el elemento más
importante de la página y que el contenido que va a encontrar en ella se refiere a eso.
44. A partir de aquí encontramos numerosas palabras en negrita, correspondientes al nombre del perro.
Con esto de indicamos al crawler la relevancia de esta palabra en concreto.
Encontramos otras etiquetas como el H2 que un contenido no tan relevante como : ellos lo son,
remarcado también en la imagen.
Algunas especificaciones a tener en cuenta:
Empieza y termina la página (tal como la lee el boot) con un texto que describa en 5
palabras tu Web. La primera de ellas tiene que ser tu palabra clave.
No abuses de las imágenes ni del texto alternativo de estas. Pon como texto alternativo de
la primera de ellas en orden de lectura en el código tu palabra clave.
Usar etiquetas <H1>. Algunos buscadores como Google no sólo miden el área de cabecera
sino que distingue entre sus distintas jerarquías.
Incluye también el término de búsqueda como primera palabra del primer texto
hiperenlazado de tu página.
Otros buscadores, como Google, consideran el área de negritas y los tamaños de letra.
Destacar tus palabras clave en negrita en el texto e incluso en un tamaño de letra mayor que
el resto ayuda.
Utiliza ampliamente la palabra clave en el texto "normal de tu página" sobre todo en su
tercio superior, aunque tampoco abuses (por ejemplo no lo uses varias veces en una fila de
tabla).
La proporción entre código y texto cuenta. Aunque se discute si directamente o por el
efecto sobre otras variables, abusar de las líneas de código javascript o crear páginas
intermedias de cookies o redirecciones consigue dañar seriamente el posicionamiento de tu
página.
Google también puntúa las URLs. Ayuda tener un dominio que incluyan tu palabra clave;
recuerda que no separa las palabras, por ejemplo el dominio www.saludytecnologia.com no
aporta nada al posicionamiento con la palabra "salud" aunque www.salud-ytecnologia.com
si. Sin embargo, los subdominios o directorios en la palabra clave también ayudan como
sería www.saludytecnologia.com/salud).
Texto alternativo
Es el texto que se asocia a la imagen mediante el atributo ALT de la etiqueta <IMG SRC>. Es una de
las áreas más sensibles y menos cuidadas por los diseñadores que no siguen los estándares de
usabilidad.
45. <img title="Armario del siglo XIX con un estilo contemporáneo"
src=”http://misitio.ext/imagen/armario-XIX-contenporaneo.gif”
alt=”armario siglo XIX contemporáneo” />
http://www.marketingconsulting.es/
Texto hiper enlazado
Es el conjunto de texto de la página que aparece entre etiquetas <a href="URL"> y </a>
Área de comentarios
Aún existen un par de buscadores que analizan el código de los comentarios que, de modo invisible
para los usuarios, los programadores colocan para otros programadores dentro del código.
La etiqueta de comentarios sigue el siguiente formato: <!-- Texto del comentario -->
Etiquetado
<p> - usada para distinguir lo diferentes párrafos. Acostumbra a usarse para definir o explicar
conceptos importantes. Se trata de una etiqueta usada en webs muy concretas (por ejemplo
diccionarios online o glosarios profesionales) ya que causa espacios en blanco en algunos
navegadores, especialmente FireFox.
<strong> - destaca una palabra clave al poner el texto en negrita. Hay la variante <b>, pero que no
es aconsejada por el W3C.
Otras etiquetas
<abbr> - indica que el texto es una abreviatura (WWW, HTTP, URI…).
<acronym> - indica que el texto es un acrónimo (WAC…).
46. <address> - indica una dirección postal.
<big> - marca que el texto ha de tener un tamaño mayor.
<blockquote> - se utiliza de forma muy similar al <cite>.
<cite> - contiene una cita o referencia de otro texto.
<code> - indica que el texto es un fragmento de código informático.
<del> - marca que el texto ya no tiene valor. Suele acompañar a <ins>.
<dfn> - marca la definición de una palabra o frase.
<em> - es la etiqueta para indicar énfasis en un texto (cursiva). Se puede usar también <i>.
<i> - es la etiqueta para indicar énfasis en un texto (cursiva). Se puede usar también <em>.
<ins> - marca que el texto es nuevo con respecto al original. Suele acompañar a <del>.
<kbd> - indica texto que el usuario debe introducir en su ordenador.
<pre> - para mostrar texto sin formato.
<q> - muy similar a <cite>, pero para fragmentos muy cortos (normalmente en una misma
línea).
<samp> - código que daría un ordenador.
<small> - marca que el texto ha de tener un tamaño menor.
<sub> - indica que el texto está por debajo del normal.
<sup> - indica que el texto está por encima del normal.
<tt> - marca que el contenido tiene formato teletipo.
<var> - marca el texto como si fuera una variable.
Robots, nofollows y otros
A parte de la navegación natural que un crawler puede hacer en nuestro sitio Web, disponemos de herramientas
para especificarle que queremos que indexe y que no.
Robots.txt
El robots.txt es un archivo de texto plano en el que podemos especificar diferentes instrucciones a los crawlers
de los buscadores:
47. Ejemplo: Para identificar a los crawlers usaremos el User-agent: *
User-agent: *
Disallow: /view_content.cfm (No permite el acceso a la pagina
content.cfm)
Disallow: /view_content.cfm?* (no permite el acceso a las paginas
content.cfm seguidas de cualquier parámetro –
(view_content.cfm?param1=value1))
NowFollow
En el mismo sentido, nuestra Web contendrá enlaces por lo que si no queremos que los robots los indexen habrá
que aplicar un NowFollow a un enlace, basta con añadir al código del mismo una relación “now follow”
(rel=nofollow).
Para destacar los enlaces con nowfollow existe una aplicación de firefox que podréis encontrar en el siguiente
enlace: http://www.quirk.biz/searchstatus/
A continuación mostramos los enlaces que no indexan:
48. Mapa del sitio
El mapa del sitio es una lista de vínculos a las diferentes páginas de la propia Web. De esta manera, la página
ayuda a los buscadores para que encuentren dónde está situado cada contenido. Para facilitar el trabajo a
los robots:
Archivo “sitemap”: es un archivo XML con una estructura específica que facilita a los crawlers
información sobre el contenido que tenemos y con que periodicidad se actualiza. Así, se generará el
archivo XML llamado sitemap.xml y se insertará en el directorio raíz. Ejemplo:
www.apple.com/es/sitemap
URL amigable
Podríamos hacer una clasificación simple de dos tipos de direcciones Web: las que llevan
“identificadores” y las que no. Llamemos URL amigable a aquella que se estructura mediante
identificadores en el texto que nos permiten saber de que se trata la Web.
Vea que URL es amigable y cuál no:
Linking interno
Entendemos por Linking interno el conjunto de enlaces que apuntamos a nuestro site, desde el
mismo. Anteriormente, hemos visto que es importante ofrecer a los robots enlaces con los que acceder
a toda la información que queremos indexar, para ello es imprescindible estructurar un sistema de
Linking interno que facilite la navegación a través de nuestro sitio.
Una buena estrategia de Linking interno generará flujo natural del crawler a través de nuestro sitio y
potenciará la indexación.
Las claves para generar un buen Linking interno son:
Enlazar con buenos anchor text* (optimizados y coherentes con las Keywords de nuestro
sector así como, con el contenido que mostramos).
Hacer un buen uso de los Now follow, para priorizar unos enlaces frente a otros.
Crear enlaces con rutas absolutas.
49. Intentar contextualizar enlaces: crear enlaces en medio de un texto.
En la imagen que se puede ver a continuación, vemos los links internos remarcados. Como se puede
apreciar muchos de estos links están contextualizados con Keywords. Esto fomenta por un lado, la
densidad de palabras clave y por otro la navegación tanto del usuario como del crawler.
En este articulo de la Wikipedia podemos ver varios anchor contextualizados, por ejemplo, Harry
Potter.
50. * Un anchor text es el texto o palabra con la que hacemos un link.
Programación en CSS
Las tablas existen desde el comienzo en HTML, pero no se crearon para diseñar un sitio, sino
para la presentación de datos tabulares.
La utilización de “border=0” y las imágenes transparentes hicieron posible crear una rejilla
que permitió a los diseñadores organizar textos e imágenes, establecer tamaños y ubicar
objetos. Pero esto es sencillamente incorrecto. Las tablas no se crearon para maquetar y no
deben utilizarse para eso, porque de esta forma se mezclan presentación y contenido, y lo que
es importante, este es el factor principal por el cual los robots de buscadores no leen bien las
webs con tablas.
La solución es clara: CSS+HTML. Algunas de las ventajas de la maquetación con CSS:
Separación de forma y contenido. Generalmente CSS y HTML se encuentran en
archivos separados, lo que facilita el trabajo en equipo porque diseñador y
programador pueden trabajar independientemente. Por otro lado, permite el acceso a
distintos navegadores y dispositivos.
Tráfico en el servidor. Las páginas pueden reducir su tamaño entre un 40% y un 60%,
y los navegadores guardan la hoja de estilos en la caché, esto reduce los costos de
envío de información.
Tiempos de carga. Por la gran reducción en el peso de las páginas, mejora la
experiencia del usuario, que valora de un sitio el menor tiempo en la descarga.
Precisión. La utilización de CSS permite un control mucho mayor sobre el diseño,
especificando exactamente la ubicación y tamaño de los elementos en la página.
También se pueden emplear medidas relativas o variables para que la pantalla o la caja
contenedora se acomode a su contenido.
Mantenimiento. Reduce notablemente el tiempo de mantenimiento cuando es
necesario introducir un cambio porque se modifica un solo archivo, el de la
presentación, sin tener que tocar las páginas que contienen la estructura con el
contenido.
Diseño unificado y flexibilidad. Es posible cambiar completa o parcialmente el
aspecto de un sitio con sólo modificar la hoja de estilos. Por otro lado, el tener el estilo
de una Web en un solo archivo permite mantener la misma apariencia en todas las
páginas.
Posicionamiento. Las páginas diseñadas con CSS tienen un código más limpio porque
no llevan diseño, sólo contenido. Esto es semánticamente más correcto y la página
aparecerá mejor posicionada en los buscadores. Google navega obviando el diseño.
Práctica: Análisis de una Web según criterios de SEO
Práctica: Análisis de una Web según criterios de SEO
51. Analizarremos si la Web mundo animalia esta optimizada para SEO según los siguientes
criterios:
¿Dispone de todos los elementos en el header?
Abra el navegador e introducir en el campo de la URL: www.mundoanimalia.com
Una vez abierta la página en el navegador, vaya a la pestaña Ver > Código fuente de la
página.
A continuación se abrirá en otra ventana el código fuente de la página. Enmarque los
siguientes ítems: META NAME- META DESCRIPTION
Comprobará que no dispone de todos los elementos en el header, falta Title. Pero eso,
siempre dependerá de cada página.
Haga el mismo proceso, con algunas páginas que visite a menudo y vea, que entre ellas
existen muchas direncias en el código.
52. 1.- ¿Influye el tiempo de carga de nuestra Web en el posicionamiento?
No.
Sí, la optimización de nuestra Web para un buscador viene determinada por factores como el
tiempo de carga del sitio.
Si, porque mejora la experiencia del usuario.
2.- ¿Qué es una URL amigable?
La Web recomendada por un amigo.
Es aquella que se estructura mediante identificadores en el texto que nos
permiten saber de que se trata la Web.
Las Web que ponemos en nuestros Favoritos.
3.- ¿Cuáles son los elementos más importantes para un robot?
La estructura del cuerpo, área de la cabecera, los textos alternativos, las negritas,
los H1, h2,….
La cabecera donde se describen las características del documento.
Ambas respuestas son correctas.
4.- ¿Qué es un crawler, spider o robot?
Ambas respuestas son correctas.
Ninguno de estos conceptos tiene el mismo significado.
Un Crawler, spider o robot son los nombres comunes para llamar los
analizadores de Web que usan los buscadores para analizar Web.
5.- ¿Tiene nuestra Web que estar programada en CSS?
Sí, es importante que nuestra Web se programe mediante tablas y javascript.
Sí, el recomendable programar mediante CSS, ya que nos permitirá separar la
forma del contenido, disminuir los tiempos de carga de la web, reducir los costes de
mantenimiento y mejorar el posicionamiento.
No, dependerá del programador.
53. 1.- ¿Influye el tiempo de carga de nuestra Web en el
posicionamiento?
No.
Sí, la
optimización
de nuestra
Web para un
buscador
viene
determinada
por factores
como el
tiempo de
carga del sitio.
Si, porque
mejora la
experiencia
del usuario.
2.- ¿Qué es una URL amigable?
La Web recomendada por un amigo.
Es aquella que se estructura mediante identificadores en el texto que
nos permiten saber de que se trata la Web.
Las Web que ponemos en nuestros Favoritos.
3.- ¿Cuáles son los elementos más importantes para un robot?
La estructura del cuerpo, área de la cabecera, los textos alternativos,
las negritas, los H1, h2,….
La cabecera donde se describen las características del documento.
Ambas respuestas son correctas.
4.- ¿Qué es un crawler, spider o robot?
Ambas respuestas son correctas.
Ninguno de estos conceptos tiene el mismo significado.
Un Crawler, spider o robot son los nombres comunes para llamar los
analizadores de Web que usan los buscadores para analizar Web.
5.- ¿Tiene nuestra Web que estar programada en CSS?
Sí, es importante que nuestra Web se programe mediante tablas y
javascript.
Sí, el recomendable programar mediante CSS, ya que nos permitirá
separar la forma del contenido, disminuir los tiempos de carga de la web,
reducir los costes de mantenimiento y mejorar el posicionamiento.
No, dependerá del programador.
54. Los contenidos de su Web
Los contenidos de una Web se deben preparar dándole forma según el código HTML y
destacando, en todo caso las Keywords de forma correcta.
Contenidos
Elementos externos - link building
Elementos no reconocidos en el contenido
Lo que no hay que hacer
El efecto Sandbox
Optimización para varios buscadores
Práctica: Posicionamiento de un texto en la Web
Contenidos
La clave para una buena indexación son los contenidos: contenidos de calidad y optimizados
para las Keywords que queramos posicionar y que sean relevantes en nuestro sector.
Los contenidos de una Web se deben preparar dándole forma según el código HTML y
destacando, en todo caso las Keywords de forma correcta. Es bueno, que en toda nuestra
Web repitamos de forma constante las Keywords de interés, sin caer en lo absurdo. Es muy
importante que la repetición de estas palabras se vea como algo natural y no como algo
forzado o preparado para los robots, ya que de ser así, podemos ser penalizados por
sobrecargar la página.
Si realizamos contenido de calidad o interés fácilmente recibiremos enlaces de otras webs,
que nos ayudaran a mejorar el posicionamiento.
*La densidad de palabra para la Keywords Nero 9 en el texto extrado de Softonic es elevada,
sin llegar a ser forzada.
55. En el caso de los textos suplementarios en la Web, serian igualmente óptimos si no llevaras
esas palabras clave, aun así, reforzaremos la densidad si los incluimos.
Vemos también en la misma página que existen etiquetas optimizadas en otros apartados del
site:
56. Contenidos especiales: imágenes
Cada vez más, las imágenes son una fuente importante de tráfico para las Web. Para
posicionar correctamente nuestras imágenes es necesario facilitar su lectura y comprensión o
interpretación por parte de los crawlers, por lo que deberemos:
Incluir los textos alternativos en las imágenes, que describan la imagen sin
sobrecargarlo de palabras clave de forma innecesaria (atributo “Alt”).
Usar las palabras clave en el texto que colinda en el HTML con la imagen.
Usar la Keywords en el nombre de la imagen, o en la ruta hacia la misma.
Igual que en el contenido del texto, es importante usar imágenes de calidad que harán que se
vea más claro para el crawler en su listado de imágenes. Las imágenes deberían ser propias
para evitar la duplicidad de contenido, y si usamos imágenes de otros sitios es importante
alterarlas con marcas de agua, redimensionándolas o recortándolas para evitar que se
consideran duplicadas. Es bueno enlazar las imágenes pequeñas, con imágenes mayores y de
mejor resolución.
57. Elementos externos - link building
El link building es la estrategia previamente planificada para conseguir enlaces que nos permitan
posicionar nuestras páginas en los buscadores. Por lo tanto, se trata de conseguir cuantos más
enlaces mejor y de la mayor calidad posible. Los enlaces no son el fin, son el medio para aparecer en
lo alto de los buscadores.
El link building es el mecanismo de conseguir enlaces de forma artificial pero simulando que lo
hemos hecho de forma natural.
Una vez que tenemos preparado nuestro sitio perfectamente optimizado hay que empezar con el
trabajo de conseguir enlaces. El link Building es útil para absolutamente cualquier Web de Internet
que pretenda recibir tráfico de los buscadores, aunque es especialmente necesario para webs
comerciales que venden productos y que difícilmente recibirán enlaces. Éste es uno de los motivos
del éxito de los blogs: los blogs, como veremos más adelante, son un herramienta excepcional para
generar enlaces.
Claves para conseguir enlaces:
1. Qué y cuántos enlaces necesito - hay que tener claro qué términos queremos posicionar,
qué tipo de enlaces necesitamos, cuántos enlaces y en cuánto tiempo. En el caso de la
mayoría de webs la respuesta es sencilla: cuantos más mejor, siempre que sean naturales.
2. Cómo conseguir enlaces - una vez que sabemos lo que queremos, hay que plantear las
estrategias. Estudiaremos los tipos de técnicas y mecanismos para conseguir enlaces.
3. Tiempo - un buen enlace apunte a nuestra Web, con las palabras adecuadas y a donde
queremos, no significa que automáticamente nuestro contenido suba. Es un proceso largo.
Los enlaces son más importantes por su antigüedad que por su PageRank. Las
actualizaciones de Google suelen ser cada tres meses. Si el sitio es nuevo, hay que
mantenerse acumulando buenos enlaces durante meses para ver resultados.
No se preocupe si va consiguiendo enlaces pero no ve resultados. Llega un punto en que de repente,
tu duro trabajo durante meses da resultado, Google empieza a mandarte miles de visitas. Imagínate
la alegría. Pero para eso hay que trabajar duro y bien.
Páginas que poseen listado de directorios atractivos para construir popularidad Web:
58. www.xeoweb.com/foro/tema-1104.html
www.forobuscadores.com/recursos/index.php?m=c&c=7
www.directory-pages.com/tier2.htm
www.directoryarchives.com/index.php
www.isedb.com/
www.goguides.org/
www.strongestlinks.com/directories.php
Técnicas para el Link Building
Link Baiting - Es la estrella del link building. Es la forma más efectiva, la mejor valorada por
los buscadores, absolutamente legal y la más recomendable. Por desgracia, también es muy
difícil de conseguir. Solo recibirás cientos de enlaces a tu Web si ésta aporta algo
absolutamente de valor.
Consiste en conseguir muchos enlaces en muy poco espacio de tiempo (dos o tres días). Se
consigue sobretodo por sitios como Menéame (http://meneame.net), en los que un enlace
que aparezca allí hace que llegue mucho tráfico, y por ello otra gente enlace a tu sitio Web
porque le resulte
Autoenlaces - buena parte de los enlaces que apuntan a cualquiera de las páginas con las
que competimos son enlaces internos: secciones y páginas de la misma Web que apuntan a
la principal del dominio. No se trata de un error. La popularidad también sirve para premiar
a las webs con muchos contenidos... que sepan organizarlos bien. Es recomendable dar
enlace a todas las novedades en la página principal, así como a las cabeceras de sección,
dónde a su vez, deberíamos poder dar un acceso directo a todos los contenidos del tema. La
plantilla del sitio también debe estar pensada desde esta lógica: que desde cualquier página
del sitio pueda irse con un sólo clic a la cabecera de otra sección. Que nada quede a más de
dos clicks de nada. Otra recomendación importante en este sentido es que el texto
hiperenlazado que remite a una sección, así como el nombre del subdirectorio en que se
guarda la sección, incluyan el título de una palabra clave secundaria interesante.
Directorios - No hay que subestimar los directorios. Aparecer en directorios es positivo si
son buenos directorios. Especialmente los que no te obligan a devolver el enlace. También
hay varios tipos.
Intercambio de enlaces - Sin duda una buena forma de conseguir enlaces, y probablemente
la primera que apareció. También hay muchos tipos de intercambios y servicios.
Compra de enlaces - Más efectiva que el intercambio, pero también más cara.