El documento resume la historia y evolución de Internet. Comenzó en 1969 como una red militar estadounidense llamada ARPANET que conectaba 4 universidades. ARPANET creció y evolucionó en protocolos más avanzados como TCP/IP. Posteriormente surgió la red académica NSFNET que absorbió a ARPANET y formó la base de lo que hoy conocemos como Internet, permitiendo el acceso público. Internet ha continuado expandiéndose y actualizando su infraestructura y tecnologías con el objetivo de satisfacer la cre
2. HISTORIA DEL INTERNET
Los inicio de Internet nos remontan a los años 60. En plena guerra fría,
Estados Unidos crea una red exclusivamente militar, con el objetivo de
que, en el hipotético caso de un ataque ruso, se pudiera tener acceso a
la información militar desde cualquier punto del país.
Este red se creó en 1969 y se llamó ARPANET. En principio, la red
contaba con 4 ordenadores distribuidos entre distintas universidades
del país. Dos años después, ya contaba con unos 40 ordenadores
conectados. Tanto fue el crecimiento de la red que su sistema de
comunicación se quedó obsoleto. Entonces dos investigadores crearon
el Protocolo TCP/IP, que se convirtió en el estándar de comunicaciones
dentro de las redes informáticas (actualmente seguimos utilizando
dicho protocolo).
ARPANET siguió creciendo y abriéndose al mundo, y cualquier persona
con fines académicos o de investigación podía tener acceso a la red.
Las funciones militares se desligaron de ARPANET y fueron a parar a
MILNET, una nueva red creada por los Estados Unidos.
La NSF (National Science Fundation) crea su propia red informática
llamadaNSFNET, que más tarde absorbe a ARPANET, creando así una gran
red con propósitos científicos y académicos.
El desarrollo de las redes fue abismal, y se crean nuevas redes de
libre acceso que más tarde se unen a NSFNET, formando el embrión de
lo que hoy conocemos como INTERNET.
En 1985 la Internet ya era una tecnología establecida, aunque conocida
por unos pocos.
El autor William Gibson hizo una revelación: el
5. En diciembre de 1969, nació una red
experimental con la conexión de cuatro nodos
a través de circuitos de 56 Kbps. La nueva
tecnología resultó ser altamente exitosa y
condujo a la creación de dos redes militares
similares: MILNET, en los Estados Unidos, y
MINET, en Europa.
Hacia 1985, ARPANET era altamente utilizada y
estaba cargada de atascos. En respuesta la
National Science Foundation (Fundación
Nacional de Ciencia) inicio la fase 1 del
desarrollo de la NSFNET. La NSFNET estaba
compuesta por múltiples redes regionales y
redes entre iguales (como la red de ciencia de
la NASA) conectadas a un gran backbone que
constituía el núcleo de toda la NSFNET.
En su forma primitiva, en 1986, la NSFNET, creó
una arquitectura de red más distribuida, de
tres capas. Esta arquitectura conectaba
6. En 1990, Merit, IBM y MCI iniciaron una nueva
organización conocida como redes y
servicios avanzados (ANS). El grupo de
ingeniería de Merit proporcionó una serie de
base de datos de políticas y servicios de
consultoría y administración de
enrutamiento para la NSFNET, mientras que
ANS operaba los routers del backbone y un
centro de operaciones de red (NOC).
Hacia 1991, el trafico de datos se había
incrementado enormemente, lo que hizo
necesario actualizar el servicio de red del
backbone de la NSFNET a enlaces T3 (45
Mbps).
En Estados Unidos, las redes agencias
gubernamentales se interconectaron a los
puntos de intercambio federal en internet
(FIX)
7. Los proveedores que tienen POP por todo los
Estados Unidos se denominan habitualmente
proveedores nacionales. Los que cubren regiones
específicas, o proveedores regionales, conectan a
otros proveedores en uno o más puntos. Para
permitir que los clientes de un proveedor enlacen a
los clientes conectados a otro proveedor, el trafico
se intercambia en punto de acceso a la red (NAP)
públicos, o a través de interconexiones directas.
Volviendo a la historia en 1992, la NSF quería
desarrollar una petición de seguimiento que
acomodara y promoviera el papel de proveedores
de servicios comerciales que configurarían la
estructura de un nuevo y más robusto modelo de
internet. Al mismo tiempo la NSF desistiría del actual
funcionamiento de la red principal y se enfocaría en
aspectos de investigación e iniciativas.
Pero que es un NAP, en términos de NSF, un NAP es un
switch de alta velocidad o una red de switches a los
que pueden estar conectados un cierto número de
routers para intercambiar tráfico. Los NAP deben
trabajar a velocidades, de al menos, 100 Mbps y debe
8. Las redes adjuntas a los NAP tienen que trabajar
a velocidades proporcionales a la velocidad de
las redes acopladas (1.5 Mbps o superior), y
tiene que ser actualizada según la demanda, el
uso y los objetivos del programa lo requiera. A
los NAP premiados por la NSF se les pedía ser
capaces de conmutar tanto IP como CLNP
(protocolo de red sin conexiones). Los
requisitos para intercambiar paquetes CLNP y
para implementar procedimientos basados en
IDRP (protocolo de enrutamiento entre
dominios, protocolo de gateway exterior ISO
OSI) podrían abandonarse dependiendo del nivel
del servicio en conjunto proporcionado por el
NAP.
Durante las primeras fases de transición desde
ARPANET al backbone de la NSFNET, fueron
creados para proporcionar ínter conectividad.
Rápidamente se convirtieron en importantes
puntos de interconexión para el intercambio de
9. Las configuraciones físicas actuales de un NAP es una mezcla
de switches FDI, ATM y Ethernet (Ethernet, Fast Ethernet y
Gigabit Ethernet). Los métodos de acceso varían desde FDI y
Gigabit Ethernet hasta DS3, OC3 y ATM OC12.
Mientras internet continúa creciendo, la enorme cantidad de
tráfico intercambiado entre grandes redes está haciendo que
muchos NAP no puedan soportarlo. A menudo, los problemas
de capacidad de los NAP se traducen en pérdidas de datos e
inestabilidad. Por dichas razones, durante los últimos años ha
evolucionado una alternativa a los NAP para la interconexión
de proveedores de servicios: las interconexiones directas.
La idea que se esconde tras ellas es simple. Mediante el
suministro de enlaces directos entre redes y evitando
totalmente los NAP, los proveedores de servicios pueden
reducir los tiempos de aprovisionamiento, incrementar la
fiabilidad y escalar consideradamente la capacidad de
interconexión.
10. WEB 2.0
El término Web 2.0 comprende aquellos sitios web
que facilitan el compartir información,
lainteroperabilidad, el diseño centrado en el
usuario1 y la colaboración en la World Wide Web.
Un sitio Web 2.0 permite a los usuarios interactuar
y colaborar entre sí como creadores de contenido
generado por usuarios en una comunidad virtual, a
diferencia de sitios web estáticos donde los
usuarios se limitan a la observación pasiva de los
contenidos que se han creado para ellos. Ejemplos
de la Web 2.0 son las comunidades web,
los servicios web, lasaplicaciones Web,
los servicios de red social, los servicios de
alojamiento de videos,
laswikis, blogs, mashups y folcsonomías.
El término Web 2.0 está asociado estrechamente
con Tim O'Reilly, debido a la conferencia sobre la
Web 2.0 de O'Reilly Media en 2004.2 Aunque el
término sugiere una nueva versión de la World
Wide Web, no se refiere a una actualización de las
especificaciones técnicas de la web, sino más bien a
11. WEB 3.0
La Web 3.0 es un término que no termina de tener
un significado ya que varios expertos han
intentado dar definiciones que no concuerdan o
encajan la una con la otra pero que, en
definitiva, va unida a veces con la Web Semántica.
En lo que a su aspecto semántico se refiere,
la Web 3.0 es una extensián del World Wide
Weben el que se puede expresar no sólo
lenguaje natural, también se puede utilizar un
lenguaje que se puede entender, interpretar
utilizar por agentes software, permitiendo de
este modo encontrar, compartir e integrar la
información más fácilmente.
El termino se acuño en 2001 en un artículo
científico escrito por American Boauthored
Berners-Lee en el que se describía el término
como lugar en el cual las máquinas pueden leer
páginas Web con la misma facilidad con la que
los humanos lo hacemos.
12. La Web 3.0 y sus servicios se
fundamentan en el colectivo de
la Web Semántica, búsquedas de
lenguaje natural, data-mining,
aprendizaje automático y
asistencia de agentes, todo ello
conocido como técnicas de la
Inteligencia Artificial o
Inteligencia Web.
De acuerdo a algunos expertos,
“la Web 3.0 está caracterizada y
aprovisionada por la acertada
13. REPOSITORIO
Un repositorio, depósito o archivo es un sitio
centralizado donde se almacena y
mantiene información digital, habitualmente bases
de datos o archivos informáticos.
14. BLOG
Un blog es un sitio Web en donde uno o
varios autores desarrollan
contenidos. Los blogs también se
conocen como weblog o cuaderno de
bitácora. La información se actualiza
periódicamente y,de la misma forma,
los textos se plasman en forma
cronológica; primero aparece el más
recientemente escrita.
En cada artículo de un blog, los
lectores tienen la capacidad de dejar
sus comentarios. A su vez, estos pueden
ser contestados por el autor de
manera que se va creando un diálogo.
Otra característica de los Blogs es que
15. RED SOCIAL
Una red social es una estructura
social que se puede representar
en forma de uno o varios grafos
en el cual los nodos representan
individuos (a veces denominados
actores) y las aristas relaciones
entre ellos. Las relaciones
pueden ser de distinto tipo, como
intercambios financieros, amistad,
relaciones sexuales, o rutas
aéreas. También es el medio de
16. NAVEGADOR
Un navegador o navegador web (del
inglés, web browser) es una aplicación que
opera a través de Internet, interpretando la
información de archivos y sitios web para
que éstos puedan ser leídos (ya se encuentre
esta red mediante enlaces ohipervínculos)
La funcionalidad básica de un navegador web
es permitir la visualización de documentos
de texto, posiblemente con recursos
multimedia incrustados. Los documentos
pueden estar ubicados en la computadora en
donde está el usuario, pero también pueden
estar en cualquier otro dispositivo que esté
conectado en la computadora del usuario o
a través de Internet, y que tenga los
recursos necesarios para la transmisión de
los documentos (un software servidor
web).
17. BUSCADOR
Un buscador es una página de internet que
permite realizar búsquedas en la red. Su
forma de utilización es muy sencilla, basta
con introducir una o más palabras clave en
una casilla y el buscador generará una lista
de páginas web que se supone guardan
relación con el tema solicitado. Digo se
supone porque como veremos más adelante,
esto no es siempre así.
Aunque el modo de utilización es muy fácil
a nivel básico, los buscadores permiten
opciones avanzadas para refinar la
búsqueda, cuyo resultado puede ser en
muchas ocasiones de miles de páginas.
Mediante estas opciones avanzadas se puede
acotar la búsqueda y obtener un número de
páginas más manejable.
Debido al gran tamaño de Internet y a su
18. HOSTING
El alojamiento web (en inglés web hosting) es el
servicio que provee a los usuarios de Internet un
sistema para poder almacenar información,
imágenes, vídeo, o cualquier contenido accesible
vía Web. Es una analogía de hospedaje o
alojamiento en hoteles o habitaciones donde
uno ocupa un lugar específico, en este caso la
analogía alojamiento web o alojamiento de
páginas web, se refiere al lugar que ocupa una
página web, sitio web, sistema, correo
electrónico, archivos etc. en Internet o más
específicamente en un servidor que por lo
general hospeda varias aplicaciones o páginas
web.
Los Web Host son compañías que proporcionan
espacio de un servidor a sus clientes.
Se puede definir como un lugar para tu página
web o correos electrónicos, aunque esta
19. DOMINIO
Un dominio de Internet es una red
de identificación asociada a un
grupo de dispositivos o equipos
conectados a la red Internet.
El propósito principal de los
nombres de dominio en Internet y
del sistema de nombres de
dominio (DNS), es traducir
las direcciones IP de cada nodo
activo en la red, a términos
memorizables y fáciles de
encontrar. Esta abstracción hace
20. URL
Internet puede ser concebida como
un gran grupo de recursos o
contenidos ubicados en diferentes
computadoras alrededor del
mundo. Estos contenidos pueden ser
encontrados y enlazarse unos a
otros mediante URIs. Como su
nombre lo describe, identifica
recursos asignando una dirección en
una red dada.
URL (localizador de recursos
uniforme), es un tipo de URI que se