Este documento describe los conceptos básicos de las redes de computadoras e Internet. Explica qué son las redes LAN y WAN, la topología de las redes, el modelo cliente-servidor, e Internet. También resume brevemente la historia del desarrollo de Internet y los elementos de hardware y software que componen una red.
3. Una red de computadoras, también
llamada red de ordenadores, red de
comunicaciones de datos o red
informática, es un conjunto de equipos
informáticos y software conectados entre
sí por medio de dispositivos físicos que
envían y reciben impulsos eléctricos, ondas
electromagnéticas o cualquier otro medio
para el transporte de datos, con la
finalidad de compartir
información, recursos y ofrecer servicios.
4. Como en todo proceso de comunicación se
requiere de
un emisor, un mensaje, un medio y
un receptor. La finalidad principal para la
creación de una red de computadoras es
compartir los recursos y la información
en la distancia, asegurar la confiabilidad y
la disponibilidad de la
información, aumentar la velocidad de
transmisión de los datos y reducir el
costo general de estas acciones.2 Un
ejemplo es Internet, la cual es una gran
red de millones de computadoras
ubicadas en distintos puntos del planeta
interconectadas básicamente para
6. Una red de área local, red local o LAN
(del inglés local area network) es la
interconexión de una o varias
computadoras y periféricos. Su extensión
está limitada físicamente a un edificio o a
un entorno de 200 metros, con
repetidores podría llegar a la distancia
de un campo de 1 kilómetro. Su aplicación
más extendida es la interconexión de
computadoras personales y estaciones de
trabajo en oficinas, fábricas, etc.
7. Red de área local.
El término red local es lo que incluye
tanto el hardware como el software
necesario para la interconexión de los
distintos dispositivos y el tratamiento de
la información. Aparecen las primeras
redes de computadoras en la epoca de los
"80, con la llegada de la conexion de
equipos inicia la nueva era evolutiva en la
informática.
9. Una red de área amplia, con frecuencia
denominada WAN, acrónimo de la
expresión en idioma inglés wide area
network, es un tipo de red de
computadoras capaz de cubrir distancias
desde unos 100 hasta unos 1000 km,
proveyendo de servicio a un país o un
continente. Un ejemplo de este tipo de
redes sería RedIRIS, Internet o cualquier
red en la cual no estén en un mismo
edificio todos sus miembros (sobre la
distancia hay discusión posible). Muchas
WAN son construidas por y para una
organización o empresa particular y son
10. otras son construidas por los
proveedores de internet (ISP) para
proveer de conexión a sus clientes.
Hoy en día, Internet proporciona WAN de
alta velocidad, y la necesidad de redes
privadas WAN se ha reducido
drásticamente, mientras que las redes
privadas virtuales que utilizan cifrado y
otras técnicas para hacer esa red
dedicada, aumentan continuamente.
Normalmente la WAN es una red punto a
punto, es decir, red de paquete conmutado.
Las redes WAN pueden usar sistemas de
comunicación vía satélite o de radio.
12. La topología de red se define como la
cadena de comunicación usada por los
computadores que conforman una red
para intercambiar datos. El concepto de
red puede definirse como "conjunto de
nodos interconectados". Un nodo es el
punto en el que una curva se intercepta a sí
misma. Lo que un nodo es
concretamente, depende del tipo de redes
a que nos refiramos. Un ejemplo claro de
esto es la topología de árbol, la cual es
llamada así por su apariencia estética,
13. por la cual puede comenzar con la
inserción del servicio de internet desde el
proveedor, pasando por el router, luego
por un switch y este deriva a otro switch u
otro router o sencillamente a los hosts
(estaciones de trabajo), el resultado de
esto es una red con apariencia de árbol
porque desde el primer router que se
tiene se ramifica la distribución de
internet dando lugar a la creación de
nuevas redes o subredes tanto internas
como externas. Además de la topología
estética, se puede dar una topología lógica
a la red y eso dependerá de lo que se
15. La arquitectura cliente-servidor es un
modelo de aplicación distribuida en el que
las tareas se reparten entre los
proveedores de recursos o servicios,
llamados servidores, y los demandantes,
llamados clientes. Un cliente realiza
peticiones a otro programa, el servidor,
que le da respuesta. Esta idea también se
puede aplicar a programas que se ejecutan
sobre una sola computadora, aunque es
más ventajosa en un sistema
operativo multiusuario distribuido a
través de una red de computadoras.
16. En esta arquitectura la capacidad de
proceso está repartida entre los clientes
y los servidores, aunque son más
importantes las ventajas de tipo
organizativo debidas a la centralización
de la gestión de la información y la
separación de responsabilidades, lo que
facilita y clarifica el diseño del sistema.
La separación entre cliente y servidor es
una separación de tipo lógico, donde el
servidor no se ejecuta necesariamente
sobre una sola máquina ni es
necesariamente un sólo programa.
17. Los tipos específicos de servidores
incluyen los servidores web, los
servidores de archivo, los servidores del
correo, etc. Mientras que sus propósitos
varían de unos servicios a otros, la
arquitectura básica seguirá siendo la
misma. Una disposición muy común son
los sistemas multicapa en los que el
servidor se descompone en diferentes
programas que pueden ser ejecutados por
diferentes computadoras aumentando así
el grado de distribución del sistema.
La arquitectura cliente-servidor sustituye
a la arquitectura monolítica en la que no
hay distribución, tanto a nivel físico como
19. Internet es un conjunto descentralizado
de redes de comunicación interconectadas
que utilizan la familia
de protocolos TCP/IP, garantizando que
las redes físicas heterogéneas que la
componen funcionen como una red lógica
única, de alcance mundial. Sus orígenes se
remontan a 1969, cuando se estableció la
primera conexión de
computadoras, conocida
como ARPANET, entre tres universidades
en California y una en Utah,
20. o "la Web"), hasta tal punto que es
habitual la confusión entre ambos
términos. La WWW es un conjunto de
protocolos que permite, de forma
sencilla, la consulta remota de archivos
de hipertexto. Ésta fue un desarrollo
posterior (1990) y utiliza Internet
como medio de transmisión.5
Existen, por tanto, muchos otros servicios
y protocolos en Internet, Estados Unidos.
Uno de los servicios que más éxito ha
tenido en Internet ha sido la World Wide
Web (WWW,
21. aparte de la Web: el envío de correo
electrónico (SMTP), la transmisión de
archivos (FTP y P2P), las conversaciones en
línea (IRC), la mensajería instantánea y
presencia, la transmisión de contenido y
comunicación multimedia -
telefonía (VoIP), televisión (IPTV)-,
los boletines electrónicos (NNTP),
el acceso remoto a otros dispositivos
(SSH y Telnet) o los juegos en línea.
23. Sus orígenes se remontan a la década de
1960, dentro de ARPA (hoy DARPA), como respuesta
a la necesidad de esta organización de buscar
mejores maneras de usar los computadores de
ese entonces, pero enfrentados al problema de
que los principales investigadores y
laboratorios deseaban tener sus propios
computadores, lo que no sólo era más
costoso, sino que provocaba una duplicación de
esfuerzos y recursos.13 Así nace ARPANet
(Advanced Research Projects Agency Network o
Red de la Agencia para los Proyectos de
Investigación Avanzada de los Estados Unidos), que
nos legó el trazado de una red inicial de
comunicaciones de alta velocidad a la cual
fueron integrándose otras instituciones
gubernamentales y redes académicas durante los
24. Investigadores, científicos, profesores y
estudiantes se beneficiaron de la comunicación
con otras instituciones y colegas en su rama, así
como de la posibilidad de consultar la
información disponible en otros centros
académicos y de investigación. De igual
manera, disfrutaron de la nueva habilidad para
publicar y hacer disponible a otros la
información generada en sus actividaEn el mes de
julio de 1961 Leonard Kleinrock publicó desde el
MIT el primer documento sobre la teoría de
conmutación de paquetes. Kleinrock convenció
a Lawrence Roberts de la factibilidad teórica de
las comunicaciones vía paquetes en lugar de
circuitos, lo cual resultó ser un gran avance en el
camino hacia el trabajo informático en red. El
otro paso fundamental fue hacer dialogar a los
25. en 1965, Roberts conectó una computadora TX2 en
Massachusetts con un Q-32 en California a través
de una línea telefónica conmutada de baja
velocidad, creando así la primera (aunque
reducida) red de computadoras de área amplia
jamás construida.des.
1969: La primera red interconectada nace el 21 de
noviembre de 1969, cuando se crea el primer
enlace entre las universidades de UCLA y Stanford
por medio de la línea telefónica conmutada, y
gracias a los trabajos y estudios anteriores de
varios científicos y organizaciones
desde 1959 (ver: Arpanet). El mito de que ARPANET,
la primera red, se construyó simplemente para
sobrevivir a ataques nucleares sigue siendo muy
popular. Sin embargo, este no fue el único motivo.
Si bien es cierto que ARPANET fue diseñada para
26. la verdadera razón para ello era que los nodos
de conmutación eran poco fiables, tal y como se
atestigua en la siguiente cita:
A raíz de un estudio de RAND, se extendió el falso
rumor de que ARPANET fue diseñada para resistir
un ataque nuclear. Esto nunca fue
cierto, solamente un estudio de RAND, no
relacionado con ARPANET, consideraba la guerra
nuclear en la transmisión segura de
comunicaciones de voz. Sin embargo, trabajos
posteriores enfatizaron la robustez y capacidad
de supervivencia de grandes porciones de las
redes subyacentes. (Internet Society, A Brief
History of the Internet)
27. 1972: Se realizó la Primera demostración pública
de ARPANET, una nueva red de comunicaciones
financiada por la DARPA que funcionaba de forma
distribuida sobre la red telefónica conmutada. El
éxito de ésta nueva arquitectura sirvió para
que, en 1973, la DARPA iniciara un programa de
investigación sobre posibles técnicas para
interconectar redes (orientadas al tráfico de
paquetes) de distintas clases. Para este
fin, desarrollaron nuevos protocolos de
comunicaciones que permitiesen este intercambio
de información de forma "transparente" para las
computadoras conectadas. De la filosofía del
proyecto surgió el nombre de "Internet", que se
aplicó al sistema de redes interconectadas
mediante los protocolos TCP e IP
28. 1983: El 1 de enero, ARPANET cambió el protocolo
NCP por TCP/IP. Ese mismo año, se creó el IAB con
el fin de estandarizar el protocolo TCP/IP y de
proporcionar recursos de investigación a
Internet. Por otra parte, se centró la función de
asignación de identificadores en la IANA que, más
tarde, delegó parte de sus funciones en el
Internet registry que, a su vez, proporciona
servicios a los DNS
. 1986: La NSF comenzó el desarrollo de NSFNET
que se convirtió en la principal Red en árbol de
Internet, complementada después con las redes
NSINET y ESNET, todas ellas en Estados Unidos.
Paralelamente, otras redes troncales en
Europa, tanto públicas como comerciales, junto
con las americanas formaban el esqueleto básico
("backbone") de Internet.
29. 1989: Con la integración de los protocolos OSI en
la arquitectura de Internet, se inició la tendencia
actual de permitir no sólo la interconexión de
redes de estructuras dispares, sino también la de
facilitar el uso de distintos protocolos de cEn
el CERN de Ginebra, un grupo de físicos encabezado
por Tim Berners-Lee creó el
lenguaje HTML, basado en el SGML. En1990 el
mismo equipo construyó el primer
cliente Web, llamado WorldWideWeb (WWW), y el
primer servidor web.
A inicios de los 90, con la introducción de nuevas
facilidades de interconexión y herramientas
gráficas simples para el uso de la red, se inició el
auge que actualmente le conocemos al Internet.
Este crecimiento masivo trajo consigo el
surgimiento de un nuevo perfil de usuarios, en su
mayoría de personas comunes no ligadas a los
30. Esto ponía en cuestionamiento la subvención
del gobierno estadounidense al sostenimiento
y la administración de la red, así como la
prohibición existente al uso comercial del
Internet. Los hechos se sucedieron
rápidamente y para 1993 ya se había
levantado la prohibición al uso comercial
del Internet y definido la transición hacia un
modelo de administración no gubernamental
que permitiese, a su vez, la integración de
redes y proveedores de acceso privados
2006: El 3 de enero, Internet alcanzó los mil
cien millones de usuarios. Se prevé que en
diez años, la cantidad de navegantes de la Red
aumentará a 2.000 millones
31. El resultado de todo esto es lo que
experimentamos hoy en día: la
transformación de lo que fue una enorme
red de comunicaciones para uso
gubernamental, planificada y construida
con fondos estatales, que ha evolucionado
en una miríada de redes privadas
interconectadas entre sí. Actualmente la
red experimenta cada día la integración
de nuevas redes y usuarios, extendiendo su
amplitud y dominio, al tiempo que surgen
nuevos mercados, tecnologías,
instituciones y empresas que aprovechan
este nuevo medio, cuyo potencial apenas
comenzamos a descubrir
33. HARDWARE
corresponde a todas las partes físicas y
tangibles de una computadora: sus
componentes
eléctricos, electrónicos, electromecánico
s y mecánicos; sus cables, gabinetes o
cajas, periféricos de todo tipo y cualquier
otro elemento físico involucrado
34. 1. Monitor
2. Placa base
3. CPU
4. Memoria RAM
5. Tarjeta de expansión
6. Fuente de alimentación
7. Disco óptico
8. Disco duro
9. Teclado
10. Mouse
35. SOFTWARE
Tales componentes lógicos incluyen, entre
otros, aplicaciones informáticas tales
como procesador de textos, que permite
al usuario realizar todas las tareas
concernientes a edición de textos;
software de sistema, tal como un sistema
operativo, el que, básicamente, permite al
resto de los programas funcionar
adecuadamente, facilitando la interacción
con los componentes físicos y el resto de
las aplicaciones, también provee una
interfaz ante el usuario.
37. Los proveedores de Internet se han
esforzado mucho en brindar un servicio
competitivo y traer la última tecnología
al país, compiten en tarifas como en
velocidad, pero por puras cuestiones de
marketing han descuidado tanto la
velocidad de subida como la latencia de
la conexión. Los principales errores están
en que el cliente promedio sólo busca dos
factores a la hora de contratar un
servicio de Internet Banda Ancha: la
velocidad de descarga y el precio, algo
que a la hora de la verdad se puede
volver en nuestra contra.
38. • ETB
• 500Kbits
• UNE
• 256Kbits
• Telefónica
• 500Kbits
• Telmex
• 300Kbits (en plan de 2000K)
• Velocidad de subida a 1000K
• ETB
• 800Kbits (en plan de 6000K)
• UNE
• 512Kbits (en plan de 4000K)
• Telefónica
• Telefónica - 1000Kbits (en plan de 2000K)
• Telmex
• 400Kbits (en plan de 8000K)
• Velocidad de subida a máxima velocidad
40. Un proveedor de servicios de Internet (o
ISP, por la sigla en inglés de Internet
Service Provider) es una empresa que
brinda conexión a Internet a sus clientes.
Un ISP conecta a sus usuarios a Internet a
través de diferentes tecnologías como
DSL, Cablemódem, GSM, Dial-up, Wifi, entre
otros. Muchos ISP también ofrecen
servicios relacionados con Internet, como
el correo electrónico, alojamiento
web, registro de dominios, servidores de
noticias, etc.
42. Es un protocolo de comunicación de datos digitales clasificado funcionalmente en la
Capa de Red según el modelo internacional OSI
Su función principal es el uso bidireccional en origen o destino de comunicación para
transmitir datos mediante un protocolo no orientado a conexión que transfiere paquetes
conmutados a través de distintas redes físicas previamente enlazadas según la norma
OSI de enlace de datos .
El diseño del protocolo IP se realizó presuponiendo que la entrega de los paquetes de
datos sería no confiable por lo cual IP tratará de realizarla del mejor modo
posible, mediante técnicas de encaminamiento, sin garantías de alcanzar el destino final
pero tratando de buscar la mejor ruta entre las conocidas por la máquina que este
usando IP.
Los datos en una red basada en IP son enviados en bloques conocidos como paquetes
o datagramas (en el protocolo IP estos términos se suelen usar indistintamente). En
particular, en IP no se necesita ninguna configuración antes de que un equipo intente
enviar paquetes a otro con el que no se había comunicado antes.
44. El modelo TCP/IP es un modelo de descripción de protocolos de red creado en la
década de 1970 por DARPA, una agencia del Departamento de Defensa de los Estados
Unidos. Evolucionó de ARPANET, el cual fue la primera red de área amplia y
predecesora de Internet. EL modelo TCP/IP se denomina a veces como Internet Model,
Modelo DoD o Modelo DARPA.
El modelo TCP/IP, describe un conjunto de guías generales de diseño e implementación
de protocolos de red específicos para permitir que un equipo pueda comunicarse en una
red. TCP/IP provee conectividad de extremo a extremo especificando como los datos
deberían ser formateados, direccionados, transmitidos, enrutados y recibidos por el
destinatario. Existen protocolos para los diferentes tipos de servicios de comunicación
entre equipos. Esta arquitectura de capas a menudo es comparada con el Modelo OSI
de siete capas.
El modelo TCP/IP y los protocolos relacionados son mantenidos por la Internet
Engineering Task Force.
46. Un dominios es una forma sencilla de identificar un computador en la internet de manera única, a partir de lo
cual se encontrarás las páginas pertenecientes a la institución que lo posee.
Los dominios tienen un nombre y una terminación que indica su actividad o procedencia territorial. Por
ejemplo, google. com: google es el nombre y .com expresa el ámbito de esa página, comercial en este caso.
En la internet hay varios tipos de terminaciones de dominios o dominios de primer nivel, los cuales indican el
ambito al que pertenecen: Son los .com, .org, .es, etc. Los dominios se dividen en dos grupos: genéricos y
territoriales.
TIPOS DE DOMINIOS
Territoriales
indican el territorio de orígen de la página. Estos dominios solo se le otorgan a empresas o personas de los
paises relacionados con el dominio.
El registro de los dominios territoriales es regulado con base en unas normas específicas para cada pais. Los
encargados de crear estas normas para el registro, son los distintos delegados del NIC de cada pais.
Ejemplo: .co para Colombia, mx para México, fr para Francia, etc.
Genéricos
son dominios que se otorgan a nivel internacional, para empresas y personas de todo el mundo. A
continuación se enumeran, indicando el tipo de institución al que van dirigidos.
.info
.name
.pro
.coop
.aero
.museum
48. Ya hemos afirmado que Internet es mucho más que la WWW, y que la red posee una
serie de servicios que, en mayor o menor medida, tienen que ver con las funciones de
información. comunicación e interacción. Algunos de los servicios disponibles en Internet
aparte de la Web, son el acceso remoto a otros ordenadores (a través de telnet o
siguiendo el modelo cliente/servidor), la transferencia de ficheros (FTP), el correo
electrónico (e-mail), los boletines electrónicos y grupos de noticias (USENET y news
groups), las listas de distribución, los foros de debate y las conversaciones en línea
(chats).
El correo electrónico y los boletines de noticias Use net fueron las primeras formas de
comunicación que se usaron sobre Internet, pero la red ofrece hoy una amplia gama de
instrumentos y contextos para el acceso y la recuperación de documentos, la
comunicación y la interacción. Además, el acceso y la distribución de información ya no
se limitan al texto en código ASCII, como en los primeros tiempos de Internet, sino que
abarcan todas las morfologías de la información: texto, imagen, audio, vídeo, recursos
audiovisuales, etc. En Internet también se puede escuchar la radio, ver la
televisión, asistir a un concierto, visitar un museo o jugar a través de la red. El empleo
del Internet ha crecido exponencialmente gracias a muchos de estos usos
y, especialmente, por la facilidad de manejo que permite hoy la propia World Wide Web.
49. Así pues, existen unos servicios que permiten el intercambio de mensajes personales
(correo electrónico, grupos de noticias, listas de distribución, foros, etc.), otros
adecuados para la interacción mediante conversaciones en tiempo real (chats) y otros
dedicados al suministro y acceso a la información (World Wide Web, FTP, etc.).
En el campo concreto de la documentación, nos interesa saber que en Internet existen o
han existido numerosas herramientas que facilitan la localización de información o el
acceso dentro de la red, como: Whois, X.500, Gopher, Archie, WAIS y WWW. En la
actualidad la gran mayoría de estas herramientas han evolucionado y se encuentran hoy
accesibles dentro de la Web. Por ejemplo, el protocolo telnet que facilitaba la conexión
de un ordenador remoto a una red abierta y que se utilizaba para conectarse a los
grandes catálogos de bibliotecas, centros de documentación y bases de datos, ha
desaparecido prácticamente, puesto que se ha impuesto de forma casi en exclusiva el
modelo de cliente/servidor convirtiendo Internet en una red de redes mucho más
abiertas, con ordenadores (tanto servidores como clientes) mucho más potentes. Hoy es
posible acceder a estos grandes catálogos mediante la interfaz que ofrecen los
navegadores de la Web.
50. Los servicios que hoy ofrece Internet no sólo se han multiplicado, sino que han
evolucionado hacia nuevas y mejoradas funciones y han ganado en facilidad de uso y
manejo. A este cambio han contribuido no sólo la velocidad de transferencia de los bits
que permiten los modems y routers actuales y la mayor eficiencia y capacidad de las
líneas de telecomunicaciones con un gran ancho de banda, sino también, mejoras en el
software y las aplicaciones (bases de datos integradas en la Web, motores de
búsqueda, agentes inteligentes, etc.) y en el hardware (mayor capacidad de
almacenamiento y memoria, incremento exponencial de la velocidad de los
procesadores, capacidad de tratar todo tipo de datos no sólo los textuales, sino también
los datos multimedia, etc.). El usuario ya no tiene que operar con comandos y algoritmos
complejos, sino manejando el ratón sobre iconos e interfaces gráficas e incluso con la
voz, y por medio del lenguaje natural
52. Un localizador de recursos uniforme, más comúnmente denominado URL (sigla en inglés
de uniform resource locator), es una secuencia de caracteres, de acuerdo a un formato
modélico y estándar, que se usa para nombrar recursos en Internet para su localización o
identificación, como por ejemplo documentos textuales, imágenes, vídeos, presentaciones
digitales, etc. Los localizadores uniformes de recursos fueron una innovación en la historia
de la Internet. Fueron usadas por primera vez por Tim Berners-Lee en 1991, para permitir
a los autores de documentos establecer hiperenlaces en la World Wide Web. Desde 1994,
en los estándares de la Internet, el concepto de URL ha sido incorporado dentro del más
general de URI (Uniform Resource Identifier, en español identificador uniforme de
recurso), pero el término URL aún se utiliza ampliamente para que los usuarios que entren
en ella tengan una buena visión para ellos.
Aunque nunca fueron mencionadas como tal en ningún estándar, mucha gente cree que
las iniciales URL significan universal resource locator (localizador universal de recursos).
Esta interpretación puede ser debida al hecho de que, aunque la U en URL siempre ha
significado "uniforme", la U de URI significó en un principio "universal", antes de la
publicación del RFC 2396.
53. El URL es la cadena de caracteres con la cual se asigna una dirección única a cada uno
de los recursos de información disponibles en la Internet. Existe un URL único para cada
página de cada uno de los documentos de la World Wide Web, para todos los elementos
de Gopher y todos los grupos de debate USENET, y así sucesivamente. En los sistemas
operativos hay varias formas de ponerle diferente nombre a los objetos
(alias, redirecciones, puntos de montajes,enlaces, DNS - yo puedo poner en el DNS que
los nombres mail,correo,email,mensajero,etc sean de la misma máquina).
El URL de un recurso de información es su dirección en Internet, la cual permite que el
navegador la encuentre y la muestre de forma adecuada. Por ello el URL combina el
nombre del ordenador que proporciona la información, el directorio donde se
encuentra, el nombre del archivo, y el protocolo a usar para recuperar los datos para que
no se pierda alguna información sobre dicho factor que se emplea para el trabajo.
Podemos entender que una URI = URL + URN
55. Mailto es el protocolo que controla el envió de email, por ejemplo en java script tu escribes,
mailto:tucorreo@hotmail.com, haces cuando se hace clic en el apartado al que le asignaste el
mailto, abrirá el Outlook o algún otro programa de correo pero el Outlook es por defecto, y te
pedirá si envías un mail o no.
También se usa en formularios, de esos que rellenas con datos y los envías, ahí aplicas un
form mailto, para que se envíen a tu correo los datos que pides.
La manera de escribir todo esto dentro del enlace es muy sencilla. Después de poner la
dirección de envío como hicimos arriba, ponemos un signo de interrogación seguido de una
serie de parejas de la forma campo=valor separados por símbolos de ampersand (&). Usease:
<A HREF="mailto:direccion@correo.com?cc=otradir@correo.es&subject=Burro">
Escríbeme</A>
Ala, a pulsar.
Varias líneas en el cuerpo del mensaje
Un problema común a la hora de incluir el texto del mensaje en un enlace es que, a primera
vista, no hay quien ponga espacios ni varias líneas en el mismo. Esto se soluciona utilizando la
codificación reservada a caracteres de control y extendidos. Para poner un espacio
escribiremos %20 y para cambiar de línea %0D%0A:
<A HREF="..subject=Burro&body=Hola,%20zoquete.%0D%0ABurro%20es%20con%20B.">
Escríbeme</A>
57. Hypertext Transfer Protocol Secure ( HTTPS ) es ampliamente utilizado un protocolo de
comunicaciones para el seguro de comunicación a través de una red informática , con el despliegue
especialmente ancha en el Internet . Técnicamente, no es un protocolo en sí mismo, sino que es
simplemente el resultado de estratificación el Hypertext Transfer Protocol (HTTP) en la parte superior
de la SSL / TLS protocolo, añadiendo así las capacidades de seguridad de SSL / TLS estándar para
las comunicaciones HTTP.
En su despliegue popular en Internet, HTTPS proporciona autenticación del sitio web y asociadas
servidor web que se está comunicando, que protege contra el Man-in-the-middle .
Además, proporciona bidireccional cifrado de las comunicaciones entre un cliente y un servidor, que
protege contra las escuchas y la manipulación y / o forjado del contenido de la comunicación. [ 1 ] En
la práctica, esto proporciona una garantía razonable de que se está comunicando con precisión la
web sitio que uno destinado a comunicar con (en oposición a un impostor), así como para asegurar
que el contenido de las comunicaciones entre el usuario y el sitio no puede ser leído o falsificado por
terceros.
Debido HTTPS piggybacks HTTP enteramente en la parte superior de TLS, la totalidad de la
subyacente protocolo HTTP se pueden cifrar. Esto incluye la URL de la solicitud (que determinada
página web se solicita), parámetros de consulta, encabezados y galletas (que a menudo contienen
información acerca de la identidad del usuario). Sin embargo, dado acogida (sitio web) direcciones y
números de puerto son necesariamente parte del subyacente TCP / IP protocolos HTTPS no puede
proteger a su divulgación. En la práctica esto significa que, incluso en un servidor correctamente
configurado espías web todavía se puede inferir la dirección IP y número de puerto del servidor web
(incluso a veces el nombre de dominio www.example.org por ejemplo, pero no el resto de la URL) que
uno es comunicarse con, así como la cantidad (datos transferidos) y la duración (duración de la
sesión) de la comunicación, pero no el contenido de la comunicación.
59. FTP (siglas en inglés de File Transfer Protocol, 'Protocolo de Transferencia de Archivos') en
informática, es un protocolo de red para la transferencia de archivos entre sistemas conectados a una
red TCP (Transmission Control Protocol), basado en la arquitectura cliente-servidor. Desde un equipo
cliente se puede conectar a un servidor para descargar archivos desde él o para enviarle
archivos, independientemente del sistema operativo utilizado en cada equipo.
El servicio FTP es ofrecido por la capa de aplicación del modelo de capas de red TCP/IP al
usuario, utilizando normalmente el puerto de red 20 y el 21. Un problema básico de FTP es que está
pensado para ofrecer la máxima velocidad en la conexión, pero no la máxima seguridad, ya que todo
el intercambio de información, desde el login y password del usuario en el servidor hasta la
transferencia de cualquier archivo, se realiza en texto plano sin ningún tipo de cifrado, con lo que un
posible atacante puede capturar este tráfico, acceder al servidor y/o apropiarse de los archivos
transferidos.
Para solucionar este problema son de gran utilidad aplicaciones como scp y sftp, incluidas en el
paquete SSH, que permiten transferir archivos pero cifrando todo el tráfico.
61. Se llama spam, correo basura o mensaje basura a los mensajes no solicitados, no deseados o de
remitente no conocido (correo anónimo), habitualmente de tipo publicitario, generalmente enviados en
grandes cantidades (incluso masivas) que perjudican de alguna o varias maneras al receptor. La
acción de enviar dichos mensajes se denomina spamming. La palabra spam proviene de la segunda
guerra mundial, cuando los familiares de los soldados en guerra les enviaban comida enlatada, entre
estas comidas enlatadas, estaba una carne enlatada llamada spam, que en los Estados Unidos era y
sigue siendo muy común.[cita requerida]
Aunque se puede hacer spam por distintas vías, la más utilizada entre el público en general es la
basada en el correo electrónico. Otras tecnologías de Internet que han sido objeto de correo basura
incluyen grupos de noticias, usenet, motores de búsqueda, redes sociales, páginas web wiki, foros,
web logs (blogs), a través de ventanas emergentes y todo tipo de imágenes y textos en la web.
El correo basura también puede tener como objetivo los teléfonos móviles (a través de mensajes de
texto) y los sistemas de mensajería instantánea como por ejemplo Outlook, Lotus Notes,Windows live
,etc.
También se llama correo no deseado a los virus sueltos en la red y páginas filtradas (casino, sorteos,
premios, viajes, drogas, software y pornografía), se activa mediante el ingreso a páginas de
comunidades o grupos o acceder a enlaces en diversas páginas o inclusive sin antes acceder a
ningún tipo de páginas de publicidad.
62. De todas formas, el spam ha tomado una resemantización dentro del contexto de foros, siendo
considerado spam cuando un usuario publica algo que desvirtúa o no tiene nada que ver con el tema
de conversación.1 También, en algunos casos, un mensaje que no contribuye de ninguna forma al
tema es considerado spam. Una tercera forma de Spamming en foros es cuando una persona publica
repetidamente mensajes acerca de un tema en particular en una forma indeseable (y probablemente
molesta) para la mayor parte del foro. Finalmente, también existe el caso en que una persona
publique mensajes únicamente con el fin de incrementar su rango, nivel o número de mensajes en el
foro.
El correo basura mediante el servicio de correo electrónico nació el 5 de marzo de 1994. Este día una
firma de abogados, Canter and Siegel, publica en Usenet un mensaje de anuncio de su firma legal; el
día después de la publicación, facturó cerca de 10.000 dólares por casos de sus amigos y lectores de
la red. Desde ese entonces, el marketing mediante correo electrónico ha crecido a niveles
impensados desde su creación.
Aunque existen otras versiones que datan su origen el 3 de mayo de 1978, cuando 393 empleados de
ARPANET, el predecesor de Internet gestionado por el gobierno estadounidense, recibían con
sorpresa un correo de la compañía de ordenadores DEC invitándoles al lanzamiento de un nuevo
producto.2
El correo basura por medio del fax (spam-fax), es otra de las categorías de esta técnica de marketing
directo, y consiste en enviar faxes masivos y no solicitados a través de sistemas electrónicos
automatizados hacia miles de personas o empresas cuya información ha sido cargada en bases de
datos segmentadas según diferentes variables.
64. Un virus informático es un malware que tiene por objeto alterar el normal funcionamiento de la
computadora, sin el permiso o el conocimiento del usuario. Los virus, habitualmente, reemplazan
archivos ejecutables por otros infectados con el código de este. Los virus pueden destruir, de manera
intencionada, los datos almacenados en un computadora, aunque también existen otros más
inofensivos, que solo se caracterizan por ser molestos.
Los virus informáticos tienen, básicamente, la función de propagarse a través de un software, no se
replican a sí mismos porque no tienen esa facultad como el gusano informático, son muy nocivos y
algunos contienen además una carga dañina (payload) con distintos objetivos, desde una simple
broma hasta realizar daños importantes en los sistemas, o bloquear las redes informáticas generando
tráfico inútil.
El funcionamiento de un virus informático es conceptualmente simple. Se ejecuta un programa que
está infectado, en la mayoría de las ocasiones, por desconocimiento del usuario. El código del virus
queda residente (alojado) en la memoria RAM de la computadora, aun cuando el programa que lo
contenía haya terminado de ejecutarse. El virus toma entonces el control de los servicios básicos del
sistema operativo, infectando, de manera posterior, archivos ejecutables que sean llamados para su
ejecución. Finalmente se añade el código del virus al programa infectado y se graba en el disco, con
lo cual el proceso de replicado se completa.