1. OBJETOS VIRTUALES DE APRENDIZAJE
MARISOL VILLA AGUIRRE
Actividad N° 4, Gestión de Procesos de Diseño y Desarrollo de Programas
Educativos en Línea.
Asesor:
GUILLERMO BEJARANO REYES
Ingeniero de sistemas
Magister en Gestión, Aplicación y Desarrollo de Software
UNIVERSIDAD DE SANTANDER
MAESTRÍA EN GESTIÓN DE LA TECNOLOGÍA EDUCATIVA
MEDELLÍN
2014
2. CONCEPTOS BASICOS DE REDES E INTERNET
1. Red de computadoras
Una red de computadoras, también llamada red de ordenadores, red de
comunicaciones de datos o red informática, es un conjunto de equipos
informáticos y software conectados entre sí por medio de dispositivos
físicos que envían y reciben impulsos eléctricos, ondas
electromagnéticas o cualquier otro medio para el transporte de datos, con
la finalidad de compartir información, recursos y ofrecer servicios.
3. Como en todo proceso de comunicación se requiere de un emisor,
un mensaje, un medio y un receptor. La finalidad principal para la
creación de una red de computadoras es compartir los recursos y la
información en la distancia, asegurar la confiabilidad y la disponibilidad
de la información, aumentar la velocidad de transmisión de los datos y
reducir el costo general de estas acciones.2 Un ejemplo es Internet, la cual
es una gran red de millones de computadoras ubicadas en distintos
puntos del planeta interconectadas básicamente para compartir
información y recursos.
4. 2. QUE ES RED LAN
Una red de área local, red local o LAN (del inglés local area network) es la
interconexión de una o varias computadoras y periféricos. Su extensión
está limitada físicamente a un edificio o a un entorno de 200 metros, con
repetidores podría llegar a la distancia de un campo de 1 kilómetro. Su
aplicación más extendida es la interconexión de computadoras personales
y estaciones de trabajo en oficinas, fábricas, etc.
Red de área local.
El término red local es lo que incluye tanto el hardware como el software
necesario para la interconexión de los distintos dispositivos y el
tratamiento de la información. Aparecen las primeras redes de
computadoras en la epoca de los "80, con la llegada de la conexion de
equipos inicia la nueva era evolutiva en la informática.
5. 3. QUE ES RED WAN
Una red de área amplia, con frecuencia denominada WAN, acrónimo de la
expresión en idioma ingléswide area network , es un tipo de red de
computadoras capaz de cubrir distancias desde unos 100 hasta unos 1000 km,
proveyendo de servicio a un país o un continente. Un ejemplo de este tipo de redes
sería RedIRIS, Internet o cualquier red en la cual no estén en un mismo edificio
todos sus miembros (sobre la distancia hay discusión posible). Muchas WAN son
construidas por y para una organización o empresa particular y son de uso privado,
otras son construidas por los proveedores de internet (ISP) para proveer de
conexión a sus clientes.
Hoy en día, Internet proporciona WAN de alta velocidad, y la necesidad de redes
privadas WAN se ha reducido drásticamente, mientras que las redes privadas
virtuales que utilizan cifrado y otras técnicas para hacer esa red dedicada,
aumentan continuamente.
Normalmente la WAN es una red punto a punto, es decir, red de paquete
conmutado. Las redes WAN pueden usar sistemas de comunicación vía satélite o
de radio.
6. 4. TOPOLOGIA DE LAS REDES
La topología de red se define como la cadena de comunicación usada por
los computadores que conforman una red para intercambiar datos. El
concepto de red puede definirse como "conjunto de nodos
interconectados". Un nodo es el punto en el que una curva se intercepta a
sí misma. Lo que un nodo es concretamente, depende del tipo de redes a
que nos refiramos. Un ejemplo claro de esto es la topología de árbol, la
cual es llamada así por su apariencia estética, por la cual puede comenzar
con la inserción del servicio de internet desde el proveedor, pasando por
el router, luego por un switch y este deriva a otro switch u otro router o
sencillamente a los hosts (estaciones de trabajo), el resultado de esto es
una red con apariencia de árbol porque desde el primer router que se
tiene se ramifica la distribución de internet dando lugar a la creación de
nuevas redes o subredes tanto internas como externas. Además de la
topología estética, se puede dar una topología lógica a la red y eso
dependerá de lo que se necesite en el momento.
7. 5. MODELO CLIENTE/SERVIDOR
La arquitectura cliente-servidor es un modelo de aplicación distribuida
en el que las tareas se reparten entre los proveedores de recursos o
servicios, llamados servidores, y los demandantes, llamados clientes. Un
cliente realiza peticiones a otro programa, el servidor, que le da respuesta.
Esta idea también se puede aplicar a programas que se ejecutan sobre una
sola computadora, aunque es más ventajosa en un sistema
operativo multiusuario distribuido a través de una red de computadoras.
En esta arquitectura la capacidad de proceso está repartida entre los
clientes y los servidores, aunque son más importantes las ventajas de tipo
organizativo debidas a la centralización de la gestión de la información y
la separación de responsabilidades, lo que facilita y clarifica el diseño del
sistema.
La separación entre cliente y servidor es una separación de tipo lógico,
donde el servidor no se ejecuta necesariamente sobre una sola máquina
ni es necesariamente un sólo programa.
8. Los tipos específicos de servidores incluyen los servidores web, los
servidores de archivo, los servidores del correo, etc. Mientras que sus
propósitos varían de unos servicios a otros, la arquitectura básica seguirá
siendo la misma. Una disposición muy común son lossistemas
multicapa en los que el servidor se descompone en diferentes programas
que pueden ser ejecutados por diferentes computadoras aumentando así
el grado de distribución del sistema.
Laarquitectura cliente-servidor sustituye a laarquitectura monolítica en la
que no hay distribución, tanto a nivel físico como a nivel lógico.
10. Internet es un conjunto descentralizado de redes de
comunicación interconectadas que utilizan la familia
de protocolos TCP/IP, garantizando que las redes físicas heterogéneas que
la componen funcionen como una red lógica única, de alcance mundial.
Sus orígenes se remontan a 1969, cuando se estableció la primera
conexión de computadoras, conocida como ARPANET, entre tres
universidades en California y una en Utah,
11. o "la Web"), hasta tal punto que es habitual la confusión entre ambos
términos. La WWW es un conjunto de protocolos que permite, de forma
sencilla, la consulta remota de archivos de hipertexto. Ésta fue un
desarrollo posterior (1990) y utiliza Internet como medio de
transmisión.5
Existen, por tanto, muchos otros servicios y protocolos en Internet,
Estados Unidos.
Uno de los servicios que más éxito ha tenido en Internet ha sido la World
Wide Web (WWW,
12. aparte de la Web: el envío de correo electrónico (SMTP), la transmisión de
archivos (FTP y P2P), las conversaciones en línea (IRC), la mensajería
instantánea y presencia, la transmisión de contenido y comunicación
multimedia -telefonía (VoIP), televisión (IPTV)-, los boletines
electrónicos (NNTP), el acceso remoto a otros dispositivos (SSH y Telnet)
o los juegos en línea.
14. Sus orígenes se remontan a la década de 1960, dentro de ARPA (hoy DARPA), como
respuesta a la necesidad de esta organización de buscar mejores maneras de usar los
computadores de ese entonces, pero enfrentados al problema de que los principales
investigadores y laboratorios deseaban tener sus propios computadores, lo que no
sólo era más costoso, sino que provocaba una duplicación de esfuerzos y recursos.13
Así nace ARPANet (Advanced Research Projects Agency Network o Red de la Agencia
para los Proyectos de Investigación Avanzada de los Estados Unidos), que nos legó el
trazado de una red inicial de comunicaciones de alta velocidad a la cual fueron
integrándose otras instituciones gubernamentales y redes académicas durante los
años 70.
15. Investigadores, científicos, profesores y estudiantes se beneficiaron de la
comunicación con otras instituciones y colegas en su rama, así como de la posibilidad
de consultar la información disponible en otros centros académicos y de investigación.
De igual manera, disfrutaron de la nueva habilidad para publicar y hacer disponible a
otros la información generada en sus actividaEn el mes de julio de 1961 Leonard
Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación
de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad teórica de las
comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance
en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer
dialogar a los ordenadores entre sí. Para explorar este terreno,
16. en 1965,Roberts conectó una computadora TX2 en Massachusetts con un Q-32 en
California a través de una línea telefónica conmutada de baja velocidad, creando así la
primera (aunque reducida) red de computadoras de área amplia jamás construida. des.
1969: La primera red interconectada nace el 21 de noviembre de 1969, cuando se crea
el primer enlace entre las universidades de UCLA y Stanford por medio de la línea
telefónica conmutada, y gracias a los trabajos y estudios anteriores de varios
científicos y organizaciones desde 1959 (ver: Arpanet ). El mito de que ARPANET, la
primera red, se construyó simplemente para sobrevivir a ataques nucleares sigue
siendo muy popular. Sin embargo, este no fue el único motivo. Si bien es cierto que
ARPANET fue diseñada para sobrevivir a fallos en la red,
17. la verdadera razón para ello era que los nodos de conmutación eran poco fiables, tal y
como se atestigua en la siguiente cita:
A raíz de un estudio de RAND, se extendió el falso rumor de que ARPANET fue
diseñada para resistir un ataque nuclear. Esto nunca fue cierto, solamente un estudio
de RAND, no relacionado con ARPANET, consideraba la guerra nuclear en la
transmisión segura de comunicaciones de voz. Sin embargo, trabajos posteriores
enfatizaron la robustez y capacidad de supervivencia de grandes porciones de las
redes subyacentes. (Internet Society,A Brief History of the Internet )
18. 1972: Se realizó la Primera demostración pública de ARPANET, una nueva red de
comunicaciones financiada por la DARPA que funcionaba de forma distribuida sobre
la red telefónica conmutada. El éxito de ésta nueva arquitectura sirvió para que, en
1973, la DARPA iniciara un programa de investigación sobre posibles técnicas para
interconectar redes (orientadas al tráfico de paquetes) de distintas clases. Para este fin,
desarrollaron nuevos protocolos de comunicaciones que permitiesen este intercambio
de información de forma "transparente" para las computadoras conectadas. De la
filosofía del proyecto surgió el nombre de "Internet", que se aplicó al sistema de redes
interconectadas mediante los protocolos TCP e IP
19. 1983: El 1 de enero, ARPANET cambió el protocolo NCP por TCP/IP. Ese mismo año, se
creó el IAB con el fin de estandarizar el protocolo TCP/IP y de proporcionar recursos de
investigación a Internet. Por otra parte, se centró la función de asignación de
identificadores en la IANA que, más tarde, delegó parte de sus funciones en el Internet
registry que, a su vez, proporciona servicios a los DNS
. 1986: La NSF comenzó el desarrollo de NSFNET que se convirtió en la principal Red
en árbol de Internet, complementada después con las redes NSINET y ESNET, todas
ellas en Estados Unidos. Paralelamente, otras redes troncales en Europa, tanto públicas
como comerciales, junto con las americanas formaban el esqueleto básico
("backbone") de Internet.
20. 1989: Con la integración de los protocolos OSI en la arquitectura de Internet, se inició
la tendencia actual de permitir no sólo la interconexión de redes de estructuras
dispares, sino también la de facilitar el uso de distintos protocolos de cEn
el CERN de Ginebra, un grupo de físicos encabezado por Tim Berners-Lee creó el
lenguaje HTML, basado en el SGML. En1990 el mismo equipo construyó el primer
cliente Web, llamado WorldWideWeb (WWW), y el primer servidor web.
A inicios de los 90, con la introducción de nuevas facilidades de interconexión y
herramientas gráficas simples para el uso de la red, se inició el auge que actualmente
le conocemos al Internet. Este crecimiento masivo trajo consigo el surgimiento de un
nuevo perfil de usuarios, en su mayoría de personas comunes no ligadas a los sectores
académicos, científicos y gubernamentales.
21. Esto ponía en cuestionamiento la subvención del gobierno estadounidense al
sostenimiento y la administración de la red, así como la prohibición existente al
uso comercial del Internet. Los hechos se sucedieron rápidamente y para 1993
ya se había levantado la prohibición al uso comercial del Internet y definido la
transición hacia un modelo de administración no gubernamental que
permitiese, a su vez, la integración de redes y proveedores de acceso privados
2006: El 3 de enero, Internet alcanzó los mil cien millones de usuarios. Se prevé
que en diez años, la cantidad de navegantes de la Red aumentará a 2.000
millones
22. El resultado de todo esto es lo que experimentamos hoy en día: la
transformación de lo que fue una enorme red de comunicaciones para
uso gubernamental, planificada y construida con fondos estatales, que ha
evolucionado en una miríada de redes privadas interconectadas entre sí.
Actualmente la red experimenta cada día la integración de nuevas redes y
usuarios, extendiendo su amplitud y dominio, al tiempo que surgen
nuevos mercados, tecnologías, instituciones y empresas que aprovechan
este nuevo medio, cuyo potencial apenas comenzamos a descubrir
24. HARDWARE
corresponde a todas las partes físicas y tangibles de una computadora: sus
componentes eléctricos, electrónicos, electromecánicos y mecánicos; sus
cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro
elemento físico involucrado
25. 1. Monitor
2. Placa base
3. CPU
4. Memoria RAM
5. Tarjeta de expansión
6. Fuente de alimentación
7. Disco óptico
8. Disco duro
9. Teclado
10. Mouse
26. SOFTWARE
Tales componentes lógicos incluyen, entre otros, aplicaciones
informáticas tales como procesador de textos, que permite al usuario
realizar todas las tareas concernientes a edición de textos; software de
sistema, tal como un sistema operativo, el que, básicamente, permite al
resto de los programas funcionar adecuadamente, facilitando la
interacción con los componentes físicos y el resto de las aplicaciones,
también provee una interfaz ante el usuario.
28. Los proveedores de Internet se han esforzado mucho en brindar un
servicio competitivo y traer la última tecnología al país, compiten en
tarifas como en velocidad, pero por puras cuestiones de marketing han
descuidado tanto la velocidad de subida como la latencia de la conexión.
Los principales errores están en que el cliente promedio sólo busca dos
factores a la hora de contratar un servicio de Internet Banda Ancha: la
velocidad de descarga y el precio, algo que a la hora de la verdad se puede
volver en nuestra contra.
29. • ETB
• 500Kbits
• UNE
• 256Kbits
• Telefónica
• 500Kbits
• Telmex
• 300Kbits (en plan de 2000K)
• Velocidad de subida a 1000K
• ETB
• 800Kbits (en plan de 6000K)
• UNE
• 512Kbits (en plan de 4000K)
• Telefónica
• Telefónica - 1000Kbits (en plan de 2000K)
• Telmex
• 400Kbits (en plan de 8000K)
• Velocidad de subida a máxima velocidad
31. Un proveedor de servicios de Internet (o ISP, por la sigla en inglés de
Internet Service Provider) es una empresa que brinda conexión a Internet
a sus clientes. Un ISP conecta a sus usuarios a Internet a través de
diferentes tecnologías como DSL, Cablemódem, GSM, Dial-up, Wifi, entre
otros. Muchos ISP también ofrecen servicios relacionados con Internet,
como el correo electrónico, alojamiento web, registro de dominios,
servidores de noticias, etc.
33. Es un protocolo de comunicación de datos digitales clasificado funcionalmente en la
Capa de Red según el modelo internacional OSI
Su función principal es el uso bidireccional en origen o destino de comunicación para
transmitir datos mediante un protocolo no orientado a conexión que transfiere paquetes
conmutados a través de distintas redes físicas previamente enlazadas según la norma
OSI de enlace de datos .
El diseño del protocolo IP se realizó presuponiendo que la entrega de los paquetes de
datos sería no confiable por lo cual IP tratará de realizarla del mejor modo posible,
mediante técnicas de encaminamiento, sin garantías de alcanzar el destino final pero
tratando de buscar la mejor ruta entre las conocidas por la máquina que este usando IP.
Los datos en una red basada en IP son enviados en bloques conocidos como paquetes
o datagramas (en el protocolo IP estos términos se suelen usar indistintamente). En
particular, en IP no se necesita ninguna configuración antes de que un equipo intente
enviar paquetes a otro con el que no se había comunicado antes.
35. El modelo TCP/IP es un modelo de descripción de protocolos de red creado en la
década de 1970 por DARPA, una agencia del Departamento de Defensa de los Estados
Unidos. Evolucionó de ARPANET, el cual fue la primera red de área amplia y
predecesora de Internet. EL modelo TCP/IP se denomina a veces como Internet Model,
Modelo DoD o Modelo DARPA.
El modelo TCP/IP, describe un conjunto de guías generales de diseño e implementación
de protocolos de red específicos para permitir que un equipo pueda comunicarse en una
red. TCP/IP provee conectividad de extremo a extremo especificando como los datos
deberían ser formateados, direccionados, transmitidos, enrutados y recibidos por el
destinatario. Existen protocolos para los diferentes tipos de servicios de comunicación
entre equipos. Esta arquitectura de capas a menudo es comparada con el Modelo OSI
de siete capas.
El modelo TCP/IP y los protocolos relacionados son mantenidos por la Internet
Engineering Task Force.
37. Un dominios es una forma sencilla de identificar un computador en la internet de manera única, a partir de lo
cual se encontrarás las páginas pertenecientes a la institución que lo posee.
Los dominios tienen un nombre y una terminación que indica su actividad o procedencia territorial. Por
ejemplo, google. com: google es el nombre y .com expresa el ámbito de esa página, comercial en este caso.
En la internet hay varios tipos de terminaciones de dominios o dominios de primer nivel, los cuales indican el
ambito al que pertenecen: Son los .com, .org, .es, etc. Los dominios se dividen en dos grupos: genéricos y
territoriales.
TIPOS DE DOMINIOS
Territoriales
indican el territorio de orígen de la página. Estos dominios solo se le otorgan a empresas o personas de los
paises relacionados con el dominio.
El registro de los dominios territoriales es regulado con base en unas normas específicas para cada pais. Los
encargados de crear estas normas para el registro, son los distintos delegados del NIC de cada pais.
Ejemplo: .co para Colombia, mx para México, fr para Francia, etc.
Genéricos
son dominios que se otorgan a nivel internacional, para empresas y personas de todo el mundo. A
continuación se enumeran, indicando el tipo de institución al que van dirigidos.
.info
.name
.pro
.coop
.aero
.museum
39. Ya hemos afirmado que Internet es mucho más que la WWW, y que la red posee una
serie de servicios que, en mayor o menor medida, tienen que ver con las funciones de
información. comunicación e interacción. Algunos de los servicios disponibles en Internet
aparte de la Web, son el acceso remoto a otros ordenadores (a través de telnet o
siguiendo el modelo cliente/servidor), la transferencia de ficheros (FTP), el correo
electrónico (e-mail), los boletines electrónicos y grupos de noticias (USENET y news
groups), las listas de distribución, los foros de debate y las conversaciones en línea
(chats).
El correo electrónico y los boletines de noticias Use net fueron las primeras formas de
comunicación que se usaron sobre Internet, pero la red ofrece hoy una amplia gama de
instrumentos y contextos para el acceso y la recuperación de documentos, la
comunicación y la interacción. Además, el acceso y la distribución de información ya no
se limitan al texto en código ASCII, como en los primeros tiempos de Internet, sino que
abarcan todas las morfologías de la información: texto, imagen, audio, vídeo, recursos
audiovisuales, etc. En Internet también se puede escuchar la radio, ver la televisión,
asistir a un concierto, visitar un museo o jugar a través de la red. El empleo del Internet
ha crecido exponencialmente gracias a muchos de estos usos y, especialmente, por la
facilidad de manejo que permite hoy la propia World Wide Web.
40. Así pues, existen unos servicios que permiten el intercambio de mensajes personales
(correo electrónico, grupos de noticias, listas de distribución, foros, etc.), otros
adecuados para la interacción mediante conversaciones en tiempo real (chats) y otros
dedicados al suministro y acceso a la información (World Wide Web, FTP, etc.).
En el campo concreto de la documentación, nos interesa saber que en Internet existen o
han existido numerosas herramientas que facilitan la localización de información o el
acceso dentro de la red, como: Whois, X.500, Gopher, Archie, WAIS y WWW. En la
actualidad la gran mayoría de estas herramientas han evolucionado y se encuentran hoy
accesibles dentro de la Web. Por ejemplo, el protocolo telnet que facilitaba la conexión
de un ordenador remoto a una red abierta y que se utilizaba para conectarse a los
grandes catálogos de bibliotecas, centros de documentación y bases de datos, ha
desaparecido prácticamente, puesto que se ha impuesto de forma casi en exclusiva el
modelo de cliente/servidor convirtiendo Internet en una red de redes mucho más
abiertas, con ordenadores (tanto servidores como clientes) mucho más potentes. Hoy es
posible acceder a estos grandes catálogos mediante la interfaz que ofrecen los
navegadores de la Web.
41. Los servicios que hoy ofrece Internet no sólo se han multiplicado, sino que han
evolucionado hacia nuevas y mejoradas funciones y han ganado en facilidad de uso y
manejo. A este cambio han contribuido no sólo la velocidad de transferencia de los bits
que permiten los modems y routers actuales y la mayor eficiencia y capacidad de las
líneas de telecomunicaciones con un gran ancho de banda, sino también, mejoras en el
software y las aplicaciones (bases de datos integradas en la Web, motores de búsqueda,
agentes inteligentes, etc.) y en el hardware (mayor capacidad de almacenamiento y
memoria, incremento exponencial de la velocidad de los procesadores, capacidad de
tratar todo tipo de datos no sólo los textuales, sino también los datos multimedia, etc.). El
usuario ya no tiene que operar con comandos y algoritmos complejos, sino manejando el
ratón sobre iconos e interfaces gráficas e incluso con la voz, y por medio del lenguaje
natural
43. Un localizador de recursos uniforme, más comúnmente denominado URL (sigla en inglés
de uniform resource locator), es una secuencia de caracteres, de acuerdo a un formato
modélico y estándar, que se usa para nombrar recursos en Internet para su localización o
identificación, como por ejemplo documentos textuales, imágenes, vídeos, presentaciones
digitales, etc. Los localizadores uniformes de recursos fueron una innovación en la historia
de la Internet. Fueron usadas por primera vez por Tim Berners-Lee en 1991, para permitir
a los autores de documentos establecer hiperenlaces en la World Wide Web. Desde 1994,
en los estándares de la Internet, el concepto de URL ha sido incorporado dentro del más
general de URI (Uniform Resource Identifier, en español identificador uniforme de
recurso), pero el término URL aún se utiliza ampliamente para que los usuarios que entren
en ella tengan una buena visión para ellos.
Aunque nunca fueron mencionadas como tal en ningún estándar, mucha gente cree que
las iniciales URL significan universal resource locator (localizador universal de recursos).
Esta interpretación puede ser debida al hecho de que, aunque la U en URL siempre ha
significado "uniforme", la U de URI significó en un principio "universal", antes de la
publicación del RFC 2396.
44. El URL es la cadena de caracteres con la cual se asigna una dirección única a cada uno
de los recursos de información disponibles en la Internet. Existe un URL único para cada
página de cada uno de los documentos de la World Wide Web, para todos los elementos
de Gopher y todos los grupos de debate USENET, y así sucesivamente. En los sistemas
operativos hay varias formas de ponerle diferente nombre a los objetos (alias,
redirecciones, puntos de montajes,enlaces, DNS - yo puedo poner en el DNS que los
nombres mail,correo,email,mensajero,etc sean de la misma máquina).
El URL de un recurso de información es su dirección en Internet, la cual permite que el
navegador la encuentre y la muestre de forma adecuada. Por ello el URL combina el
nombre del ordenador que proporciona la información, el directorio donde se encuentra,
el nombre del archivo, y el protocolo a usar para recuperar los datos para que no se
pierda alguna información sobre dicho factor que se emplea para el trabajo.
Podemos entender que una URI = URL + URN
46. Mailto es el protocolo que controla el envió de email, por ejemplo en java script tu escribes,
mailto:tucorreo@hotmail.com, haces cuando se hace clic en el apartado al que le asignaste el
mailto, abrirá el Outlook o algún otro programa de correo pero el Outlook es por defecto, y te
pedirá si envías un mail o no.
También se usa en formularios, de esos que rellenas con datos y los envías, ahí aplicas un
form mailto, para que se envíen a tu correo los datos que pides.
La manera de escribir todo esto dentro del enlace es muy sencilla. Después de poner la
dirección de envío como hicimos arriba, ponemos un signo de interrogación seguido de una
serie de parejas de la forma campo=valor separados por símbolos de ampersand (&). Usease:
<A HREF="mailto:direccion@correo.com?cc=otradir@correo.es&subject=Burro">
Escríbeme</A>
Ala, a pulsar.
Varias líneas en el cuerpo del mensaje
Un problema común a la hora de incluir el texto del mensaje en un enlace es que, a primera
vista, no hay quien ponga espacios ni varias líneas en el mismo. Esto se soluciona utilizando la
codificación reservada a caracteres de control y extendidos. Para poner un espacio
escribiremos %20 y para cambiar de línea %0D%0A:
<A HREF="..subject=Burro&body=Hola,%20zoquete.%0D%0ABurro%20es%20con%20B.">
Escríbeme</A>
48. Hypertext Transfer Protocol Secure ( HTTPS ) es ampliamente utilizado un protocolo de
comunicaciones para el seguro de comunicación a través de una red informática , con el despliegue
especialmente ancha en el Internet . Técnicamente, no es un protocolo en sí mismo, sino que es
simplemente el resultado de estratificación el Hypertext Transfer Protocol (HTTP) en la parte superior
de la SSL / TLS protocolo, añadiendo así las capacidades de seguridad de SSL / TLS estándar para
las comunicaciones HTTP.
En su despliegue popular en Internet, HTTPS proporciona autenticación del sitio web y asociadas
servidor web que se está comunicando, que protege contra el Man-in-the-middle . Además,
proporciona bidireccional cifrado de las comunicaciones entre un cliente y un servidor, que protege
contra las escuchas y la manipulación y / o forjado del contenido de la comunicación. [ 1 ] En la
práctica, esto proporciona una garantía razonable de que se está comunicando con precisión la web
sitio que uno destinado a comunicar con (en oposición a un impostor), así como para asegurar que el
contenido de las comunicaciones entre el usuario y el sitio no puede ser leído o falsificado por
terceros.
Debido HTTPS piggybacks HTTP enteramente en la parte superior de TLS, la totalidad de la
subyacente protocolo HTTP se pueden cifrar. Esto incluye la URL de la solicitud (que determinada
página web se solicita), parámetros de consulta, encabezados y galletas (que a menudo contienen
información acerca de la identidad del usuario). Sin embargo, dado acogida (sitio web) direcciones y
números de puerto son necesariamente parte del subyacente TCP / IP protocolos HTTPS no puede
proteger a su divulgación. En la práctica esto significa que, incluso en un servidor correctamente
configurado espías web todavía se puede inferir la dirección IP y número de puerto del servidor web
(incluso a veces el nombre de dominio www.example.org por ejemplo, pero no el resto de la URL) que
uno es comunicarse con, así como la cantidad (datos transferidos) y la duración (duración de la
sesión) de la comunicación, pero no el contenido de la comunicación.
50. FTP (siglas en inglés de File Transfer Protocol, 'Protocolo de Transferencia de Archivos') en
informática, es un protocolo de red para la transferencia de archivos entre sistemas conectados a una
red TCP (Transmission Control Protocol), basado en la arquitectura cliente-servidor. Desde un equipo
cliente se puede conectar a un servidor para descargar archivos desde él o para enviarle archivos,
independientemente del sistema operativo utilizado en cada equipo.
El servicio FTP es ofrecido por la capa de aplicación del modelo de capas de red TCP/IP al usuario,
utilizando normalmente el puerto de red 20 y el 21. Un problema básico de FTP es que está pensado
para ofrecer la máxima velocidad en la conexión, pero no la máxima seguridad, ya que todo el
intercambio de información, desde el login y password del usuario en el servidor hasta la transferencia
de cualquier archivo, se realiza en texto plano sin ningún tipo de cifrado, con lo que un posible
atacante puede capturar este tráfico, acceder al servidor y/o apropiarse de los archivos transferidos.
Para solucionar este problema son de gran utilidad aplicaciones como scp y sftp, incluidas en el
paquete SSH, que permiten transferir archivos pero cifrando todo el tráfico.
52. Se llama spam, correo basura o mensaje basura a los mensajes no solicitados, no deseados o de
remitente no conocido (correo anónimo), habitualmente de tipo publicitario, generalmente enviados en
grandes cantidades (incluso masivas) que perjudican de alguna o varias maneras al receptor. La
acción de enviar dichos mensajes se denomina spamming. La palabra spam proviene de la segunda
guerra mundial, cuando los familiares de los soldados en guerra les enviaban comida enlatada, entre
estas comidas enlatadas, estaba una carne enlatada llamada spam, que en los Estados Unidos era y
sigue siendo muy común.[cita requerida]
Aunque se puede hacer spam por distintas vías, la más utilizada entre el público en general es la
basada en el correo electrónico. Otras tecnologías de Internet que han sido objeto de correo basura
incluyen grupos de noticias, usenet, motores de búsqueda, redes sociales, páginas web wiki, foros,
web logs (blogs), a través de ventanas emergentes y todo tipo de imágenes y textos en la web.
El correo basura también puede tener como objetivo los teléfonos móviles (a través de mensajes de
texto) y los sistemas de mensajería instantánea como por ejemplo Outlook, Lotus Notes,Windows live
,etc.
También se llama correo no deseado a los virus sueltos en la red y páginas filtradas (casino, sorteos,
premios, viajes, drogas, software y pornografía), se activa mediante el ingreso a páginas de
comunidades o grupos o acceder a enlaces en diversas páginas o inclusive sin antes acceder a
ningún tipo de páginas de publicidad.
53. De todas formas, el spam ha tomado una resemantización dentro del contexto de foros, siendo
considerado spam cuando un usuario publica algo que desvirtúa o no tiene nada que ver con el tema
de conversación.1 También, en algunos casos, un mensaje que no contribuye de ninguna forma al
tema es considerado spam. Una tercera forma de Spamming en foros es cuando una persona publica
repetidamente mensajes acerca de un tema en particular en una forma indeseable (y probablemente
molesta) para la mayor parte del foro. Finalmente, también existe el caso en que una persona
publique mensajes únicamente con el fin de incrementar su rango, nivel o número de mensajes en el
foro.
El correo basura mediante el servicio de correo electrónico nació el 5 de marzo de 1994. Este día una
firma de abogados, Canter and Siegel, publica en Usenet un mensaje de anuncio de su firma legal; el
día después de la publicación, facturó cerca de 10.000 dólares por casos de sus amigos y lectores de
la red. Desde ese entonces, el marketing mediante correo electrónico ha crecido a niveles
impensados desde su creación.
Aunque existen otras versiones que datan su origen el 3 de mayo de 1978, cuando 393 empleados de
ARPANET, el predecesor de Internet gestionado por el gobierno estadounidense, recibían con
sorpresa un correo de la compañía de ordenadores DEC invitándoles al lanzamiento de un nuevo
producto.2
El correo basura por medio del fax (spam-fax), es otra de las categorías de esta técnica de marketing
directo, y consiste en enviar faxes masivos y no solicitados a través de sistemas electrónicos
automatizados hacia miles de personas o empresas cuya información ha sido cargada en bases de
datos segmentadas según diferentes variables.
55. Un virus informático es un malware que tiene por objeto alterar el normal funcionamiento de la
computadora, sin el permiso o el conocimiento del usuario. Los virus, habitualmente, reemplazan
archivos ejecutables por otros infectados con el código de este. Los virus pueden destruir, de manera
intencionada, los datos almacenados en un computadora, aunque también existen otros más
inofensivos, que solo se caracterizan por ser molestos.
Los virus informáticos tienen, básicamente, la función de propagarse a través de un software, no se
replican a sí mismos porque no tienen esa facultad como el gusano informático, son muy nocivos y
algunos contienen además una carga dañina (payload) con distintos objetivos, desde una simple
broma hasta realizar daños importantes en los sistemas, o bloquear las redes informáticas generando
tráfico inútil.
El funcionamiento de un virus informático es conceptualmente simple. Se ejecuta un programa que
está infectado, en la mayoría de las ocasiones, por desconocimiento del usuario. El código del virus
queda residente (alojado) en la memoria RAM de la computadora, aun cuando el programa que lo
contenía haya terminado de ejecutarse. El virus toma entonces el control de los servicios básicos del
sistema operativo, infectando, de manera posterior, archivos ejecutables que sean llamados para su
ejecución. Finalmente se añade el código del virus al programa infectado y se graba en el disco, con
lo cual el proceso de replicado se completa.