1. PRACTICA SERVICIO IIS (HHTP)
Los servicios de Internet Information Server (IIS), son los
servicios software que admiten la creación, configuración y
administración de sitios web, además de permitir otras
funciones de Internet.
Los servicios de Microsoft Internet Information Server
incluyen los protocolos Network News Transport Protocol
(NNTP) o protocolo de transferencia de noticias a través de
la red, File Transfer Protocol (FTP) o protocolo de
transferencia de archivos, Post Office Protocol (POP) o
protocolo de Oficina de Correos, así como Simple Mail
Transfer Protocol(SMTP) o protocolo simple de transferencia
de correo, pudiendo instalar aquellos que precisemos en
función de las necesidades correspondientes.
Los servicios de Internet Information Server 6.0 (IIS) de
"Windows 2003 Server" facilitan la publicación de
información en una Intranet o en Internet, permitiendo una
autenticación robusta y segura de los usuarios, así como
comunicaciones seguras mediante el protocolo SSL; además,
2. utilizando los componentes y secuencias de comandos del
servidor, podemos crear contenidos dinámicos
independientes del explorador que acceda a los mismos,
mediante el lenguaje de script Page Active Server (ASP).
También es posible ampliar la funcionalidad de los servidores
web del IIS de "Windows 2003 Server" configurando los
mismos para que puedan ejecutar scripts elaborados en el
lenguaje Personal Home Pages (PHP) y acceder a la base de
datos My Structured Query Language (MySQL), así como
construir espacios seguros mediante el protocolo Secure
Socket Layer (SSL), crear espacios privados, etc.
Sin duda el servidor IIS será una pieza clave para gestionar
la red, dotándonos de una potente herramienta que nos
permitirá construir una Intranet con muchos de los servicios
que habitualmente encontraremos en cualquier portal
existente en Internet.
3. RESPALDO DE INFORMACION
Uno de los activos intangibles más importantes para
cualquier organización es la información. Es claro que sin
esta, toda empresa o institución dejaría de funcionar, pues
se trata de un elemento indubitablemente necesario para
su operación diaria. Para garantizar que las instituciones
puedan disponer de información en el momento que es
requerida cuando se presenta una eventualidad, es
necesario llevar a cabo un proceso preventivo denominado
4. “respaldo” o “backup”.
En general, un respaldo es una copia de la información que
una organización genera, utiliza y actualiza a lo largo del
tiempo; también este término se emplea para referirse a las
copias de seguridad que se llevan a cabo en los sistemas
de información, bases de datos, software de aplicación,
sistemas operativos, utilerías, entre otros. El objetivo de un
respaldo es garantizar la recuperación de la información, en
caso de que haya sido eliminada, dañada o alterada al
presentarse alguna contingencia.
Normalmente, los respaldos se llevan a cabo en unidades
de almacenamiento secundario, como discos duros
externos, memorias flash, discos compactos, cartuchos e
incluso en la nube (Internet) o en otros equipos de
cómputo, locales o remotos.
Es una buena práctica establecer políticas institucionales
relacionadas con la creación de respaldos, pues el tiempo
que hay entre la posible pérdida de información y su
recuperación puede ser determinante para la supervivencia
5. de una organización. Existen casos documentados de
empresas que han desaparecido debido a que, después de
un ataque informático, un sismo, una inundación, un
incendio o vandalismo, sus equipos de cómputo quedan
inservibles y, al no contar con respaldos o tener respaldos
obsoletos, les resulta virtualmente imposible recuperar o
actualizar la información generada a lo largo de meses e
incluso años.
Es muy importante puntualizar que si bien el área de
sistemas es la encargada de realizar respaldos de los
sistemas de información y bases de datos de uso común, es
el usuario el directamente responsable de llevar a cabo
los backups de su equipo de cómputo, en particular sobre
aquellos documentos o archivos de uso diario y que sufren
actualizaciones constantes a lo largo del día.
Evidentemente, la información a respaldar será la de interés
e importancia para el usuario (archivos de datos, imágenes,
fotografías, presentaciones, hojas de cálculo, documentos
PDF, etc.); asimismo, para garantizar que esta información
se respalde adecuadamente, lo más conveniente será
6. organizarla en carpetas clasificadas por proyectos, tipos de
datos, fechas o cualquier otra forma que le resulte al
usuario práctica y fácil de identificar. Existe una regla
denominada 3-2-1, aplicada sobre todo para aquellos
archivos de importancia crítica:
3. Mantener tres copias del archivo: la original y dos
respaldos. Esto disminuirá la probabilidad de perder
información por tener unidades dañadas por malware o
problema físico.
2. Guardar los archivos en dos unidades distintas de
almacenamiento a fin de protegerlos de diferentes daños
(por ejemplo, disco duro y memoria flash).
1. Mantener una de las copias “fuera de sitio” (offsite), es
decir, en un lugar físico distinto al lugar de trabajo (casa,
taller, bodega, caja fuerte, etc.). Si por desgracia la
contingencia es mayor, por ejemplo, un sismo o un
incendio y se daña o se destruye por completo el equipo
de cómputo, al menos existirá en algún otro lugar la
información respaldada, y podrá ser recuperada.
7. La frecuencia con la que se realice un respaldo estará
determinada fundamentalmente por la frecuencia en los
cambios de la información. Por ejemplo, ¿con qué
periodicidad se debe respaldar la base de datos de una
nómina si esta se actualiza dos veces al mes, en contraste
con la base de datos de un sistema de reservaciones de
vuelos, cuya actualización es continua? La respuesta es
evidente. Aunque el anterior es un ejemplo orientado al
área de sistemas, un usuario común debe aplicar el mismo
criterio con sus archivos. No hay que suponer que jamás se
presentará alguna contingencia. Hacer un respaldo de
información es como adquirir un seguro de automóvil; es
mejor tenerlo para jamás usarlo, que no tenerlo y requerirlo
en el momento menos esperado.
8. PRACTICA SERVICIO FTP
FTP (siglas en inglés de File Transfer Protocol, ‘Protocolo de
Transferencia de Archivos’), es un protocolo de red para la
transferencia de archivos entre sistemas interconectados o
9. enlazados a Internet, basado en la arquitectura cliente-
servidor. Desde un equipo cliente se puede conectar a un
servidor para descargar archivos desde él o para enviarle
archivos, independientemente del sistema operativo
utilizado en cada equipo.
El funcionamiento es relativamente sencillo. Una persona
desde su computador invoca un programa cliente FTP para
conectar con otro computador/servidor, que a su vez tiene
instalado el programa servidor FTP. Una vez establecida la
conexión y debidamente autenticado el usuario con su
contraseña, se pueden empezar a intercambiar archivos de
todo tipo.
Los beneficios de contar con un servicio FTP son bastantes,
entre otros se encuentran la facilidad para la transferencia
de altos volúmenes de información, velocidad y estabilidad
de los enlaces, seguridad en la transferencia de
información, bajos costos de implementación y flexibilidad
en configuración de cuotas, usuarios y permisos de acceso.
10. Para contar con la posibilidad de manejar servicios FTP se
requieren básicamente dos elementos principales, un
servidor FTP y un cliente FTP.
Servidor FTP
Un servidor FTP es un programa especial que se ejecuta en
un equipo servidor normalmente conectado a Internet. Su
función es permitir el intercambio de datos entre diferentes
servidores/computadores.
Por lo general, los programas servidores FTP no suelen
encontrarse en los computadores personales, por lo que un
usuario normalmente utilizará el FTP para conectarse
remotamente a uno y así intercambiar información con él.
11. Las aplicaciones más comunes de los servidores FTP suelen
ser el hosting, en el que los clientes utilizan el servicio para
subir sus páginas web y sus archivos correspondientes; o
como servidor de backup (copia de seguridad) de los
archivos importantes que pueda tener una empresa. Para
ello, existen protocolos de comunicación FTP para que los
datos se transmitan cifrados, como el SFTP (Secure File
Transfer Protocol).
Cliente FTP
Cuando un navegador no está equipado con la función FTP,
o si se quiere cargar archivos en un servidor remoto, se
necesitará utilizar un programa cliente FTP. Un cliente FTP
es un programa que se instala en el computador del
usuario, y que emplea el protocolo FTP para conectarse a
un servidor FTP y transferir archivos, ya sea para
descargarlos o para subirlos.
12. Para utilizar un cliente FTP, se necesita conocer el nombre
del archivo, el computador en que reside (servidor, en el
caso de descarga de archivos), el computador al que se
quiere transferir el archivo (en caso de querer subirlo
nosotros al servidor), y la carpeta en la que se encuentra.
Algunos clientes de FTP básicos en modo consola vienen
integrados en los sistemas operativos, incluyendo Microsoft
Windows, GNU/Linux y Unix. Sin embargo, hay disponibles
clientes con opciones añadidas e interfaz gráfica. Aunque
muchos navegadores tienen ya integrado FTP, es más
confiable a la hora de conectarse con servidores FTP utilizar
un programa cliente.
13. PRACTICA COPIA DE SEGURIDAD
GOODSYNC
Multidireccional, funciona con archivos en cualquier
ubicación, se actualizan los archivos de todas las
ubicaciones
La sincronización de archivos es el proceso de asegurar que
dos o más ubicaciones contienen actualizados los mismos
archivos. Si usted añade, cambia o borra un archivo de una
ubicación, el proceso de sincronización añade, cambia o
14. borra el mismo archivo en la otra ubicación. Los archivos se
copian en ambas direcciones, manteniendo las dos o más
ubicaciones sincronizadas con cada una de las otras.
GoodSync no sólo sincronizará todos sus datos, sino que
analiza, filtra y presenta los resultados, asegurando que
usted evita duplicados y sincroniza sólo los archivos que
necesita.
La sincronización de archivos mantiene la misma versión de
los archivos en múltiples ubicaciones, tales como directorios
de un ordenador, o dispositivos de almacenamiento
removibles como discos flash. En otras palabras, cuando
dos ubicaciones se sincronizan, la versión más reciente de
un archivo estará disponible en todas las ubicaciones, sin
tener en cuenta dónde se modificó por última vez. Aunque
es posible sincronizar directorios manualmente, el uso de
una herramienta de software es más rápido y menos
propensa a errores. Según avanza la tecnología y somos
más dependientes de los ordenadores, la sincronización de
archivos es más importante para quienes tengan más de un
ordenador. Los productores de GoodSync comprenden la
importancia de sincronizar y probar a fondo la fiabilidad,
15. seguridad, velocidad, y esta herramienta es
considerablemente apreciada.
Unidireccional, funciona sobre Archivos de Una
Ubicación, los archivos son duplicados sobre otra
ubicación
La copia de seguridad de sus archivos es importante tanto
si quiere restaurar completamente un ordenador después
de un fallo, o para restaurar una pequeña cantidad de
archivos después de haber sido borrados o dañados de
forma accidental. Las copias de seguridad normalmente son
la última línea de defensa contra la pérdida de datos. Con
GoodSync hará una copia de seguridad de los archivos a
una ubicación diferente o dispositivo, incluyendo, sin
limitarse a ellos, discos flash, servidores, portátiles,
ordenadores de sobremesa, y otros discos. Todas las copias
de seguridad realizadas con GoodSync son rápidas y
seguras, y pueden hacerse sobre Internet o en un servidor.
16. GoodSync es un software muy potente, pero fácil de usar.
Es suficientemente avanzado para Sincronizar así como
hacer Copias de Seguridad, manteniendo la sencillez de uso
para un novato. Con GoodSync puede planificar sus copias
de seguridad o sincronizaciones para realizarse
automáticamente y estar seguro de que sus archivos están
seguros y actualizados, permitiendo estar completamente
tranquilo.
PRACTICA MONITOREO RED
WIRESHARK
17. Wireshark es un analizador de protocolos open-source
diseñado por Gerald Combs y que actualmente está
disponible para plataformas Windows y Unix. Conocido
originalmente como Ethereal, su principal objetivo es el
análisis de tráfico además de ser una excelente aplicación
didáctica para el estudio de las comunicaciones y para la
resolución de problemas de red. Wireshark implementa una
amplia gama de filtros que facilitan la definición de criterios
de búsqueda para los más de 1100 protocolos soportados
actualmente (versión 1.4.3); y todo ello por medio de una
interfaz sencilla e intuitiva que permite desglosar por capas
cada uno de los paquetes capturados. Gracias a que
Wireshark “entiende” la estructura de los protocolos,
podemos visualizar los campos de cada una de las
cabeceras y capas que componen los paquetes
monitorizados, proporcionando un gran abanico de
posibilidades al administrador de redes a la hora de
abordar ciertas tareas en el análisis de tráfico. De forma
similar a Tcpdump, Wireshark incluye una versión en línea
18. de comandos, denominada Tshark, aunque el presente
documento se centrará únicamente en su versión gráfica. Es
importante indicar también que las funcionalidades
utilizadas en el presente informe solo representan una
pequeña parte de todo el potencial que puede ofrecernos
Wireshark, y cuyo objetivo principal es servir de guía
orientativa para cualquier administrador que necesite
detectar, analizar o solucionar anomalías de red. Pueden
existir situaciones en las que Wireshark no sea capaz de
interpretar ciertos protocolos debido a la falta de
documentación o estandarización de los mismos, en cuyo
caso la ingeniería inversa será la mejor forma de abordar la
situación. Otras herramientas como Snort, OSSIM así como
multitud de IDS/IPS permiten alertar sobre algunos de los
problemas y ataques expuestos en esta guía. No obstante,
cuando se necesita analizar tráfico en profundidad o hay
que auditar un entorno en el que el tiempo prima, dichas
herramientas suelen carecer de la flexibilidad que nos
ofrece un analizador de protocolos como Wireshark.
19. PRACTICA MONITOREO RED CON
MICROSOFT NETWORK MONITOR
Los monitores de red son herramientas útiles para conocer
todo tipo de conexiones que realiza nuestro equipo tanto
dentro de la red local como a internet. Con estas
herramientas podemos conocer fácilmente si estamos
infectados o si algún software está perjudicando al
funcionamiento óptimo de la red local. También nos van a
20. permitir conocer IPs de origen y destino de los datos así
como los programas que acceden a la red y las conexiones
realizadas por estos. Una de las herramientas más
completas para analizar la red es Microsoft Network
Monitor. Esta herramienta está desarrollada directamente
por Microsoft y es compatible con sus sistemas operativos
desde Windows XP hasta Windows 8.
Microsoft Network Monitor se puede descargar de forma
gratuita desde el centro de descargas de Microsoft. Una vez
descargada la instalamos en nuestro PC. La instalación es
sencilla. Nos preguntará si queremos comprobar las
actualizaciones del programa al ejecutar Windows Update
Microsoft Network Monitor permite de una forma ágil y
sencilla la visualización de las conexiones de cada uno de
los procesos que corren en nuestra red, pudiendo así
identificar irregularidades más fácilmente.
Algunas cosas más que podemos hacer:
21. Seguimiento del Proceso
Agrupar por conversación red
Sesiones de captura simultánea
Modo Monitor inalámbrico con NICs inalámbricos
compatibles
Captura en tiempo real y visualización de fotogramas
Montaje de los datos fragmentados
Uso de modo promiscuo
Puede leer libpcap archivos de captura
API para acceder a la
captura y el motor de
análisis