PRACTICA SERVICIO IIS (HHTP)
Los servicios de Internet Information Server (IIS), son los
servicios software que admiten la creación, configuración y
administración de sitios web, además de permitir otras
funciones de Internet.
Los servicios de Microsoft Internet Information Server
incluyen los protocolos Network News Transport Protocol
(NNTP) o protocolo de transferencia de noticias a través de
la red, File Transfer Protocol (FTP) o protocolo de
transferencia de archivos, Post Office Protocol (POP) o
protocolo de Oficina de Correos, así como Simple Mail
Transfer Protocol(SMTP) o protocolo simple de transferencia
de correo, pudiendo instalar aquellos que precisemos en
función de las necesidades correspondientes.
Los servicios de Internet Information Server 6.0 (IIS) de
"Windows 2003 Server" facilitan la publicación de
información en una Intranet o en Internet, permitiendo una
autenticación robusta y segura de los usuarios, así como
comunicaciones seguras mediante el protocolo SSL; además,
utilizando los componentes y secuencias de comandos del
servidor, podemos crear contenidos dinámicos
independientes del explorador que acceda a los mismos,
mediante el lenguaje de script Page Active Server (ASP).
También es posible ampliar la funcionalidad de los servidores
web del IIS de "Windows 2003 Server" configurando los
mismos para que puedan ejecutar scripts elaborados en el
lenguaje Personal Home Pages (PHP) y acceder a la base de
datos My Structured Query Language (MySQL), así como
construir espacios seguros mediante el protocolo Secure
Socket Layer (SSL), crear espacios privados, etc.
Sin duda el servidor IIS será una pieza clave para gestionar
la red, dotándonos de una potente herramienta que nos
permitirá construir una Intranet con muchos de los servicios
que habitualmente encontraremos en cualquier portal
existente en Internet.
RESPALDO DE INFORMACION
Uno de los activos intangibles más importantes para
cualquier organización es la información. Es claro que sin
esta, toda empresa o institución dejaría de funcionar, pues
se trata de un elemento indubitablemente necesario para
su operación diaria. Para garantizar que las instituciones
puedan disponer de información en el momento que es
requerida cuando se presenta una eventualidad, es
necesario llevar a cabo un proceso preventivo denominado
“respaldo” o “backup”.
En general, un respaldo es una copia de la información que
una organización genera, utiliza y actualiza a lo largo del
tiempo; también este término se emplea para referirse a las
copias de seguridad que se llevan a cabo en los sistemas
de información, bases de datos, software de aplicación,
sistemas operativos, utilerías, entre otros. El objetivo de un
respaldo es garantizar la recuperación de la información, en
caso de que haya sido eliminada, dañada o alterada al
presentarse alguna contingencia.
Normalmente, los respaldos se llevan a cabo en unidades
de almacenamiento secundario, como discos duros
externos, memorias flash, discos compactos, cartuchos e
incluso en la nube (Internet) o en otros equipos de
cómputo, locales o remotos.
Es una buena práctica establecer políticas institucionales
relacionadas con la creación de respaldos, pues el tiempo
que hay entre la posible pérdida de información y su
recuperación puede ser determinante para la supervivencia
de una organización. Existen casos documentados de
empresas que han desaparecido debido a que, después de
un ataque informático, un sismo, una inundación, un
incendio o vandalismo, sus equipos de cómputo quedan
inservibles y, al no contar con respaldos o tener respaldos
obsoletos, les resulta virtualmente imposible recuperar o
actualizar la información generada a lo largo de meses e
incluso años.
Es muy importante puntualizar que si bien el área de
sistemas es la encargada de realizar respaldos de los
sistemas de información y bases de datos de uso común, es
el usuario el directamente responsable de llevar a cabo
los backups de su equipo de cómputo, en particular sobre
aquellos documentos o archivos de uso diario y que sufren
actualizaciones constantes a lo largo del día.
Evidentemente, la información a respaldar será la de interés
e importancia para el usuario (archivos de datos, imágenes,
fotografías, presentaciones, hojas de cálculo, documentos
PDF, etc.); asimismo, para garantizar que esta información
se respalde adecuadamente, lo más conveniente será
organizarla en carpetas clasificadas por proyectos, tipos de
datos, fechas o cualquier otra forma que le resulte al
usuario práctica y fácil de identificar. Existe una regla
denominada 3-2-1, aplicada sobre todo para aquellos
archivos de importancia crítica:
3. Mantener tres copias del archivo: la original y dos
respaldos. Esto disminuirá la probabilidad de perder
información por tener unidades dañadas por malware o
problema físico.
2. Guardar los archivos en dos unidades distintas de
almacenamiento a fin de protegerlos de diferentes daños
(por ejemplo, disco duro y memoria flash).
1. Mantener una de las copias “fuera de sitio” (offsite), es
decir, en un lugar físico distinto al lugar de trabajo (casa,
taller, bodega, caja fuerte, etc.). Si por desgracia la
contingencia es mayor, por ejemplo, un sismo o un
incendio y se daña o se destruye por completo el equipo
de cómputo, al menos existirá en algún otro lugar la
información respaldada, y podrá ser recuperada.
La frecuencia con la que se realice un respaldo estará
determinada fundamentalmente por la frecuencia en los
cambios de la información. Por ejemplo, ¿con qué
periodicidad se debe respaldar la base de datos de una
nómina si esta se actualiza dos veces al mes, en contraste
con la base de datos de un sistema de reservaciones de
vuelos, cuya actualización es continua? La respuesta es
evidente. Aunque el anterior es un ejemplo orientado al
área de sistemas, un usuario común debe aplicar el mismo
criterio con sus archivos. No hay que suponer que jamás se
presentará alguna contingencia. Hacer un respaldo de
información es como adquirir un seguro de automóvil; es
mejor tenerlo para jamás usarlo, que no tenerlo y requerirlo
en el momento menos esperado.
PRACTICA SERVICIO FTP
FTP (siglas en inglés de File Transfer Protocol, ‘Protocolo de
Transferencia de Archivos’), es un protocolo de red para la
transferencia de archivos entre sistemas interconectados o
enlazados a Internet, basado en la arquitectura cliente-
servidor. Desde un equipo cliente se puede conectar a un
servidor para descargar archivos desde él o para enviarle
archivos, independientemente del sistema operativo
utilizado en cada equipo.
El funcionamiento es relativamente sencillo. Una persona
desde su computador invoca un programa cliente FTP para
conectar con otro computador/servidor, que a su vez tiene
instalado el programa servidor FTP. Una vez establecida la
conexión y debidamente autenticado el usuario con su
contraseña, se pueden empezar a intercambiar archivos de
todo tipo.
Los beneficios de contar con un servicio FTP son bastantes,
entre otros se encuentran la facilidad para la transferencia
de altos volúmenes de información, velocidad y estabilidad
de los enlaces, seguridad en la transferencia de
información, bajos costos de implementación y flexibilidad
en configuración de cuotas, usuarios y permisos de acceso.
Para contar con la posibilidad de manejar servicios FTP se
requieren básicamente dos elementos principales, un
servidor FTP y un cliente FTP.
Servidor FTP
Un servidor FTP es un programa especial que se ejecuta en
un equipo servidor normalmente conectado a Internet. Su
función es permitir el intercambio de datos entre diferentes
servidores/computadores.
Por lo general, los programas servidores FTP no suelen
encontrarse en los computadores personales, por lo que un
usuario normalmente utilizará el FTP para conectarse
remotamente a uno y así intercambiar información con él.
Las aplicaciones más comunes de los servidores FTP suelen
ser el hosting, en el que los clientes utilizan el servicio para
subir sus páginas web y sus archivos correspondientes; o
como servidor de backup (copia de seguridad) de los
archivos importantes que pueda tener una empresa. Para
ello, existen protocolos de comunicación FTP para que los
datos se transmitan cifrados, como el SFTP (Secure File
Transfer Protocol).
Cliente FTP
Cuando un navegador no está equipado con la función FTP,
o si se quiere cargar archivos en un servidor remoto, se
necesitará utilizar un programa cliente FTP. Un cliente FTP
es un programa que se instala en el computador del
usuario, y que emplea el protocolo FTP para conectarse a
un servidor FTP y transferir archivos, ya sea para
descargarlos o para subirlos.
Para utilizar un cliente FTP, se necesita conocer el nombre
del archivo, el computador en que reside (servidor, en el
caso de descarga de archivos), el computador al que se
quiere transferir el archivo (en caso de querer subirlo
nosotros al servidor), y la carpeta en la que se encuentra.
Algunos clientes de FTP básicos en modo consola vienen
integrados en los sistemas operativos, incluyendo Microsoft
Windows, GNU/Linux y Unix. Sin embargo, hay disponibles
clientes con opciones añadidas e interfaz gráfica. Aunque
muchos navegadores tienen ya integrado FTP, es más
confiable a la hora de conectarse con servidores FTP utilizar
un programa cliente.
PRACTICA COPIA DE SEGURIDAD
GOODSYNC
Multidireccional, funciona con archivos en cualquier
ubicación, se actualizan los archivos de todas las
ubicaciones
La sincronización de archivos es el proceso de asegurar que
dos o más ubicaciones contienen actualizados los mismos
archivos. Si usted añade, cambia o borra un archivo de una
ubicación, el proceso de sincronización añade, cambia o
borra el mismo archivo en la otra ubicación. Los archivos se
copian en ambas direcciones, manteniendo las dos o más
ubicaciones sincronizadas con cada una de las otras.
GoodSync no sólo sincronizará todos sus datos, sino que
analiza, filtra y presenta los resultados, asegurando que
usted evita duplicados y sincroniza sólo los archivos que
necesita.
La sincronización de archivos mantiene la misma versión de
los archivos en múltiples ubicaciones, tales como directorios
de un ordenador, o dispositivos de almacenamiento
removibles como discos flash. En otras palabras, cuando
dos ubicaciones se sincronizan, la versión más reciente de
un archivo estará disponible en todas las ubicaciones, sin
tener en cuenta dónde se modificó por última vez. Aunque
es posible sincronizar directorios manualmente, el uso de
una herramienta de software es más rápido y menos
propensa a errores. Según avanza la tecnología y somos
más dependientes de los ordenadores, la sincronización de
archivos es más importante para quienes tengan más de un
ordenador. Los productores de GoodSync comprenden la
importancia de sincronizar y probar a fondo la fiabilidad,
seguridad, velocidad, y esta herramienta es
considerablemente apreciada.
Unidireccional, funciona sobre Archivos de Una
Ubicación, los archivos son duplicados sobre otra
ubicación
La copia de seguridad de sus archivos es importante tanto
si quiere restaurar completamente un ordenador después
de un fallo, o para restaurar una pequeña cantidad de
archivos después de haber sido borrados o dañados de
forma accidental. Las copias de seguridad normalmente son
la última línea de defensa contra la pérdida de datos. Con
GoodSync hará una copia de seguridad de los archivos a
una ubicación diferente o dispositivo, incluyendo, sin
limitarse a ellos, discos flash, servidores, portátiles,
ordenadores de sobremesa, y otros discos. Todas las copias
de seguridad realizadas con GoodSync son rápidas y
seguras, y pueden hacerse sobre Internet o en un servidor.
GoodSync es un software muy potente, pero fácil de usar.
Es suficientemente avanzado para Sincronizar así como
hacer Copias de Seguridad, manteniendo la sencillez de uso
para un novato. Con GoodSync puede planificar sus copias
de seguridad o sincronizaciones para realizarse
automáticamente y estar seguro de que sus archivos están
seguros y actualizados, permitiendo estar completamente
tranquilo.
PRACTICA MONITOREO RED
WIRESHARK
Wireshark es un analizador de protocolos open-source
diseñado por Gerald Combs y que actualmente está
disponible para plataformas Windows y Unix. Conocido
originalmente como Ethereal, su principal objetivo es el
análisis de tráfico además de ser una excelente aplicación
didáctica para el estudio de las comunicaciones y para la
resolución de problemas de red. Wireshark implementa una
amplia gama de filtros que facilitan la definición de criterios
de búsqueda para los más de 1100 protocolos soportados
actualmente (versión 1.4.3); y todo ello por medio de una
interfaz sencilla e intuitiva que permite desglosar por capas
cada uno de los paquetes capturados. Gracias a que
Wireshark “entiende” la estructura de los protocolos,
podemos visualizar los campos de cada una de las
cabeceras y capas que componen los paquetes
monitorizados, proporcionando un gran abanico de
posibilidades al administrador de redes a la hora de
abordar ciertas tareas en el análisis de tráfico. De forma
similar a Tcpdump, Wireshark incluye una versión en línea
de comandos, denominada Tshark, aunque el presente
documento se centrará únicamente en su versión gráfica. Es
importante indicar también que las funcionalidades
utilizadas en el presente informe solo representan una
pequeña parte de todo el potencial que puede ofrecernos
Wireshark, y cuyo objetivo principal es servir de guía
orientativa para cualquier administrador que necesite
detectar, analizar o solucionar anomalías de red. Pueden
existir situaciones en las que Wireshark no sea capaz de
interpretar ciertos protocolos debido a la falta de
documentación o estandarización de los mismos, en cuyo
caso la ingeniería inversa será la mejor forma de abordar la
situación. Otras herramientas como Snort, OSSIM así como
multitud de IDS/IPS permiten alertar sobre algunos de los
problemas y ataques expuestos en esta guía. No obstante,
cuando se necesita analizar tráfico en profundidad o hay
que auditar un entorno en el que el tiempo prima, dichas
herramientas suelen carecer de la flexibilidad que nos
ofrece un analizador de protocolos como Wireshark.
PRACTICA MONITOREO RED CON
MICROSOFT NETWORK MONITOR
Los monitores de red son herramientas útiles para conocer
todo tipo de conexiones que realiza nuestro equipo tanto
dentro de la red local como a internet. Con estas
herramientas podemos conocer fácilmente si estamos
infectados o si algún software está perjudicando al
funcionamiento óptimo de la red local. También nos van a
permitir conocer IPs de origen y destino de los datos así
como los programas que acceden a la red y las conexiones
realizadas por estos. Una de las herramientas más
completas para analizar la red es Microsoft Network
Monitor. Esta herramienta está desarrollada directamente
por Microsoft y es compatible con sus sistemas operativos
desde Windows XP hasta Windows 8.
Microsoft Network Monitor se puede descargar de forma
gratuita desde el centro de descargas de Microsoft. Una vez
descargada la instalamos en nuestro PC. La instalación es
sencilla. Nos preguntará si queremos comprobar las
actualizaciones del programa al ejecutar Windows Update
Microsoft Network Monitor permite de una forma ágil y
sencilla la visualización de las conexiones de cada uno de
los procesos que corren en nuestra red, pudiendo así
identificar irregularidades más fácilmente.
Algunas cosas más que podemos hacer:
Seguimiento del Proceso
Agrupar por conversación red
Sesiones de captura simultánea
Modo Monitor inalámbrico con NICs inalámbricos
compatibles
Captura en tiempo real y visualización de fotogramas
Montaje de los datos fragmentados
Uso de modo promiscuo
Puede leer libpcap archivos de captura
API para acceder a la
captura y el motor de
análisis

3 parcial redes

  • 1.
    PRACTICA SERVICIO IIS(HHTP) Los servicios de Internet Information Server (IIS), son los servicios software que admiten la creación, configuración y administración de sitios web, además de permitir otras funciones de Internet. Los servicios de Microsoft Internet Information Server incluyen los protocolos Network News Transport Protocol (NNTP) o protocolo de transferencia de noticias a través de la red, File Transfer Protocol (FTP) o protocolo de transferencia de archivos, Post Office Protocol (POP) o protocolo de Oficina de Correos, así como Simple Mail Transfer Protocol(SMTP) o protocolo simple de transferencia de correo, pudiendo instalar aquellos que precisemos en función de las necesidades correspondientes. Los servicios de Internet Information Server 6.0 (IIS) de "Windows 2003 Server" facilitan la publicación de información en una Intranet o en Internet, permitiendo una autenticación robusta y segura de los usuarios, así como comunicaciones seguras mediante el protocolo SSL; además,
  • 2.
    utilizando los componentesy secuencias de comandos del servidor, podemos crear contenidos dinámicos independientes del explorador que acceda a los mismos, mediante el lenguaje de script Page Active Server (ASP). También es posible ampliar la funcionalidad de los servidores web del IIS de "Windows 2003 Server" configurando los mismos para que puedan ejecutar scripts elaborados en el lenguaje Personal Home Pages (PHP) y acceder a la base de datos My Structured Query Language (MySQL), así como construir espacios seguros mediante el protocolo Secure Socket Layer (SSL), crear espacios privados, etc. Sin duda el servidor IIS será una pieza clave para gestionar la red, dotándonos de una potente herramienta que nos permitirá construir una Intranet con muchos de los servicios que habitualmente encontraremos en cualquier portal existente en Internet.
  • 3.
    RESPALDO DE INFORMACION Unode los activos intangibles más importantes para cualquier organización es la información. Es claro que sin esta, toda empresa o institución dejaría de funcionar, pues se trata de un elemento indubitablemente necesario para su operación diaria. Para garantizar que las instituciones puedan disponer de información en el momento que es requerida cuando se presenta una eventualidad, es necesario llevar a cabo un proceso preventivo denominado
  • 4.
    “respaldo” o “backup”. Engeneral, un respaldo es una copia de la información que una organización genera, utiliza y actualiza a lo largo del tiempo; también este término se emplea para referirse a las copias de seguridad que se llevan a cabo en los sistemas de información, bases de datos, software de aplicación, sistemas operativos, utilerías, entre otros. El objetivo de un respaldo es garantizar la recuperación de la información, en caso de que haya sido eliminada, dañada o alterada al presentarse alguna contingencia. Normalmente, los respaldos se llevan a cabo en unidades de almacenamiento secundario, como discos duros externos, memorias flash, discos compactos, cartuchos e incluso en la nube (Internet) o en otros equipos de cómputo, locales o remotos. Es una buena práctica establecer políticas institucionales relacionadas con la creación de respaldos, pues el tiempo que hay entre la posible pérdida de información y su recuperación puede ser determinante para la supervivencia
  • 5.
    de una organización.Existen casos documentados de empresas que han desaparecido debido a que, después de un ataque informático, un sismo, una inundación, un incendio o vandalismo, sus equipos de cómputo quedan inservibles y, al no contar con respaldos o tener respaldos obsoletos, les resulta virtualmente imposible recuperar o actualizar la información generada a lo largo de meses e incluso años. Es muy importante puntualizar que si bien el área de sistemas es la encargada de realizar respaldos de los sistemas de información y bases de datos de uso común, es el usuario el directamente responsable de llevar a cabo los backups de su equipo de cómputo, en particular sobre aquellos documentos o archivos de uso diario y que sufren actualizaciones constantes a lo largo del día. Evidentemente, la información a respaldar será la de interés e importancia para el usuario (archivos de datos, imágenes, fotografías, presentaciones, hojas de cálculo, documentos PDF, etc.); asimismo, para garantizar que esta información se respalde adecuadamente, lo más conveniente será
  • 6.
    organizarla en carpetasclasificadas por proyectos, tipos de datos, fechas o cualquier otra forma que le resulte al usuario práctica y fácil de identificar. Existe una regla denominada 3-2-1, aplicada sobre todo para aquellos archivos de importancia crítica: 3. Mantener tres copias del archivo: la original y dos respaldos. Esto disminuirá la probabilidad de perder información por tener unidades dañadas por malware o problema físico. 2. Guardar los archivos en dos unidades distintas de almacenamiento a fin de protegerlos de diferentes daños (por ejemplo, disco duro y memoria flash). 1. Mantener una de las copias “fuera de sitio” (offsite), es decir, en un lugar físico distinto al lugar de trabajo (casa, taller, bodega, caja fuerte, etc.). Si por desgracia la contingencia es mayor, por ejemplo, un sismo o un incendio y se daña o se destruye por completo el equipo de cómputo, al menos existirá en algún otro lugar la información respaldada, y podrá ser recuperada.
  • 7.
    La frecuencia conla que se realice un respaldo estará determinada fundamentalmente por la frecuencia en los cambios de la información. Por ejemplo, ¿con qué periodicidad se debe respaldar la base de datos de una nómina si esta se actualiza dos veces al mes, en contraste con la base de datos de un sistema de reservaciones de vuelos, cuya actualización es continua? La respuesta es evidente. Aunque el anterior es un ejemplo orientado al área de sistemas, un usuario común debe aplicar el mismo criterio con sus archivos. No hay que suponer que jamás se presentará alguna contingencia. Hacer un respaldo de información es como adquirir un seguro de automóvil; es mejor tenerlo para jamás usarlo, que no tenerlo y requerirlo en el momento menos esperado.
  • 8.
    PRACTICA SERVICIO FTP FTP(siglas en inglés de File Transfer Protocol, ‘Protocolo de Transferencia de Archivos’), es un protocolo de red para la transferencia de archivos entre sistemas interconectados o
  • 9.
    enlazados a Internet,basado en la arquitectura cliente- servidor. Desde un equipo cliente se puede conectar a un servidor para descargar archivos desde él o para enviarle archivos, independientemente del sistema operativo utilizado en cada equipo. El funcionamiento es relativamente sencillo. Una persona desde su computador invoca un programa cliente FTP para conectar con otro computador/servidor, que a su vez tiene instalado el programa servidor FTP. Una vez establecida la conexión y debidamente autenticado el usuario con su contraseña, se pueden empezar a intercambiar archivos de todo tipo. Los beneficios de contar con un servicio FTP son bastantes, entre otros se encuentran la facilidad para la transferencia de altos volúmenes de información, velocidad y estabilidad de los enlaces, seguridad en la transferencia de información, bajos costos de implementación y flexibilidad en configuración de cuotas, usuarios y permisos de acceso.
  • 10.
    Para contar conla posibilidad de manejar servicios FTP se requieren básicamente dos elementos principales, un servidor FTP y un cliente FTP. Servidor FTP Un servidor FTP es un programa especial que se ejecuta en un equipo servidor normalmente conectado a Internet. Su función es permitir el intercambio de datos entre diferentes servidores/computadores. Por lo general, los programas servidores FTP no suelen encontrarse en los computadores personales, por lo que un usuario normalmente utilizará el FTP para conectarse remotamente a uno y así intercambiar información con él.
  • 11.
    Las aplicaciones máscomunes de los servidores FTP suelen ser el hosting, en el que los clientes utilizan el servicio para subir sus páginas web y sus archivos correspondientes; o como servidor de backup (copia de seguridad) de los archivos importantes que pueda tener una empresa. Para ello, existen protocolos de comunicación FTP para que los datos se transmitan cifrados, como el SFTP (Secure File Transfer Protocol). Cliente FTP Cuando un navegador no está equipado con la función FTP, o si se quiere cargar archivos en un servidor remoto, se necesitará utilizar un programa cliente FTP. Un cliente FTP es un programa que se instala en el computador del usuario, y que emplea el protocolo FTP para conectarse a un servidor FTP y transferir archivos, ya sea para descargarlos o para subirlos.
  • 12.
    Para utilizar uncliente FTP, se necesita conocer el nombre del archivo, el computador en que reside (servidor, en el caso de descarga de archivos), el computador al que se quiere transferir el archivo (en caso de querer subirlo nosotros al servidor), y la carpeta en la que se encuentra. Algunos clientes de FTP básicos en modo consola vienen integrados en los sistemas operativos, incluyendo Microsoft Windows, GNU/Linux y Unix. Sin embargo, hay disponibles clientes con opciones añadidas e interfaz gráfica. Aunque muchos navegadores tienen ya integrado FTP, es más confiable a la hora de conectarse con servidores FTP utilizar un programa cliente.
  • 13.
    PRACTICA COPIA DESEGURIDAD GOODSYNC Multidireccional, funciona con archivos en cualquier ubicación, se actualizan los archivos de todas las ubicaciones La sincronización de archivos es el proceso de asegurar que dos o más ubicaciones contienen actualizados los mismos archivos. Si usted añade, cambia o borra un archivo de una ubicación, el proceso de sincronización añade, cambia o
  • 14.
    borra el mismoarchivo en la otra ubicación. Los archivos se copian en ambas direcciones, manteniendo las dos o más ubicaciones sincronizadas con cada una de las otras. GoodSync no sólo sincronizará todos sus datos, sino que analiza, filtra y presenta los resultados, asegurando que usted evita duplicados y sincroniza sólo los archivos que necesita. La sincronización de archivos mantiene la misma versión de los archivos en múltiples ubicaciones, tales como directorios de un ordenador, o dispositivos de almacenamiento removibles como discos flash. En otras palabras, cuando dos ubicaciones se sincronizan, la versión más reciente de un archivo estará disponible en todas las ubicaciones, sin tener en cuenta dónde se modificó por última vez. Aunque es posible sincronizar directorios manualmente, el uso de una herramienta de software es más rápido y menos propensa a errores. Según avanza la tecnología y somos más dependientes de los ordenadores, la sincronización de archivos es más importante para quienes tengan más de un ordenador. Los productores de GoodSync comprenden la importancia de sincronizar y probar a fondo la fiabilidad,
  • 15.
    seguridad, velocidad, yesta herramienta es considerablemente apreciada. Unidireccional, funciona sobre Archivos de Una Ubicación, los archivos son duplicados sobre otra ubicación La copia de seguridad de sus archivos es importante tanto si quiere restaurar completamente un ordenador después de un fallo, o para restaurar una pequeña cantidad de archivos después de haber sido borrados o dañados de forma accidental. Las copias de seguridad normalmente son la última línea de defensa contra la pérdida de datos. Con GoodSync hará una copia de seguridad de los archivos a una ubicación diferente o dispositivo, incluyendo, sin limitarse a ellos, discos flash, servidores, portátiles, ordenadores de sobremesa, y otros discos. Todas las copias de seguridad realizadas con GoodSync son rápidas y seguras, y pueden hacerse sobre Internet o en un servidor.
  • 16.
    GoodSync es unsoftware muy potente, pero fácil de usar. Es suficientemente avanzado para Sincronizar así como hacer Copias de Seguridad, manteniendo la sencillez de uso para un novato. Con GoodSync puede planificar sus copias de seguridad o sincronizaciones para realizarse automáticamente y estar seguro de que sus archivos están seguros y actualizados, permitiendo estar completamente tranquilo. PRACTICA MONITOREO RED WIRESHARK
  • 17.
    Wireshark es unanalizador de protocolos open-source diseñado por Gerald Combs y que actualmente está disponible para plataformas Windows y Unix. Conocido originalmente como Ethereal, su principal objetivo es el análisis de tráfico además de ser una excelente aplicación didáctica para el estudio de las comunicaciones y para la resolución de problemas de red. Wireshark implementa una amplia gama de filtros que facilitan la definición de criterios de búsqueda para los más de 1100 protocolos soportados actualmente (versión 1.4.3); y todo ello por medio de una interfaz sencilla e intuitiva que permite desglosar por capas cada uno de los paquetes capturados. Gracias a que Wireshark “entiende” la estructura de los protocolos, podemos visualizar los campos de cada una de las cabeceras y capas que componen los paquetes monitorizados, proporcionando un gran abanico de posibilidades al administrador de redes a la hora de abordar ciertas tareas en el análisis de tráfico. De forma similar a Tcpdump, Wireshark incluye una versión en línea
  • 18.
    de comandos, denominadaTshark, aunque el presente documento se centrará únicamente en su versión gráfica. Es importante indicar también que las funcionalidades utilizadas en el presente informe solo representan una pequeña parte de todo el potencial que puede ofrecernos Wireshark, y cuyo objetivo principal es servir de guía orientativa para cualquier administrador que necesite detectar, analizar o solucionar anomalías de red. Pueden existir situaciones en las que Wireshark no sea capaz de interpretar ciertos protocolos debido a la falta de documentación o estandarización de los mismos, en cuyo caso la ingeniería inversa será la mejor forma de abordar la situación. Otras herramientas como Snort, OSSIM así como multitud de IDS/IPS permiten alertar sobre algunos de los problemas y ataques expuestos en esta guía. No obstante, cuando se necesita analizar tráfico en profundidad o hay que auditar un entorno en el que el tiempo prima, dichas herramientas suelen carecer de la flexibilidad que nos ofrece un analizador de protocolos como Wireshark.
  • 19.
    PRACTICA MONITOREO REDCON MICROSOFT NETWORK MONITOR Los monitores de red son herramientas útiles para conocer todo tipo de conexiones que realiza nuestro equipo tanto dentro de la red local como a internet. Con estas herramientas podemos conocer fácilmente si estamos infectados o si algún software está perjudicando al funcionamiento óptimo de la red local. También nos van a
  • 20.
    permitir conocer IPsde origen y destino de los datos así como los programas que acceden a la red y las conexiones realizadas por estos. Una de las herramientas más completas para analizar la red es Microsoft Network Monitor. Esta herramienta está desarrollada directamente por Microsoft y es compatible con sus sistemas operativos desde Windows XP hasta Windows 8. Microsoft Network Monitor se puede descargar de forma gratuita desde el centro de descargas de Microsoft. Una vez descargada la instalamos en nuestro PC. La instalación es sencilla. Nos preguntará si queremos comprobar las actualizaciones del programa al ejecutar Windows Update Microsoft Network Monitor permite de una forma ágil y sencilla la visualización de las conexiones de cada uno de los procesos que corren en nuestra red, pudiendo así identificar irregularidades más fácilmente. Algunas cosas más que podemos hacer:
  • 21.
    Seguimiento del Proceso Agruparpor conversación red Sesiones de captura simultánea Modo Monitor inalámbrico con NICs inalámbricos compatibles Captura en tiempo real y visualización de fotogramas Montaje de los datos fragmentados Uso de modo promiscuo Puede leer libpcap archivos de captura API para acceder a la captura y el motor de análisis