SlideShare una empresa de Scribd logo
1 de 35
Descargar para leer sin conexión
UNIVERSIDAD NACIONAL ABIERTA
VICERRECTORADO ACADÉMICO
ÁREA: INGENIERÍA
TRABAJO PRÁCTICO
ASIGNATURA: SISTEMAS OPERATIVOS (358)
ALUMNO: MEDINA RONALD
CÉDULA DE IDENTIDAD: V-16.291.029
EMAIL DEL ESTUDIANTE: alexchelsea222@gmail.com
TELÉFONO: 0412-1300161
CENTRO LOCAL: CARABOBO
CARRERA: INGENIERÍA DE SISITEMAS (236)
ASESOR: DRA. ROSA BELEN PERÉZ
LAPSO: 2018-1 (NOVIEMBRE 2018)
RESULTADOS DE CORRECCIÓN:
TABLA DE CONTENIDO
Objetivo 6……………………………………………………………………… Página 3
Objetivo 7……………………………………………………………………… Página 11
Objetivo 8……………………………………………………………………… Pagina 15
Objetivo 10……………………………………………………………………. Pagina 32
PREGUNTA # 1 – OBJETIVO 6 – CRITERIO DE DOMINIO 1/1
El analista de sistema de una oficina informática, al estudiar la memoria virtual de
la arquitectura VAX (por sus siglas en ingles Virtual Address Extensión), se da
cuenta que cada proceso puede tener hasta 2 a la 31= 22 Giga Bytes de
memoria virtual. Utilizando páginas de 29= 512 bytes, eso significa que se
necesitan tablas de páginas de 222 entradas por proceso, llegando a la
conclusión que la cantidad de memoria dedicada sólo a tablas de páginas podría
ser inaceptablemente alta.
Investigando la solución para este problema, se encuentra que la mayoría de los
esquemas de memoria virtual almacenan las tablas de páginas en la propia
memoria virtual, en lugar de utilizar la memoria física. Esto significa que la tabla de
páginas también está sujeta a paginación, igual que el resto de los programas y
datos. Cuando un programa se está ejecutando, al menos una parte de su tabla de
páginas (TP), incluyendo el elemento correspondiente a la página actualmente en
ejecución, debe estar en la memoria principal.
Entre las formas de organización encuentra que, algunos procesadores hacen uso
de un esquema de dos o más niveles para organizar las tablas de páginas.
Existen, otras alternativas donde se elimina de la tabla de páginas las entradas
que no apuntan a una página de la memoria física, reduciendo las entradas a un
número igual al de páginas de la memoria física. Y también existen esquemas
donde se evita la duplicación del tiempo de acceso a la memoria utilizando un
cache especial para los elementos de la TP.
Basado en lo anteriormente expuesto: Analice, describiendo detalladamente las
diferentes formas de organización de la tabla de páginas.
Los algoritmos para reemplazo de páginas, tienen que considerar que cuando se
produce un fallo de página, el sistema operativo tiene que escoger la página saldrá
de memoria para hacer espacio para colocar una página que traerá del
almacenamiento secundario, como un disco. También se debe considerar que si la
página a desalojar fue modificada mientras estaba en memoria, se debe reescribir
en el disco para su debida actualización si en caso contrario no tiene modificación
alguna, la copia en el disco duro ya está actualizada y no es necesario rescribirla.
Se podría escoger una página aleatoriamente y desalojarla como una posible
solución cuando se produzca un fallo de página, pero pueden ocurrir dos
situaciones las más favorable es que el rendimiento del sistema aumentó si se
escogió una página que no se usa mucho, o por el contrario al escoger una página
muy utilizada, esta probablemente tenga que volver a cargarse en memoria con el
gasto adicional que significa.
Adicionalmente hay que tener en cuenta que la memoria del sistema no solo se
usa para almacenar páginas, también se usa; entre otras cosas, para los búferes
de los dispositivos e/s que consumen una cantidad considerable de memoria, lo
cual genera un desafío importante. Se han realizado diversos trabajos sobre los
algoritmos de reemplazo de páginas, a continuación se describirá los más
relevantes:
Sustitución básica de páginas:
Se basa en la siguiente técnica, si no hay algún marco libre, se localiza uno que
no esté actualmente actualizado y se libera. Se puede liberar un marco
escribiendo su contenido en el espacio de intercambio y modificando la tabla de
páginas y así indicar que esta página ya no está en memoria. (En la Figura 1.1 se
muestra el esquema sobre la sustitución de páginas). Ahora si se puede utilizar el
marco liberado para almacenar la página que causo el fallo en el proceso.
Figura 1.1 Sustitución de páginas.
Se puede modificar la rutina de servicio de fallo de página para incluir este
mecanismo de sustitución de páginas:
Paso 1. Hallar la ubicación de la página deseada dentro del disco.
Paso 2. Localizar un marco libre:
2. a Si hay un marco libre, utilizarlo.
1
3
2
4
2. b Si no hay alguno libre, utilizar el algoritmo de sustitución de páginas para
seleccionar el marco víctima.
2. c Escribir el marco victima en el disco; cambiar las tablas de páginas y de
marcos correspondientes.
Paso 3: Leer la página deseada y cargarla en el marco recién liberado; cambiar
las tablas de páginas correspondiente.
Paso 4: Reiniciar el proceso de usuario.
Es importante resaltar que si no hay ningún marco libre, se requiere dos
transferencia de páginas, una de descarga y una de carga, esta situación duplica
el tiempo de servicio del fallo de página e incremente el tiempo efectivo de acceso.
Algoritmo de reemplazo de páginas de primero en entrar, primero en salir,
(FIFO):
Es el algoritmo más simple de sustitución de páginas, asocia cada página con el
instante en que esa página fue cargada en memoria. Al requerir sustituir una
página, se elige la página más antigua. No es estrictamente necesario guardar los
instantes donde se cargó cada página, simplemente al crear una cola FIFO donde
se almacenan todas las páginas en memoria y sustituir la página que esta al
principio de la cola. Al ser cargada en memoria una página nueva se inserta al
final de la cola.
El algoritmo de sustitución de página FIFO es fácil de entender y de programar.
Sin embargo, su rendimiento no siempre es bueno, es posible que la página
sustituida por ejemplo, pueda ser una aplicación que ya no sea necesaria reusar,
o que se haya usado en el arranque de un programa, o que haya usado hace
mucho tiempo. Otro inconveniente de este algoritmo, es que a pesar de usar como
sustitución de un fallo, una página que sea utilizada de forma activa y que el
sistema funcione de forma adecuada, al sustituir esta página activa por otra se
producirá casi irremediablemente un nuevo fallo y esta página activa sufrirá por
recarga. Es decir se puede incrementar la tasa de fallos de página y ralentización
en la ejecución de procesos por una mala elección de página que hay que
sustituir.
Algoritmo óptimo de reemplazo de páginas:
En algunas curvas de fallos de página se presentó una inconsistencia bastante
peculiar: Las tasas de fallos pueden incrementarse a medida que se incrementa el
número de marcos asignados. Lo esperado es que al asignar más memoria a un
proceso mejore su rendimiento, pero luego se realizarse algunos trabajos de
investigación se observó que la suposición no siempre es correcta, estas
investigaciones le dieron el nombre de anomalía Belady a la inconsistencia
mencionada.
Como resultado del descubrimiento de la anomalía Belady, se decidió encontrar
un algoritmo óptimo de sustitución de páginas. Será óptimo si posee la tasa más
baja de fallos entre todos los algoritmos y que no presente la anomalía Belady, Al
usar este algoritmo se garantiza la tasa de fallos de página más baja posible, si se
tiene un número fijo de marcos. El mejor algoritmo de reemplazo de páginas
posible es fácil de describir, pero imposible de implementar:
Al momento en que ocurre un fallo de página, Hay un conjunto de páginas en
memoria y una de éstas se referenciará en la siguiente instrucción, otras páginas
es posible que no referencien hasta muchas instrucciones después (50, 500,
5000). De esta forma, cada página se puede etiquetar con el número de
instrucciones que se ejecutarán antes de que se haga referencia por primera vez a
esa página.
El algoritmo óptimo establece, que la página con la etiqueta más alta debe
eliminarse. Es decir se sustituye la página que no vaya a ser utilizada durante el
periodo más largo. Por ejemplo, si una página no se va a utilizar luego de 100.000
instrucciones y otra no se va a utilizar durante 80.0000 instrucciones, al eliminar la
primera se enviará el fallo de página que la obtendrá de vuelta lo más lejos posible
en el futuro. Se toma la misma idea de que las personas posponen las cosas
indeseables hasta la mayor cantidad de tiempo posible.
El único problema con este algoritmo es que no se puede realizar. Al momento del
fallo de página, el sistema operativo no tiene forma de saber cuándo será la
próxima referencia a cada una de las páginas. Es decir no tiene conocimiento
futuro de la cadena de referencia,
Este algoritmo es útil al ejecutar un programa en un simulador y llevar la cuenta de
todas las referencias a páginas, es posible implementar un algoritmo óptimo de
reemplazo de páginas a partir de la segunda ejecución, al utilizar la información de
referencia de páginas obtenida durante la primera ejecución.
Con este enfoque se puede realizar una comparación de rendimiento de otros
algoritmos con el mejor posible, para obtener una eficiencia del sistema tomando
en cuenta los factores como el costo – beneficio.
Algoritmo de reemplazo de páginas: no usadas recientemente o NRU (Not
Recently Used)
Las computadoras con memoria virtual usan en su mayoría un par de bits de
estado a cada página, para que el sistema operativo pueda obtener información
útil sobre el uso de las páginas. Un bit b1 se enciende cada vez que se hace
referencia a la página, y b2 se enciende cada vez que se escribe en la página (es
decir una modificación).
Estos bits deben actualizarse en cada referencia a la memoria, por lo tanto, es
muy importante que el hardware sea quien los encienda. Cuando algunos de los
bits este encendido, se debe guardar el valor 1 hasta que el sistema operativo
mediante software lo restablezca a 0.
En el caso de que el hardware no posea estos bit, se pueden establecer mediante
simulación mediante la siguiente forma: Al iniciar un proceso, todas sus
respectivas entradas en la tabla de páginas se marcan que no están en memoria,
al hacer referente a una página, en ese momento ocurrirá un fallo de página, ahí el
sistema operativo encenderá el bit b1 en tablas internas, se cambia la entrada en
la tabla para poder apuntar a una página correcta, con el modo solo lectura y
reiniciar la instrucción. Si posteriormente se modifica la página, ocurrirá otro fallo
de página que permita al sistema establecer el bit b2 y el cambiar el modo de
página a lectura/escritura.
Los bits b1 y b2 pueden construir un algoritmo simple de paginación: Al iniciar un
proceso, ambos bits se inician en 0 para todas las paginas, el sistema operativo se
encarga de esta operación. El bit b1 se borra periódicamente, cuando produce una
interrupción de reloj, para poder diferencia las paginas a las que no se ha hecho
referencia recientemente de las que sí han referenciado. Al presentarse un fallo de
página, se inspeccionan todas las páginas y se dividen en cuatro categorías,
tomando como base los valores actuales de sus bits b1 y b2:
Categoría 0: No ha sido solicitada, no ha sido modificada.
Categoría 1: No ha sido solicitada, ha sido modificada.
Categoría 2: Ha sido solicitada, no ha sido modificada.
Categoría 3: Ha sido solicitada, ha sido modificada.
Pudiera parecer imposible en primera instancia que alguna página este en la
categoría 1, esto sucede cuando una interrupción de reloj apaga el bit 1 de una
página de la categoría 3. Las interrupciones de reloj no eliminan el bit 2 porque
esta información es requerida para saber si la página se ha rescrito en el disco o
no. Cuando se borra b1 pero no b2 se obtiene una página de categoría 1.
El algoritmo NRU elimina aleatoriamente una página de la categoría menos que no
se encuentre vacía. El algoritmo se basa en la idea en que es mucho mejor
eliminar una página modificada pero que no haya sido referenciada en por lo
menos un ciclo reloj que una página que se utilice frecuentemente. Lo atractivo del
NRU es su fácil comprensión, en su implementación se obtiene una eficiencia
aceptable y da un rendimiento adecuando a pesar de no ser óptimo.
Algoritmo de reemplazo de página recientemente menos usada o LRU (Least
Recently Used):
Cuando el algoritmo óptimo no es factible, es posible una aproximación a él. La
diferencia entre el algoritmo FIFO y el óptimo, además de que uno mira hacia atrás
en el tiempo y el otro mira hacia adelante, es que FIFO utiliza el instante de tiempo
donde se cargó una página en la memoria, mientras que por otro lado el algoritmo
optimo utiliza el instante donde hay que utilizar la página. Si se realiza una especie
de enlace o punto medio de estos dos métodos al utilizar el pasado reciente como
aproximación al futuro cercano, se puede sustituir la página que no haya sido
utilizada durante la mayor cantidad de tiempo.
El algoritmo LRU es factible teóricamente, pero tiene un costo elevado. El cómo
implementar este mecanismo de sustitución suele traer complicaciones, para
poder hacerlo es preciso mantener una lista enlazada de todas las páginas que
están en la memoria, con la que usó más recientemente al principio y la menos
recientemente usada al final. La dificultad radica en que la lista debe actualizarse
cada vez que se hace referencia a la memoria, esto requiere una cantidad
importante de asistencia por parte del hardware, para que halle la página en la
lista, borrarla y reinsertarla al frente puede llevar grandes demoras. Hay dos
posibles implementaciones:
Por contadores: Es la forma más simple se asocia con cada entrada en la tabla
de páginas un campo de tiempo de uso y se añade al CPU un reloj lógico. Este
reloj se incrementará con cada referencia a la memoria. Al realizar una referencia
a una página se copia el registro tiempo del reloj al campo de tiempo de uso de la
entrada de la tabla de páginas de esta página. Al tener el tiempo de la última
referencia a cada página se podrá sustituir la página que tenga el valor temporal
menor. Este esquema requiere hacer una búsqueda en la tabla de páginas para
encontrar la página recientemente menos usada y realizar una escritura en
memoria, para cada acceso a memoria. Estos tiempos de “espera” se deben
mantener de forma apropiada cuando se modifique las tablas de páginas sin dejar
de lado el posible desborde del reloj.
Pila: Consiste es tener una pila de número de páginas, cuando se haga una
referencia a una página, se extrae de la pila y se le coloca en la parte superior,
con este procedimiento la página usada más recientemente, siempre estará en la
parte superior y la menos reciente en la parte inferior. Por eso, es necesario
suprimir las entradas de la parte intermedia de la pila, una lista doblemente
enlazada es la mejor opción para poder implementar este mecanismo, con un
puntero a la cabeza y otro en la cola. En el peor de los casos al eliminar una
página se requerirá modificar seis punteros. Estas actualizaciones son un poco
más caras que con la forma anterior, pero se ahorra la necesidad de buscar la
página que hay sustituir, esto es porque el puntero de la cola siempre apuntara a
la parte inferior de la pila, que será la página recientemente menos utilizada. Es
importante señalar que poder implementar este algoritmo LRU,
independientemente del tipo de implementación, se requiere de una asistencia de
hardware bastante compleja. Cada actualización de reloj o de la pila deben
hacerse para todas las referencia en memoria y pocos sistemas podrían tolerar
esa carga de trabajo a la gestión de memoria.
Algoritmo de segunda oportunidad:
Es una modificación sencilla del algoritmo FIFO, que evita el inconveniente de
eliminar una página de uso frecuente es inspeccionar el bit 1 de la página más
antigua. Si es igual a 0, se considera la página como antigua y no se ha utilizado,
y por lo tanto se sustituye inmediatamente. Si el bit1 es 1, el bit se borra, y la
página se pone al final de la lista y se actualiza su campo de tiempo, como se
tratara de una página recién cargada en la memoria. A partir de o la búsqueda
continua. En la siguiente grafica se muestra un conjunto de páginas desde A hasta
H en una lista enlazada, estas páginas están ordenadas según la hora a la que
llegaron a memoria.
Figura 1.2 Operación del algoritmo de segunda oportunidad.
En 1.2.a están ordenadas las páginas por FIFO, en 1.2.b, Es una lista de páginas
si ocurre un fallo de página en el tiempo 20 y A tiene el bit 1 activado. Los
números encima de las paginas son su sus tiempo de carga respectivo.
Sustitución de páginas. En 1.2.a se observa que las páginas de la A a la H se
mantienen en una lista ligada y se ordenan con base en el tiempo en que llegaron
a la memoria. Como ejemplo suponga que aparece un fallo de página en el tiempo
20. La página más antigua es A, que llegó en el tiempo 0, cuando se inició el
proceso. Si el bit 1 de A esta desactivado, este sale de memoria, ya sea por una
escritura en el disco o sólo se abandona. Por el contrario si bit1 está activado, la
pagina A se coloca al final de la lista y su campo de tiempo se restablece al tiempo
actual (20). El bit1 también se desactiva. La búsqueda de una página apropiada
sigue con B.
Lo que hace el algoritmo es buscar una página antigua a la que no se haya hecho
referencia durante el reloj anterior. En el caso que se haya hecho referencia a
todas las páginas, se transforma en un algoritmo FIFO puro. Retomando el
ejemplo de figura 1.2, consideremos que los bits 1 de todas las páginas estén
encendidos, el sistema operativo va pasando página por página al final de la lista y
va apagando el bit 1 cada vez que se anexa una página al final. Finalmente el
sistema volverá a examinar la página A, que ahora tiene su bit 1 desactivado,
ahora en este punto A es desalojada y así el algoritmo termina.
Algoritmo de reemplazo de páginas tipo reloj:
A pesar de que el algoritmo segunda oportunidad es razonable, es menos eficiente
de lo que debería, porque mueve constantemente páginas de un lugar a otro
dentro de la lista. Una mejor estrategia seria mantener todas las páginas en una
lista circular parecida a un reloj como esta en la figura 1.3. donde una manecilla
apunta a la página más antigua.
Figura 1.3 Algoritmo de reemplazo de páginas tipo reloj.
Cuando se presenta un fallo de página, se examina la página que a la que apunta
la manecilla. Si el bit 1 es 0, la página se desaloja, se inserta la nueva página en el
reloj en su lugar y la manecilla se avanza una posición. Si bit 1 es 1, se cambia a 0
y la manecilla se adelante una posición. Este proceso se repite hasta hallar una
página con bit 1 = 0. No es ninguna sorpresa porque a este algoritmo se le llame
reloj. La diferencia que tiene con el de segunda oportunidad es en su
implementación.
PREGUNTA # 2 – OBJETIVO 7 – CRITERIO DE DOMINIO 1/1
La interface NFS (Network File System) es una interfaz entre el sistema de
ficheros físico, y un sistema remoto que cuando recibe una petición vía red, opera
las modificaciones sobre el sistema local, dispone de todo lo que se puede esperar
de un sistema de ficheros tipo Unix: gestión de permisos, propiedades avanzadas,
enlaces, tuberías con nombre, entre otros. Desde el punto de vista del cliente, se
trata de un sistema de ficheros clásico, que se monta con la instrucción mount, y
se integra en la jerarquía de ficheros existente en la máquina. Todas las órdenes
de entrada y salida son enviadas al servidor que se encarga de procesarlas, y
controlar el acceso concurrente a ficheros. También proporciona un archivo de
solución, permitiendo transferir archivos entre equipos con sistema operativo
Windows Server y sistemas operativos UNIX. Con la información anterior y, dadas
las especificaciones de los siguientes equipos:
Dos equipos que ejecutan Windows Server en el que se va a instalar los dos
principales componentes de servicios para NFS: Servidor para NFS y cliente para
NFS.
Dos equipos UNIX que ejecutan software de cliente NFS y servidor NFS. El equipo
basado en UNIX ejecuta un NFS de hosts de servidor, de archivo compartido o
exportación, y tiene acceso a un equipo que ejecuta Windows Server como cliente
para NFS.
Un controlador de dominio que se ejecuta en el nivel funcional de Windows Server.
El controlador de dominio proporciona información de autenticación de usuario y la
asignación para el entorno de Windows.
Analice cómo se conectan los equipos especificados anteriormente a una red de
área local (LAN), utilizando la infraestructura NFS, describiendo:
a) En que versión de Windows se instala el Servidor para NFS.
Definición:
Network File System (NFS), es un protocolo de nivel de aplicación, según el
Modelo OSI. Es utilizado en redes locales. Permite conectar equipos con distintos
sistemas a una red común que posee en realidad ficheros remotos. Fue
desarrollado por Sun Microsystems con el objetivo de que sea independiente de la
máquina y el sistema operativo. El protocolo NFS está incluido por defecto en los
Sistemas Operativos UNIX y la mayoría de distribuciones Linux.
Es este caso de estudio, NFS proporciona una solución que permite transferir
archivos entre equipos que ejecutan Windows Server y sistemas operativos UNIX
mediante el protocolo NFS de uso compartido de archivos.
NFS en Windows Server 2012:
Las nuevas características que han cambiado en Windows Server 2012 son:
Soporte para NFS versión 4.1. Esta versión de protocolo incluye las siguientes
mejoras:
Navegación sencilla por los servidores de seguridad, que permite mejorar la
accesibilidad.
Admite el protocolo RPCSEC_GSS, que proporciona una mayor seguridad, y
permite a los clientes y servidores negociar la seguridad.
Admite semántica de archivo de UNIX y Windows.
Aprovecha las ventajas de las implementaciones de servidor de archivos
agrupados en clúster.
Compatibilidad con los procedimientos compuestos que tienen asistencia WAN.
Módulo NFS para Windows PowerShell: Disponibilidad de cmdlets integrados
de NFS facilita automatizar varias operaciones.
Mejoras de administración de NFS: Al tener una consola de administración
centralizada basada en la interfaz de usuario, simplifica la configuración y
administración de SMB y recursos compartidos NFS.
Mejoras de asignación de identidad: Nueva compatibilidad de la interfaz de
usuario y basada en tareas de los cmdlets de Windows PowerShell para configurar
la asignación de identidad, lo que permite a los administradores configurar
rápidamente un origen de asignación de identidad y crear identidades asignadas
individuales para los usuarios.
Reestructurar de modelo de recurso de clúster: Aporta coherencia entre el
modelo de recursos de clúster para NFS de Windows y servidores de protocolo
SMB y simplifica la administración.
Integración con el Administrador de claves de reanudación: Es un
componente que realiza un seguimiento de servidor de archivos y el estado del
sistema de archivos y permite a los servidores de protocolo SMB de Windows y
NFS la conmutación por error sin interrumpir clientes o aplicaciones de servidor.
b) Especificación de Protocolos NFS.
El servidor NFS se puede instalar en cualquier versión de Windows Server 2012.
Se puede usar NFS con equipos basados en UNIX que ejecutan un servidor NFS
o el cliente para NFS, si se cumplen implementaciones de servidor y cliente NFS
algunas de los siguientes especificaciones de protocolo:
Especificación de protocolo NFS versión 4.1 (https://tools.ietf.org/html/rfc5661)
Especificación de protocolo NFS versión 3. (https://tools.ietf.org/html/rfc1813)
Especificación de protocolo NFS versión 2: (https://tools.ietf.org/html/rfc1094)
Cada enlace web proporciona toda la información técnica sobre el protocolo
correspondiente. En general la versión 2 es la más usada y soportada por los
sistemas operativos, pero al mismo tiempo la más antigua e insegura. La versión 3
es más potente que la 2 pero no es compatible con la totalidad de clientes de la
versión anterior. Ambas versiones pueden trabajar tanto con TCP como con UDP
como protocolo de transporte creando conexiones de red entre cliente y servidor.
En general las versiones 2 y 3 de NFS no contemplan un control de acceso al
sistema de archivos por usuario, solo lo permiten para los equipos. Esto implica
que si un sistema de archivos es exportado desde el servidor NFS, cualquier
usuario de un equipo remoto cliente NFS podría acceder a él.
En la versión 4 los problema de seguridad mencionados desaparecen, a cambio
tiene unos requerimientos de configuración adicionales más importantes. En la
versión 4 la utilización de mecanismos para la autenticación de los usuarios es
obligatoria. Este requerimiento proporciona seguridad al servicio NFS a cambio de
incluir mayor complejidad a su configuración y puesta a punto.
Otra característica de NFS4 es la utilización de Listas de Control de Acceso, que
no son soportadas por las versiones 2 y 3. Estas listas de control de acceso se
refieren a los derechos de acceso que tiene cada usuario sobre un archivo o
directorio y que vienen especificados a modo de listas editables por el
administrador del sistema.
c) Como se instala el sistema de archivos de red en el servidor mediante el
administrador del servidor.
A continuación se explicara el paso a paso del proceso de instalación:
Paso 1: En el apartado de agregar roles y características, en las funciones del
servidor, seleccionar Servicios de Archivo y Almacenamiento, en caso de que
ya no se haya instalado previamente.
Paso 2: Bajo el iSCSI y los archivos de servicios seleccionar el servidor de
archivos y el servidor para NFS, luego se debe seleccionar Agregar
características al incluir las características NFS seleccionadas.
Paso 3: Seleccionar la instalación adecuada para poder instalar los componentes
NFS en el servidor.
d) En qué tipo de entornos se aplica la Infraestructura NFS.
NFS admite un entorno mixto de sistemas operativos basados en Windows y
basados en UNIX. Los siguientes escenarios de implementación son ejemplos de
cómo implementar un servidor de archivos bajo plataforma Windows.
Recursos compartidos de archivos de aprovisionamiento en entornos
heterogéneos:
Este escenario se aplica a las organizaciones que tienen entornos heterogéneos
que constan de equipos Windows y otros sistemas operativos, como Linux o UNIX.
En este escenario puede proporcionar acceso de múltiples protocolos para el
mismo recurso compartido de archivos a través de protocolos el SMB y NFS.
Generalmente al implementar un servidor de archivos de Windows en este
escenario, se quiere facilitar la colaboración entre los usuarios Windows y equipos
basados en UNIX. Cuando de configura un recurso compartido de archivos, se
comparte los protocolos SMB y NFS. A los usuarios de Windows se obtiene
acceso a sus archivos a través del protocolo SMB mientras que lo usual en
usuarios UNIX es tener en acceso a sus archivos a través del protocolo NFS.
Recursos compartidos de archivos de aprovisionamiento en entornos
basados en UNIX:
En este escenario los servidores de archivos Windows se implementan en un
entorno basado en UNIX, fundamentalmente para proporcionar acceso a recursos
compartidos de archivos NFS para los equipos cliente basados en UNIX. Una
opción de acceso de usuario de UNIX sin asignar, siglas (UUUA). Se ha
implementado de forma inicial para recursos compartidos NFS en Windows Server
2008 R2 para la asignación de cuentas de Windows, los servidores pueden usarse
para almacenar datos NFS sin tener que crear UNIX a Windows. UUUA permite a
los administradores aprovisionar rápidamente NFS sin tener que configurar la
asignación de la cuenta. Cuando está habilitada para NFS, UUUA crea
identificadores de seguridad personalizado (SID) para representar los usuarios sin
asignar. Las cuentas de usuario asignado usan identificadores de seguridad (SID)
de Windows estándares y sin asignar a los usuarios usan SID de NFS
personalizados.
Sitios de implementación de la infraestructura NFS:
Se puede implementar a los siguientes equipos y que estén interconectados en
una red LAN:
Uno o varios equipos que ejecutan Windows Server 2012 en el que se instalará los
dos servicios principales para los componentes NFS: servidor para NFS y cliente
para NFS. Se puede instalar estos componentes en el mismo equipo o en equipos
diferentes.
Uno o varios equipos basados en UNIX que ejecutan servidor NFS y software de
cliente NFS. El equipo basado en UNIX que se está ejecutando como servidor
NFS hospeda un recurso compartido de archivos NFS o de exportación, que se
accede a un equipo que ejecuta Windows Server 2012 como un cliente para el
NFS. Para instalar el software de cliente y servidor NFS, en el mismo equipo
basado en UNIX o en varios equipos basados en UNIX distintos según la
preferencia del administrador.
Un controlador de dominio que se ejecuta en el nivel funcional de Windows Server
2008 R2. El controlador de dominio proporciona información de autenticación de
usuario y la asignación de entorno de Windows.
En los casos que no se implemente un controlador de dominio se puede usar un
servidor de servicio de servicio de información de red (NIS) para proporcionar
información de autenticación de usuario para el entorno de UNIX. También se
puede usar archivos de contraseña y un grupo de estos se almacenan en el
equipo que se esté ejecutando al servicio de asignación de nombres de usuario.
PREGUNTA # 3 – OBJETIVO 8 – CRITERIO DE DOMINIO 1/1
El gerente de la oficina informática desea implementar el almacenamiento terciario
como intercambiador de cintas o de discos extraíbles ya que según
recomendaciones recibidas por otros colegas este nivel de jerarquía de
almacenamiento proporciona una mayor capacidad, es más barato pero también
es más lento, por lo tanto para la implementación de dicha tecnología, se ha de
realizar un estudio detallado sobre la misma. En este contexto se le pide realizar el
estudio mencionado anteriormente, respondiendo a los siguientes planteamientos:
a) ¿En qué tipo de instalaciones se aplican los sistemas de gestión de
almacenamiento jerárquico denominado por sus siglas en inglés HSM
(Hierarchical Storage Management)?.
b) ¿Qué significado tiene en la tecnología HSM el ciclo de vida de la información?
El éxito futuro de las empresas públicas o privadas está basado en las decisiones
que tomen hoy, de acuerdo al conocimiento de la información con que cuenten. El
valor de la información va más allá del tiempo de acceso, las organizaciones
también deben evaluar la eficiencia de unir la información con los procesos y
establecer métodos para proveer un seguro acceso a la información requerida en
el tiempo preciso y desde cualquier estación de trabajo.
Recientemente el crecimiento de la información no estructurada por su volumen,
complejidad y diversidad ha hecho necesaria una evolución en los sistemas de
gestión de su almacenamiento. Esta evolución se ha hecho imprescindible para
evitar el caos en los sistemas de información tanto internos como externos. Cada
organización tiene necesidades internas y externas diferentes, un punto común es
disponer un repositorio donde se almacene y mantenga actualizada toda la
información, donde luego pueda ser accesada a través de los canales más
adecuados.
Un sistema de almacenamiento de la información, totalmente integrado en el
funcionamiento de la administración de datos, podrá gestionar de forma eficiente y
eficaz el ciclo completo de la vida de la información; almacenar de forma eficaz
esta y compartirla es la base imprescindible para la gestión de la información en
tiempo real, y accesibles. Diversos conflictos surgen cuando una organización
utiliza varios cauces para manejar la información y los procesos de negocio por
ejemplo: dificultad de acceso a la información, existencia de distintas interface de
usuario, incremento de los costes operacionales, etc.
El volumen de la información está aumentando de manera exponencial, hasta el
punto de que se prevé un crecimiento de la necesidad de capacidad de
almacenamiento por encima del 180% anual. Sin embargo almacenar toda esa
información en discos un costo elevado, y su uso no está justificado cuando esa
información no va a ser utilizada y solo se conserva. Es en este punto donde
aparece el concepto del ILM (Information Lifecycle Management) o ciclo de vida de
la información.
Ciclo de vida de la información – ILM:
La información que cualquier organismo genera tiene un ciclo de vida que viene
marcado por el uso que se pueda hacer con ella en un momento determinado.
Por lo general el valor de la información va disminuyendo progresivamente a
medida que pasa el tiempo, hasta el punto que su valor puede ser residual. El
ritmo de envejecimiento varía según su naturaleza y aplicación, lo que añade
complejidad a su gestión en el tiempo. A medida que la información va perdiendo
valor, los costos de su almacenamiento van perdiendo su justificación, por lo tanto
el reto principal es ir trasladando la información a dispositivos más baratos.
Asegurando que la información necesaria va a estar siempre disponible.
Jerarquía de Almacenamiento:
En los últimos años la tendencia ha sido tener en tiempo real los centros de
cómputos, esto ha producido cambios en el almacenamiento y la preferencias por
equipos de acceso directo. Anteriormente la voz cantante eren los procesos por
lotes, donde la cinta magnética era el medio favorito. Versiones mejoradas de las
cintas, hoy en día se utilizan en los centro de cómputo, aunque que los discos de
acceso directo hoy tienen un mayor peso debido a su rendimiento y tiempo de
respuesta. Existe jerarquía de dispositivos, como se representa en la figura 8.1.
Figura 8.1 Jerarquía de Almacenamiento
Esta jerarquía se compone de dispositivos de almacenamiento de muy alta
velocidad de acceso en el tope, y en su parte más baja por dispositivos de baja
velocidad de acceso. Existe una relación costo - capacidad de almacenamiento en
cada piso. Los equipos de alta velocidad son más costosos ($/Mb) que los más
lentos y los dispositivos más lentos ofrecen una mayor capacidad de
almacenamiento por unidad. La pirámide representa una situación común donde
se tienen pocas unidades de almacenamiento de alta velocidad, que se utilizan
para servicio a datos que constantemente utilizados hasta llegar al nivel más bajo
donde se tiene una mayor cantidad de unidades de almacenamiento de baja
velocidad pero más económicos, que almacenan datos que no se requieren
usualmente y de bajo rendimiento.
Al administrar los estratos, hay que ubicar en cada uno de ellos, los datos que de
verdad merezcan y justifiquen recibir tiempo de acceso correspondiente, porque
no tendría sentido, que en un sistema solamente se utilicen discos de estado
sólido, para que toda la información reciba el mejor nivel de servicio posible, por
dos motivos: el costo sería altísimo e injustificado, y el segundo es que no todos
los datos, requieren de contar con tan altos niveles de servicio y por lo tanto se
puede caer en costos infructuosos. Se explicará brevemente algunos estratos de
la jerarquía de almacenamiento.
SSD - Disco de estado sólido: Es en realidad más cercano a una memoria de
acceso directo (RAM, Random Access Memory) que a un disco. El SSD consiste
de varios módulos de control y una cantidad variable de RAM. Fueron introducidos
para manejar la actividad de paginación, pero al crecer su capacidad se abrieron a
nuevas aplicaciones, en especial donde el pobre rendimiento de los discos
empezaba a afectar en los tiempos de respuesta. Cuando se usan para almacenar
los archivos más activos, se produce una importante mejora en el rendimiento de
las aplicaciones.
Discos con memoria caché: Proporcionan un alto rendimiento en liberar memoria
RAM en los controladores, este tipo de RAM sirve área de retención para los datos
referenciados de alta frecuencia, y también es conocida como memoria caché y
disminuye el tiempo de servicio para las operaciones de E/S, mejorando así el
rendimiento global. Se basa en el principio básico de suponer la alta probabilidad
en usar un registro que ha sido utilizado recientemente. El resultado son
operaciones de E/S atendidas sin acceso a un disco físico, y se completan en
tiempos que solo requiere la transferencia electrónica de datos, sin recurrir a
movimientos mecánicos que tienen los discos magnéticos. Solo ciertas
aplicaciones obtienen una ventaja significativa y justificable, debido a la propia la
naturaleza de la operación de la memoria caché, por ejemplo: archivos con alto
porcentaje de lectura y bajo porcentaje de escritura.
Discos sin memoria caché: Es donde se almacena la gran mayoría de los datos
en los centros de cómputo. Ha habido una mejora en las densidades de
almacenamiento, aunque la velocidad de acceso no ha mejorado tan
dramáticamente como la densidad. Sirven para aplicaciones de acceso secuencial
o aleatorio. Se ha constatado que mientras la capacidad de los dispositivos de
este tipo ha aumentado, el porcentaje de espacio realmente utilizado ha bajado, lo
cual indica que el incremento de E/S sobre un mismo equipo ocasiona problemas
de contención y de pobre rendimiento. De forma contundente se puede afirmar,
que la capacidad instalada no se usa al 100% debido a: rendimiento en declive,
ubicación de archivos y uso inefectivo del todo el espacio definido.
Cintas o cartuchos magnéticos: Este medio fue uno de los primeros en surgir y
continúa siendo usado ampliamente para el almacenamiento de alto volumen y
bajo costo. Una gran mayoría de cintas siguen siendo de nueve pistas, y
recientemente existen cartuchos de 18 y 36 pistas, con una capacidad que va de
200 Mb a 200 Gb. Tiene la gran ventaja de ser intercambiable y portable, una
posición ideal para el almacenamiento fuera de sitio como puede ser: resguardo
de datos fuera del centro de cómputo, protección en caso de desastre o de
destrucción de locaciones, para respaldo de información, para intercambio de
datos entre centros de cómputo, y para almacenamiento de archivos de bajo uso.
El tiempo de acceso es el más bajo de toda la jerarquía, ya que es el único que
involucra la intervención humana al requerir que un operador encuentre un
cartucho específico y lo introduzca en los equipos lectores. En los últimos años
esto ha cambiado un poco con la introducción de cinto tecas automáticas que
incluyen brazos robóticos de montaje/desmontaje, reemplazando a los
operadores.
Administración de la jerarquía de almacenamiento:
Significa administrar todos los componentes dentro de la pirámide de jerarquía
descrita. Los tiempos de acceso de los discos magnéticos no han evolucionado al
mismo ritmo de los procesadores en los últimos años. El resultado es que los
ciclos de CPU son de un orden mayor por millones de veces a los tiempos de
acceso a disco.
La solución a este problema es la implantación y la administración de una
jerarquía de almacenamiento, donde se involucre un manejo efectivo de todos los
recursos, incluyendo los SSD y los discos con memoria caché para reducir el
tiempo de acceso, y al mismo tiempo mantener al mínimo indispensable la
cantidad de dispositivos instalados, debido al costo incurrido. Este proceso inicia
con la discriminación de datos que requieren de un acceso rápido de aquellos que
solo requieran gran cantidad de almacenamiento. Los dispositivos pueden ser
evaluados en términos de costo/rendimiento. Hay una importante relación entre la
velocidad de acceso, cantidad de datos a ser almacenados y el costo del
dispositivo.
La dificultad de centra en balancear estos 3 aspectos, constantemente nuevas
aplicaciones son introducidas y cambian las necesidades de los dispositivos de
almacenamiento. La tecnología por sí misma propicia el crecimiento y la creación
de nuevas aplicaciones.
Manejo jerárquico del almacenamiento:
Uno de los grandes retos que enfrenta la administración del almacenamiento, es
hacer el mejor uso de los medios disponibles, con el requerimiento de contar con
una mínima intervención humana. Uno de los habilitadores para hacer realidad
este aspecto es la Administración de Almacenamiento Jerárquico, (Hierarchical
Storage Management).
El sistema HSM, se ha estado usando con todo éxito en ambientes de mainframe.
Se puede definir como un conjunto de estrategias de administración del
almacenamiento de datos, las cuáles definen la mejor utilización de los recursos a
través del movimiento de los mismos de un medio de almacenamiento disponible a
otro, basadas en un juego de políticas y soportadas por equipamiento de
Hardware y Software adecuado.
El sistema debe manejar las situaciones donde una empresa produce muchos
datos que en su gran mayoría, al menos después de una primera etapa de vida
activa, sólo se usan ocasionalmente. También debe prever el tipo de archivos: si
son aislados, si se agrupan en conjuntos relacionados; también es importante
considerar el tamaño. Además de todo debiera operar en forma transparente de
manera tal que para el usuario todos los archivos parezcan estar en el medio
primario. Aquí es donde el HSM puede ser de gran utilidad.
Se ve al HSM como una extensión del respaldo y almacenaje de datos pero está
más cercano al concepto de la memoria caché. El objetivo del HSM es mantener
siempre disponibles los datos más actualizados y más frecuentemente solicitados,
y al mismo tiempo eliminar aquellos archivos que ya no sean requeridos.
El mecanismo llamado migración de archivos, involucra hacer una copia de un
archivo a un medio de almacenamiento más lento, es decir a un eslabón más
cercano a la base de la pirámide y borrar el original. Esta actividad toma lugar en
periodos predefinidos o por inicio automático. Con la difusión de los medios
ópticos de almacenamiento, el panorama se amplía. Por otra parte, nuevos
dispositivos, permiten tener casi en línea múltiples discos y cintas. Los
documentos que se acceden con menor frecuencia pueden pasarse a un
almacenamiento secundario que maneje un medio óptico, o bien CD−ROM y
CD−R (borrable), mientras que los más inactivos, pasarse a cinta como
almacenamiento terciario.
El algoritmo utilizado para escoger qué archivos migrar debe incluir diversos
factores. El principal es la capacidad de almacenamiento del dispositivo; lo usual
es establecer umbrales de utilización y por medio del HSJ los medios se
mantienen por debajo de estos umbrales. Si se alcanza el umbral máximo, se
toman como candidatos de migración, archivos que tienen mayor tiempo de no
haber sido accesados, al mismo tiempo se utilizan reglas para minimizar la
necesidad de retornarlos en un futuro y reducir sus probabilidades de ocurrencia.
El manejo jerárquico resuelve varios problemas. La migración de archivos viejos
hacia medios lentos y baratos, libera espacio en medios primarios y también
reduce el costo promedio del almacenamiento. Al implementar HSM se establece
un alto al crecimiento de medios de almacenamientos rápidos y costosos y se
transfiere parte de este crecimiento a los medios lentos y baratos. Los sistemas de
HSM no son un reemplazo de los respaldos, es un complemento.
Utilización de los Archivos en una Empresa:
Los archivos de datos generados en una empresa, tienen un uso que depende del
tipo de actividades que se desarrollen en la misma. Un período inicial de
frecuencia general puede extenderse hasta unos 30 días. Se sugiere dividir la
actividad de los archivos en un período de 90 días. Algunas empresas utilizan el
modelo 80/20, que indica a inactividad /actividad. Estudios más amplios indican
que entre el 70 y 75 % de los archivos permanecen inactivos en los primeros 90
días, y entre el 75 y 80 % permanecerán así en los primeros 120 días. Finalmente,
sólo entre un 2 y 2,5 % será accedido en algún momento pasado este último
lapso. Lo importante es trazar un aproximado de la situación. Identificar esta
información para tomar una decisión y crear un esquema eficiente en la solución
implementada.
Arquitectura y Funcionamiento del HSM:
El sistema HSM extiende el sistema de archivos y debido al establecimiento de
políticas de migración, entrega de forma automática y clara un mejor costo por
megabyte para los archivos de menor acceso, junto el ahorro de seguimiento del
almacenamiento primario, entre ambos compensan la pérdida de eficiencia por
tener que acceder archivos ubicados en otros medios. La idea es transferir los
archivos a dispositivos de almacenamiento secundario y menos costoso, en
función de su menor uso.
El objetivo es un mejor uso de los costos asociados al almacenamiento de datos,
se busca una optimización entre el costo de almacenamiento de diferentes medios
y la reducción en la productividad del personal debido al mayor tiempo de acceso
de los medios más baratos. Por eso es importante fijar una política de migración
de archivos para mantener un equilibrio adecuado. En el peor de los casos se
obtiene una eliminación de los elevados costos del almacenamiento tradicional,
gracias a la automatización de las tareas de administración de archivos que ofrece
el HSM.
Un sistema de este tipo permite: Hacer más eficiente el almacenamiento primario,
reducir el costo total de los medios de almacenamiento, simplificar la
administración almacenamiento. Una solución HSM consiste de los componentes
de hardware, y un software inteligente de administración de datos que trabaja en
base al establecimiento de una jerarquía multinivel de medios de almacenamiento.
Migración de Archivos:
El paso de un medio a otro se llama migración, este proceso se basa en criterios
que se fijan en la configuración en base a una cantidad de características. Un
sistema HSM hace que los procesos de migración y recuperación de datos sean
automáticos y transparentes.
Primero se considera que los datos que se acceden más frecuentemente se
mantengan en el disco duro para mantener la eficiencia. Luego se determina los
archivos candidatos para migración. Los criterios pueden variar en cada nivel y
diferentes entre sí. Se determinan los parámetros de acuerdo con las políticas de
migración de un medio a otro. Los parámetros pueden ser: nivel de ocupación,
antigüedad, tiempo transcurrido desde su última lectura, tamaño, frecuencia de
acceso etc. La migración también puede estar condicionada para ser realizada a
cierta hora del día, de noche, o fuera del horario típico de trabajo.
Migración Cliente y Servidor:
El cliente de migración: Es cualquier sistema en la red que contiene datos que
necesitan ser migrados ahora o en el futuro. Consiste en múltiples sistemas de
archivos, que pueden bajo el control del sistema de migración.
El servidor de migración: Es un sistema en la red que, almacén de migración,
proporciona los servicios de migración a los clientes en la red.
Almacén de Migración: Reside en el servidor de migración. Contiene datos que
en inicio residieron en los clientes antes de emigrarse automáticamente encima
del servidor. El almacén puede ser cualquier tipo de medio de almacenamiento,
discos, cintas, óptico, etc. Lo usual que es que el almacén tenga una jerarquía de
medios y el movimiento de los datos, se base en políticas de organización.
Talón o Stub: Al migrar un archivo, su entrada de directorio no se borra, es
ocupada por un inquilino. El archivo que tiene ahora dicha entrada es un archivo
fantasma que se presenta al usuario como el original migrado. Si se considera al
original como un ticket, el inquilino retiene el talón o stub de ese ticket. Cuando un
proceso quiere acceder el archivo original, en realidad se accede al archivo stub,
que inmediatamente produce la re−emigración del original para que se efectúe la
operación correspondiente. El stub incluye información del lugar donde
efectivamente se encuentra un archivo migrado.
Sistema de Archivos:
Algunos productos HSM requieren su propio sistema de archivos, que inclusive
residan en el mismo computador donde se conectan los dispositivos de
almacenamiento. Otros, trabajan con los sistemas de archivos existentes. En
ambos casos se plantea donde residen los metadatos del sistema de archivos.
Toda esta información puede estar junto a los datos en el disco óptico o en el
propio disco duro. Si están en un disco óptico, se puede intercambiar con otro
drive que podrá leer los archivos en cuestión. Pero exige que haya un sistema de
archivo en forma de una base de datos que las aplicaciones deben consultar antes
de la búsqueda correspondiente. Este proceso adicional, hace más lento el
proceso de recuperación. Si los metadatos residen en el disco duro, es más rápido
porque se usa el sistema de archivos estándar del sistema operativo, lo negativo
es que con cada migración hay que exportar también la información del sistema de
archivos al disco óptico.
Backup y HSM:
A pesar de que el HSM y backup pueden usar los mismos medios de
almacenamiento, son cosas muy diferentes. Un sistema de backup es un sistema
de protección; copia archivos en un medio diferente y permanece inactivo hasta la
siguiente oportunidad. Esto hace que ambos programas tengan algo en común.
Hay proveedores que venden ambos tipos de productos, algunos de backup no
aceptan productos HSM de terceros sino el propio.
Otro tema a tener en cuenta es el reconocimiento de los archivos stubs por parte
del software de backup, si esto no ocurre, la lectura de estos archivos provocaría
sin necesidad, el retorno al almacenamiento primario del archivo migrado
correspondiente. Puesto que el proceso de backup seguiría su curso, la lectura de
todos los archivos stubs provocaría un gran congestionamiento del tráfico con el
riesgo incluso de agotar la capacidad del disco duro. Una funcionalidad completa
para compartir dispositivos se logra con la integración de ambos tipos de
productos. Cuando el proceso de backup encuentra un archivo stub puede
hacerse o que lo respalde directamente sin activar el archivo principal, o que el
proceso sea re direccionado al almacenamiento secundario y respalde dicho
archivo principal, o a las dos cosas juntas.
Archivado:
Se trata de un proceso unidireccional de copiado de archivos en base a los
criterios más comunes comentados en el HSM. Cuando se produce la copia
automática de un archivo en un medio de almacenamiento secundario, no se deja
ninguna indicación en el sistema de archivos primario, simplemente se agrega a
una base de datos que controla el programa con la nueva ubicación del archivo
copiado. Un operador manualmente, tendrá que volverlo a copiar al disco duro si
fuera necesario consultando previamente la mencionada base de datos. Esto
indica dice que no hay recuperación automática. El proceso es simple, fácil de
configurar y trabaja directamente con unidades removibles de disco óptico o cinta,
sin necesidad de medios robóticos para el manejo de múltiples cartuchos.
Requisitos para implementar HSM:
Las organizaciones deben asegurarse que ciertos elementos básicos de
administración de almacenamiento estén en el lugar adecuado antes de que HSM
se despliegue a lo largo de la empresa, estos incluyen:
Sólida estrategia de backup y archivado: Para tener una protección de datos en
una red heterogénea.
Análisis apropiado del tamaño de las redes y edad de los datos: Por lo
general las empresas con cantidad desmedida de datos antiguos, son los
candidatos ideales por desplegar HSM. A pesar de la dificultar en cuantificar los
datos antiguos, se recomienda que las organizaciones desplieguen el HSM si los
datos tienen al menos un año de antigüedad. Hay varias herramientas disponibles
que analiza la edad de los datos.
Compromiso de los usuarios finales: Es fundamental que el personal de
Sistemas, obtenga el máximo apoyo posible de los diversos usuarios finales antes
de desplegar HSM por la organización.
Factores y consideraciones:
Para asegurar una administración exitosa, las organizaciones deben tener en
cuenta los diversos problemas antes de seleccionar una solución de HSM. Entre
los factores incluyen:
Solución integrada: Donde las organizaciones deben llevar a cabo backup,
archivado y HSM del mismo vendedor de software, al desplegar una solución del
mismo vendedor se tiene acceso a muchas ventajas como: consistencia en la
administración de datos, compartir en forma eficaz los recursos de
almacenamiento, Interface de usuarios comunes, Contactos de servicio técnico
sencillo, procedimientos simples a recuperación de desastres.
Coexistencia armónica entre el backup y HSM: Es una ventaja importante de
desplegar la solución de un vendedor donde coexista el backup/archivado y HSM.
Si la solución no se integra, los usuarios podrían encontrar el backup de un
archivo o un almacenamiento migrado no puede ser respaldado, de igual forma
un candidato para migración podría ignorarse si se accedió por el software de
backup.
Los problemas de la empresa requiere solución de empresa: Los ambientes
deben ser lo más homogéneos posibles, y cuando se requiere una solución HSM a
una determinada plataforma de la empresa, debe ser provista por el mismo
proveedor, y por ende de la misma plataforma, de las ya implementadas.
Mantener los estándares: Uno de los retos más grandes a superar es que los
proveedores del sistema operativo por lo general no proveen el soporte de
migración de archivos. Por esta razón se ha hecho necesario que terceros
obliguen a los usuarios a que modifiquen archivos de sistemas para facilitar la
migración. Eso no es un camino recomendado, por significa que ya no se está
ejecutando un OS que goza la garantía del vendedor de OS.
Independencia del hardware de almacenamiento: El software para HSM debe
trabajar con cualquier tipo de medio de almacenamiento. No debe obligar al
usuario a que compre un dispositivo de hardware específico.
Penetración de HSM:
A pesar de haber sido introducido hace algún tiempo en el mercado, las empresas
convencionales no han incorporado el HSM en forma bastante lenta hasta ahora.
En realidad para un administrador es un gran paso que exige una evaluación del
tipo de almacenamiento y los requisitos de recuperación.
Parte de los argumentos en los primeros tiempos se basaban en algunas fallas de
los programas durante el proceso de re−emigración, especialmente en aquellos
productos de la que época que eran inmaduros, no había en los proveedores un
buen conocimiento del sistema. También es cierto que en muchos casos los
problemas en la implementación han sido causados por los propios
administradores. Algunos usuarios optaron por una solución parcial como el
archivado, donde la re−emigración es manual, otros aplicaron el HSM integrándola
a productos de backup. Con el backup mantienen la protección de sus datos
mientras que el HSM mantiene los recursos de almacenamiento de la red.
Mientras los datos respaldados pierden valor con el tiempo al ser sustituidos por
otros más recientes, los datos migrados por el HSM representan un valor
prácticamente constante pues se refieren siempre a la última versión de cada
archivo.
Hoy en día muchos proveedores ofrecen productos confiables. Las tendencias
actuales se refieren a la integración con los sistemas de archivos propios de los
sistemas operativos, soporte de plataformas heterogéneas, integración con el
backup, configuraciones escalables, y un mayor soporte en la administración del
almacenamiento.
Dónde usar HSM:
Las empresas que tengan bases de datos de gran tamaño y activas, no se
beneficiarán mucho del HSM. Algo similar es válido para quienes trabajan con
muchos archivos pequeños, especialmente si se los debe mantener agrupados en
el mismo medio. El HSM es ideal para toda empresa donde el tamaño del medio
de almacenamiento, así como los archivos que lo llenan, toma un volumen
importante, con las consiguientes complicaciones de tiempo de respuesta y
administración. También el HSM es una buena solución para una empresa con
archivos de tamaño mediano de uso comercial donde los archivos envejecen casi
sin volver a usarse.
Niveles HSM:
Las características que diferencian al HSM son el número de niveles jerárquicos
soportados, la configuración, los métodos de interacción con el sistema operativo,
soporte a unidades ópticas y de cinta y, soporte o integración con el backup.
Algunos productos incluyen compresión en los archivos migrados. Esta
clasificación se compone de cinco niveles funcionales que no tienen nada que ver
con los niveles jerárquicos antes mencionados:
Nivel 1: Características bidireccionales, migración automática y recuperación
transparente de archivos. Todos los productos HSM deben satisfacer al menos
este nivel.
Nivel 2: Umbrales múltiples predefinidos, que permiten un balance dinámico de
los medios de almacenamiento. Este nivel es adecuado para empresas que tienen
requerimientos de disco muy variables, tales como los propios de una operatoria
comercial, técnica o de ingeniería.
Nivel 3: Provee administración transparente de tres o más niveles de
almacenamiento. Los umbrales entre niveles diferentes se balancean
dinámicamente. Agrega administración de volúmenes y medios, incluyendo cola
de tareas y optimización del rendimiento de los dispositivos. Es para empresas
que trabajan con varios tipos de almacenamiento.
Nivel 4: Permite la clasificación de archivos puede ser por: tipo, tamaño,
ubicación, o propiedad. Además, el administrador puede establecer diferentes
reglas de migración para cada clasificación. Puede operar en plataformas
diferentes.
Nivel 5: Organización basada en objetos, con registros estructurados y no
estructurados, preservando las relaciones entre aquellos.
Beneficios al implementar HSM:
Algunas implementaciones han conseguido una reducción de costos del 52%, y en
ampliaciones posteriores los precios por MB llegaron a reducirse cerca del 82%.
Por otro los costos Backup pueden eliminarse en un 75%. Se tiene transparencia
absoluta hacia los usuarios. Este sistema transparente de almacenamiento
jerárquico actúa sobre tres elementos esenciales en toda organización:
Personas: Generando cargas de trabajo menores y actividades más eficaces y
eficientes.
Tecnología: Integración con el resto de sistemas existentes.
Procesos: Centralizando su lógica de proceso a través de accesos rápidos y
seguros.
Algunas ventajas de adoptar Almacenamiento Jerárquico HSM son: mejora de la
productividad, mejora de calidad en el servicio al ciudadano, reducción del coste
administrativo, reducción del coste de material, reducción de riesgos, optimización
de los procesos de servicio, acceso instantáneo y concurrente a la información en
cualquier momento. Los resultados que se pueden obtener son:
Eliminación de trabajo manual de reparto, firma, registro y archivo de documentos.
Acceso inmediato a la información, que sea accesible por varias personas a la vez
y desde cualquier lugar.
Eliminación de la posibilidad de pérdida de documentos.
Reducción del tiempo de ejecución, tiempos de acceso, de espera y recuperación
de la información.
Facilitar la toma de decisiones.
Incremento en la transparencia de los procesos de información, mejora de la
calidad de gestión, tramitación y consulta de la información.
Racionalización y automatización de los procesos de negocio.
Incremento de la productividad, mejorando los procesos.
Reducción de los costos de las operaciones.
Mejora del servicio al usuario.
En definitiva la implementación de este sistema de almacenamiento jerárquico
dotará a las diversas organizaciones un sistema transparente que facilitará el
acceso a los diversos documentos, optimizando su operativa habitual y
aumentando la eficacia en las diferentes tareas administrativas, para conseguir en
definitiva un mejor y más rápido servicio. La propuesta de valor que plantea el
sistema de almacenamiento jerárquico es alcanzar la eficiencia y calidad en el
servicio a través de la automatización de los procesos y contenidos críticos que
son gestionados y distribuidos a usuarios.
c) Realice un cuadro esquemático sobre el rendimiento del almacenamiento
terciario por tipo de unidad tomando en cuenta: la velocidad, fiabilidad y coste.
Velocidad:
Puede analizarse desde dos aspectos: el ancho de banda y latencia. El ancho de
banda se mide en bytes por segundo. El ancho de banda sostenido es la tasa
promedio de transferencia de datos durante una transferencia larga. El ancho de
banda efectivo mide el promedio durante el tiempo de E/S completo, incluyendo
seek o locate, y cambio de cartuchos.
La latencia de acceso, es la cantidad de tiempo requerida para localizar datos. En
el caso de los discos son mucho más rápidos que las cintas, el almacenamiento
de los discos es bidimensional y por lo general tienen una latencia rotacional
inferior a 5 milisegundos. Por otro lado las cintas tienen acceso tridimensional y sin
importar el momento solo un segmento de la cinta tiene acceso al cabezal, la
mayoría de los bits están debajo de miles de capas de cinta bobinada en el
carrete.
Si se usa un intercambiador la latencia de acceso puede ser mayor, en el caso de
los discos extraíbles, la unidad debe dejar de rotar y luego el brazo robotizado
debe conmutar los cartuchos de discos, a partir de ahí el disco introducido
comenzara a rotar, esto requiere varios segundos, 100 veces más lento que
acceder aleatoriamente a un disco, por lo tanto el intercambio de discos tiene un
gran impacto en la velocidad de acceso.
En las cintas, el tiempo requerido por el brazo robotizado es casi igual a un disco,
pero cuando se debe conmutar las cintas, se requiere rebobinar la cinta anterior
para poder sacarla de la unidad lo que puede tardar hasta unos cuatro minutos,
luego de cargar la nueva cinta, puede ser necesario varios segundos para
calibrarla dentro del carrete, aunque un intercambiador de cintas no muy rápido
puede tener un tiempo de conmutación de uno o dos minutos, no es un tiempo
mayor que el tiempo de acceso aleatorio a la propia cinta.
Se puede afirmar que el acceso aleatorio en un intercambiador de discos tiene una
latencia de decenas de segundos, mientras que en el caso de las cintas tiene una
latencia de centenares de segundos. También hay que prestar atención a los
cartuchos, y los posibles cuellos de botella que se pueden presentar, si se
considera el ancho de banda y su relación con la capacidad de almacenamiento
en una biblioteca robotizada es menos favorable que en un disco fijo. Situación
similar sucede con la latencia, el bajo costo del almacenamiento terciario es el
resultado de tener muchos cartuchos baratos que comparten unos cuantos drives
costosos.
Fiabilidad:
Si se intenta leer un conjunto de datos y no se logra debido a un fallo de la unidad
o del soporte físico, eso implica un tiempo de acceso inmensamente largo y un
ancho de banda muy pequeño, comprender la fiabilidad de los soportes extraíbles
es importante.
Los discos magnéticos extraíbles son menos fiables que los discos duros fijos,
debido a que el cartucho tiene mayor probabilidad de verse expuesto a
condiciones dañinas tanto ambientales y mecánicas. Los discos ópticos se
consideran bastante fiables debido a que la capa que contiene los bits está
protegida por otra capa transparente. En las cintas la fiabilidad varían depende del
modelo, algunas se desgastan fácilmente por el uso mientras que otros son poco
abrasivos y permite millones de reutilizaciones. En compasión por cabezal, el de
una cinta es uno de los más débiles, el de un disco duro magnético esta contenido
sobre un soporte físico.
En conclusión, una unidad de disco fijo es con seguridad más confiable que uno
disco extraíble o cinta movible, mientras que un cartucho óptico es probablemente
más confiable que un disco o cinta magnética. Y que un choque de cabeza es un
disco fijo generalmente destruye los datos, mientras que la falla de un drive de
cinta o un disco óptico generalmente no daña los datos.
Costo:
El costo de almacenamiento es un factor importante, los dispositivos extraíbles
pueden reducir el costo total de almacenamiento, porque a pesar que sea más
caro fabricar un cartucho extraíble, el costo por gigabyte del almacenamiento
extraíble puede ser muy inferior al costo por gigabyte de un disco duro.
Las figuras 8.2, 8.3 y 8.4 muestran el costo por megabyte para: memoria DRAM,
discos duros magnéticos y para cintas. Los precios reflejan las tendencias del
mercado. En el caso de las cintas el precio es para una unidad con una cinta, el
costo total del almacenamiento en cinta se reduce mucho a medida que compran
más unidades para ser utilizadas con la misma unidad. Si en un biblioteca de
cintas que tengas miles de cartuchos, el costo está dominado por el precio unitario
de los cartuchos de cinta. El costo por gigabyte de según los datos obtenidos esta
alrededor de 2 dólares.
Figura 8.2 Precio por megabyte para una unidad de cinta, entre 1984 y 2004
El costo de la memoria DRAM varía bastante, en el periodo registrado, se
observan tres caídas abruptas en los precios (19811989,1996) debido a un exceso
de producción que casi logra colapsar el mercado, de forma similar se tienen dos
periodos (1987, 1993) donde la escasez en el mercado provoco significativos
aumentos de precio .
Figura 8.3 Precio por megabyte para las memorias DRAM, entre 1981 y 2004
En los discos duros, la caida de los precios ha sido mas sostenida, y se ha
acelarado desde 1992. A partir de 1997 el precio por gigabyte de las unidades de
cinta de bajo costo ha dejado de caer tan rapido, aunque el precio de la tecnologia
de cinta de gama media ha seguido cayendo y en este momento se acerca al
cosoto de la unidades de gama baja.
Figura 8.4 Precio por megabyte para discos duros, entre 1981 y 2004
Las graficas muestran que el costo de almacenamiento ha caido abruptamente en
los ultimos 20 años, si se compara las graficas se puede ver que el precio del
alamcenamiento en disco ha bajada en gran medida en relacion con el precio de la
memoria DRAM y el de las cintas.
El precio por megabytes de los discos magneticos ha mejorado mas de cuatro
veces en las dos ultimas decadas, mientras que la mejora de los chips de memoria
RAM solo ha sido solo tres veces en magnitud, la memoria principal es mas de
cien veces mas costosa que el almacenamiento en disco.
El precio por megabyte ha caido bastante y mucho mas rapido para las unidades
de disco que para las de cinta. El precio por megabyte de una unidad de disco
magnetico se esta acercando al de un cartucho de cinta, trayendo como
consecuencia que las bibliotecas de cintas tienen un costo de almacenamiento
hoy en dia mayor que los sistemas de discos de capacidad similar.
La abrupta caida en los precios de los discos ha hecho que el almacenamiento
terciario se considere casi obsoleto, ya no se tiene una tecnologia de
almacenamiento terciario que en magnitud sea mucho mas barata que los discos
magneticos, para que el almacenamiento terciario pueda renacer tendra que
aparecer una tecnologia revolucionaria. Por el momento el uso de las cintas se
vera limitado a usos como: copias de seguridad de discos, y archivado definitivo
en bibliotecas de cintas.
PREGUNTA # 4 – OBJETIVO 10 – CRITERIO DE DOMINIO 1/1
Los objetivos de los mecanismos de protección son minimizar los riesgos de las
posibles violaciones de mínimo privilegio. Para cumplir con dichos mecanismos de
protección un proceso opera dentro de un dominio de protección. Una forma
abstracta de presentar un modelo de protección es mediante una matriz de
acceso. Así, por ejemplo dadas los siguientes casos:
Caso 1: Se tienen 5 dominios (Di), 4 objetos y 5 archivos (F1, F2, F3), donde un
proceso con el objeto 1 se ejecuta y tiene privilegio de lectura en D1, y en el
dominio D2, este mismo objeto tiene privilegio de escritura, pudiendo leer y escribir
en el archivo F2. En el domino D3 el objeto 2 tiene privilegios de escritura, lectura
y ejecución y podrá escribir en el archivo F2. En el dominio D4 el objeto 3 tiene
privilegios de lectura y ejecución y una impresora. En el domino D5 el objeto 3
tiene privilegio de seguridad para poder cumplir con el principio director clave de
escritura, una impresora y lee y escribe en el archivo F1. Se le pide realizar para
este caso lo siguiente:
c1.a La matriz de acceso tomado en cuenta los objetos y dominios dados.
A continuación se presenta la matriz solicitada:
Objeto
Dominio
Objeto
1
Objeto
2
Objeto
3
Objeto
4
Archivo
F1
Archivo
F2
Archivo
F3
Archivo
F4
Archivo
F5
Dominio
1
Ejecutar
Leer
Dominio
2
Escribir Leer
Escribir
Dominio
3
Escribir
Leer
Ejecutar
Escribir
Dominio
4
Leer
Ejecutar
Imprimir
Dominio
5
Escribir
Imprimir
Leer
Escribir
Tabla 10.1 Matriz de acceso caso 1, tomando en cuenta los objetos y dominios dados.
c1.b La matriz de acceso tomando en cuenta la conmutación entre procesos.
Para elaborar la matriz de acceso con conmutación, se agregan en los dominios
en las columnas, como si se trataran de objetos. En cada conmutación elaborada,
se utilizó dominios que tengan derechos en el mismo objeto que pudieran
complementarse, se explican a continuación:
Conmutación Dominio
Origen
Dominio
Destino
Objeto
Relacionado
Derecho
Relacionado
Conmutación 1 D1 D2 Objeto 1 Escribir
Conmutación 2 D2 D1 Objeto 1 Leer,
Ejecutar
Conmutación 3 D3 D2 Archivo F2 Lectura
Conmutación 4 D4 D5 Objeto 3 Escribir
Conmutación 5 D5 D4 Objeto 3 Ejecutar
Tabla 10.2 Conmutaciones agregadas.
Luego de tener las conmutaciones definidas, se puede elaborar la matriz con
conmutación entre procesos.
Objeto
Dominio
Objeto
1
Objeto
2
Objeto
3
Objeto
4
File 1 File 2 File
3
File
4
File
5
D1 D2 D3 D4 D5
D1 Ejecutar
Leer
Entrar
D2 Escribir Leer
Escribir
Entrar
D3 Escribir
Leer
Ejecutar
Escribir Entrar
D4 Leer
Ejecutar
Imprimir
Entrar
D5 Escribir
Imprimir
Leer
Escribir Entrar
Tabla 10.3 Matriz de acceso caso 1, tomando en cuenta la conmutación entre procesos.
Caso 2: Se tiene el archivo F2 que se encuentra ejecutándose en el dominio D1,
D2 y D3. El archivo F1 con privilegio de lectura en el domino D2 y F3 con privilegio
de escritura en el dominio D1y ejecutándose en D2. Se le pide realizar para este
caso lo siguiente:
La matriz de acceso para un proceso que se ejecute en el dominio D2 con derecho
de copiar la operación elegida en cualquier entrada asociada al archivo F2. El
primer paso es elaborar la matriz de acceso con los datos iniciales.
Objeto
Dominio
Archivo
F1
Archivo
F2
Archivo
F3
Dominio
1
Ejecutar Escribir
Dominio
2
Leer Ejecutar Ejecutar
Dominio
3
Ejecutar
Tabla 10.4 Matriz de acceso caso 2, datos iniciales.
El derecho de copia permite copiar el derecho de acceso solo dentro de la
columna, es decir para el objeto en la que esté definida el derecho. La capacidad
de copiar un derecho de acceso de un dominio (o fila) de la matriz de acceso a
otro se denotará mediante un asterisco (*) al lado del derecho de acceso, el
derecho a copiar tiene dos variantes:
Un derecho de copia del acceso (o casilla) (i,j) al acceso (k,j); y a continuación se
elimina del acceso (i,j) es llamada transferencia de un derecho, en lugar de una
copia.
La propagación del derecho a copia puede estar limitada. Es decir, cuando el
derecho Der* se copia de la casilla (i,j) a la casilla (k,j), sólo se crea el derecho Der
(no Der*). Un proceso que se ejecute en el dominio Dk, no podrá copiar a su el
derecho R en otra fila.
Objeto
Dominio
Archivo
F1
Archivo
F2
Archivo
F3
Dominio
1
Escribir
Dominio
2
Leer Ejecutar* Ejecutar
Dominio
3
Ejecutar
Tabla 10.5 Matriz de acceso caso 2, con D2 con derecho a copia.
En la tabla 10.5, el dominio 2, tiene derecho a copia en el archivo F2, la operación
ejecutar fue la seleccionada, se observa que en el dominio 1 ya no posee el
derecho ejecutar, debido a que no se requiere en este momento, y en el dominio 3
se realizó una copia limitada, es decir D3 puede ejecutar el archivo F2 pero no
podrá realizar otras copias.
Caso 3: Se tiene el archivo F1 ejecutándose en el dominio D1 y D3, siendo D1 el
propietario. El archivo F2 en el dominio D2 con privilegio de lectura y con derecho
de copiar la operación elegida en cualquier entrada asociada siendo D2
propietario. El archivo F3 en el dominio D1 con privilegio de escritura, en el
dominio D2 con privilegio de lectura y escritura con derecho de copiar la operación
elegida en cualquier entrada asociada siendo D2 propietario. Se le pide realizar
para este caso lo siguiente:
La matriz de acceso con derechos de propietario.
Se elabora la matriz inicial con los datos iniciales, indicando dominios que puedan
ser propietario (Owner), otros que puedan tener derecho a copia y otros derechos
estándar.
Objeto
Dominio
Archivo
F1
Archivo
F2
Archivo
F3
Dominio 1 Ejecutar
Propietario
Escribir
Dominio 2 Leer *
Propietario
Leer*
Escribir*
Propietario
Dominio 3 Ejecutar
Tabla 10.6 Matriz de acceso caso 3, datos iniciales.
El derecho propietario también llamado como Owner, es un mecanismo que
permite la adición de nuevos derechos y la eliminación de algunos derechos. Si un
acceso (i,j) incluye el derecho propietario, un proceso que se ejecute dentro del
dominio Di podrá añadir y eliminar cualquier derecho en cualquier entrada de la
columna j. La siguiente matriz de acceso muestra un ejemplo de la aplicación del
derecho propietario.
Objeto
Dominio
Archivo
F1
Archivo
F2
Archivo
F3
Dominio 1 Ejecutar
Propietario
Escribir
Dominio 2 Leer *
Propietario
Leer*
Escribir*
Propietario
Dominio 3 Leer Escribir
Tabla 10.7 Matriz de acceso caso 3, ejemplo del derecho propietario.
En la tabla 10.7 el comando Propietario eliminó la posibilidad en el dominio 3 de
ejecutar F1. El mecanismo Propietario agregó la posibilidad al dominio 1 de
escribir en F1 y realizó una copia limitada del derecho leer en el dominio 3 y
finalmente Propietario eliminó la posibilidad en el dominio 1 de escribir F3 y
adiciono simultáneamente este derecho para el dominio 3.

Más contenido relacionado

La actualidad más candente

Subneteo con vlsm ejercicios clases a,b,c
Subneteo con vlsm ejercicios clases a,b,cSubneteo con vlsm ejercicios clases a,b,c
Subneteo con vlsm ejercicios clases a,b,cManuel Tapia Cruz
 
Proyecto final Soporte y Mantenimiento a Equipos de Computo
Proyecto final Soporte y Mantenimiento a Equipos de ComputoProyecto final Soporte y Mantenimiento a Equipos de Computo
Proyecto final Soporte y Mantenimiento a Equipos de ComputoEdgarCaballero25
 
Arreglos bidimensionales o matrices
Arreglos bidimensionales o matricesArreglos bidimensionales o matrices
Arreglos bidimensionales o matricesAriannaYadiraT
 
Clasificacion tipos de conexion, relacion funcional y tecnologia.
Clasificacion tipos de conexion, relacion funcional y tecnologia.Clasificacion tipos de conexion, relacion funcional y tecnologia.
Clasificacion tipos de conexion, relacion funcional y tecnologia.Francy Gómez Rodríguez
 
Introducción al Direccionamiento IPv6
Introducción al Direccionamiento IPv6Introducción al Direccionamiento IPv6
Introducción al Direccionamiento IPv6Educática
 
bases de datos distribuidas
bases de datos distribuidasbases de datos distribuidas
bases de datos distribuidasBofo Cid
 
Consideraciones para la instalacion de un centro de computo
Consideraciones para la instalacion de un centro de computoConsideraciones para la instalacion de un centro de computo
Consideraciones para la instalacion de un centro de computoOscar Hernandez
 
Informe sistemas empotrados
Informe   sistemas empotradosInforme   sistemas empotrados
Informe sistemas empotradosJoanita123
 
Normas y estándares para un sistema de cableado estructurado (SCE)
  Normas y estándares para un sistema de cableado estructurado (SCE)   Normas y estándares para un sistema de cableado estructurado (SCE)
Normas y estándares para un sistema de cableado estructurado (SCE) Remmy Fuentes Telleria
 
Patrones arquitectónicos layers
Patrones arquitectónicos layersPatrones arquitectónicos layers
Patrones arquitectónicos layersMatias Yima
 
Programación MySQL-Ejercicios
Programación MySQL-EjerciciosProgramación MySQL-Ejercicios
Programación MySQL-Ejerciciostestgrupocomex
 
Reglas y normas de seguridad e higiene de una sala de computo.
Reglas y normas de seguridad e higiene de una sala de computo.Reglas y normas de seguridad e higiene de una sala de computo.
Reglas y normas de seguridad e higiene de una sala de computo.juancar65
 
Actividad 1 practica redes inalambricas (1)
Actividad 1 practica redes inalambricas (1)Actividad 1 practica redes inalambricas (1)
Actividad 1 practica redes inalambricas (1)dianamarcela0611
 

La actualidad más candente (20)

Subneteo con vlsm ejercicios clases a,b,c
Subneteo con vlsm ejercicios clases a,b,cSubneteo con vlsm ejercicios clases a,b,c
Subneteo con vlsm ejercicios clases a,b,c
 
Enrutamiento
EnrutamientoEnrutamiento
Enrutamiento
 
Proyecto final Soporte y Mantenimiento a Equipos de Computo
Proyecto final Soporte y Mantenimiento a Equipos de ComputoProyecto final Soporte y Mantenimiento a Equipos de Computo
Proyecto final Soporte y Mantenimiento a Equipos de Computo
 
Arreglos bidimensionales o matrices
Arreglos bidimensionales o matricesArreglos bidimensionales o matrices
Arreglos bidimensionales o matrices
 
Clasificacion tipos de conexion, relacion funcional y tecnologia.
Clasificacion tipos de conexion, relacion funcional y tecnologia.Clasificacion tipos de conexion, relacion funcional y tecnologia.
Clasificacion tipos de conexion, relacion funcional y tecnologia.
 
Gestion de Entrada y Salida
Gestion de Entrada y SalidaGestion de Entrada y Salida
Gestion de Entrada y Salida
 
Introducción al Direccionamiento IPv6
Introducción al Direccionamiento IPv6Introducción al Direccionamiento IPv6
Introducción al Direccionamiento IPv6
 
bases de datos distribuidas
bases de datos distribuidasbases de datos distribuidas
bases de datos distribuidas
 
Consideraciones para la instalacion de un centro de computo
Consideraciones para la instalacion de un centro de computoConsideraciones para la instalacion de un centro de computo
Consideraciones para la instalacion de un centro de computo
 
Comandos java
Comandos javaComandos java
Comandos java
 
Consultas básicas en sql server
Consultas básicas en sql serverConsultas básicas en sql server
Consultas básicas en sql server
 
Windows.forms.ejercicios
Windows.forms.ejerciciosWindows.forms.ejercicios
Windows.forms.ejercicios
 
Informe sistemas empotrados
Informe   sistemas empotradosInforme   sistemas empotrados
Informe sistemas empotrados
 
Normas y estándares para un sistema de cableado estructurado (SCE)
  Normas y estándares para un sistema de cableado estructurado (SCE)   Normas y estándares para un sistema de cableado estructurado (SCE)
Normas y estándares para un sistema de cableado estructurado (SCE)
 
Patrones arquitectónicos layers
Patrones arquitectónicos layersPatrones arquitectónicos layers
Patrones arquitectónicos layers
 
Programación MySQL-Ejercicios
Programación MySQL-EjerciciosProgramación MySQL-Ejercicios
Programación MySQL-Ejercicios
 
Reglas y normas de seguridad e higiene de una sala de computo.
Reglas y normas de seguridad e higiene de una sala de computo.Reglas y normas de seguridad e higiene de una sala de computo.
Reglas y normas de seguridad e higiene de una sala de computo.
 
Windows forms c# visual basic .net ejercicios
Windows forms c# visual basic .net ejerciciosWindows forms c# visual basic .net ejercicios
Windows forms c# visual basic .net ejercicios
 
Topologias de red
Topologias de redTopologias de red
Topologias de red
 
Actividad 1 practica redes inalambricas (1)
Actividad 1 practica redes inalambricas (1)Actividad 1 practica redes inalambricas (1)
Actividad 1 practica redes inalambricas (1)
 

Similar a Sistemas Operativos Trabajo Práctico Organización Tablas Páginas

Similar a Sistemas Operativos Trabajo Práctico Organización Tablas Páginas (20)

Memoria virtual
Memoria virtual Memoria virtual
Memoria virtual
 
Memoria virtual
Memoria virtualMemoria virtual
Memoria virtual
 
Memoria virtual
Memoria virtualMemoria virtual
Memoria virtual
 
Capitulo 9 Memoria Virtual
Capitulo 9 Memoria VirtualCapitulo 9 Memoria Virtual
Capitulo 9 Memoria Virtual
 
Resumen Unidades 16/17/18 So Tanembau
Resumen Unidades 16/17/18 So TanembauResumen Unidades 16/17/18 So Tanembau
Resumen Unidades 16/17/18 So Tanembau
 
Memoria virtual
Memoria virtualMemoria virtual
Memoria virtual
 
MEMORIA VIRTUAL - SISTEMAS OPERATIVOS
MEMORIA VIRTUAL - SISTEMAS OPERATIVOSMEMORIA VIRTUAL - SISTEMAS OPERATIVOS
MEMORIA VIRTUAL - SISTEMAS OPERATIVOS
 
Paginacion
PaginacionPaginacion
Paginacion
 
Finalfinal
FinalfinalFinalfinal
Finalfinal
 
memoria_virtual
memoria_virtualmemoria_virtual
memoria_virtual
 
memoria virtual xD
memoria virtual xDmemoria virtual xD
memoria virtual xD
 
MeMoRiA ViRtUaL
MeMoRiA ViRtUaLMeMoRiA ViRtUaL
MeMoRiA ViRtUaL
 
Estrategias de administración del almacenamiento virtual
Estrategias de administración del almacenamiento virtualEstrategias de administración del almacenamiento virtual
Estrategias de administración del almacenamiento virtual
 
Algoritmos de gestión de memoria
Algoritmos de gestión de memoriaAlgoritmos de gestión de memoria
Algoritmos de gestión de memoria
 
Memoria virtual
Memoria virtualMemoria virtual
Memoria virtual
 
Memoria virtual2
Memoria virtual2Memoria virtual2
Memoria virtual2
 
Actividad 2 sistemas operativos
Actividad 2 sistemas operativosActividad 2 sistemas operativos
Actividad 2 sistemas operativos
 
Arquitectura de los sistemas operativos
Arquitectura de los sistemas operativosArquitectura de los sistemas operativos
Arquitectura de los sistemas operativos
 
Pag Demanda Reemplazamiento
Pag Demanda ReemplazamientoPag Demanda Reemplazamiento
Pag Demanda Reemplazamiento
 
Memvirtual
MemvirtualMemvirtual
Memvirtual
 

Más de Ronald Alexander Medina Pinto

Trabajo practico - Arquitectura del Computador (333) - UNA
Trabajo practico - Arquitectura del Computador (333) - UNATrabajo practico - Arquitectura del Computador (333) - UNA
Trabajo practico - Arquitectura del Computador (333) - UNARonald Alexander Medina Pinto
 
Trabajo Practico - Gerencia Organizacional (235) - UNA - Afinnia Wiix
Trabajo Practico - Gerencia Organizacional (235) - UNA - Afinnia WiixTrabajo Practico - Gerencia Organizacional (235) - UNA - Afinnia Wiix
Trabajo Practico - Gerencia Organizacional (235) - UNA - Afinnia WiixRonald Alexander Medina Pinto
 
Trabajo Practico - Aplicación de la Programación Lineal y Entera (359) - UNA
Trabajo Practico - Aplicación de la Programación Lineal y Entera (359) - UNATrabajo Practico - Aplicación de la Programación Lineal y Entera (359) - UNA
Trabajo Practico - Aplicación de la Programación Lineal y Entera (359) - UNARonald Alexander Medina Pinto
 
Trabajo Practico - Investigación de Operaciones II (348) - UNA
Trabajo Practico - Investigación de Operaciones II (348) - UNATrabajo Practico - Investigación de Operaciones II (348) - UNA
Trabajo Practico - Investigación de Operaciones II (348) - UNARonald Alexander Medina Pinto
 
Trabajo, Modelos de Transporte y Optimización de Redes
Trabajo, Modelos de Transporte y Optimización de RedesTrabajo, Modelos de Transporte y Optimización de Redes
Trabajo, Modelos de Transporte y Optimización de RedesRonald Alexander Medina Pinto
 
Informe sobre la Operación Secado - DEPLA - Procesos Químicos
Informe sobre la Operación Secado - DEPLA -  Procesos QuímicosInforme sobre la Operación Secado - DEPLA -  Procesos Químicos
Informe sobre la Operación Secado - DEPLA - Procesos QuímicosRonald Alexander Medina Pinto
 
Presentación Operación Secado - DEPLA - Procesos Químicos
Presentación Operación Secado - DEPLA -  Procesos QuímicosPresentación Operación Secado - DEPLA -  Procesos Químicos
Presentación Operación Secado - DEPLA - Procesos QuímicosRonald Alexander Medina Pinto
 
Trabajo Especial de Grado, T.E.G, Medina - Brea, UC- Ingeníeria Industrial - ...
Trabajo Especial de Grado, T.E.G, Medina - Brea, UC- Ingeníeria Industrial - ...Trabajo Especial de Grado, T.E.G, Medina - Brea, UC- Ingeníeria Industrial - ...
Trabajo Especial de Grado, T.E.G, Medina - Brea, UC- Ingeníeria Industrial - ...Ronald Alexander Medina Pinto
 
QFD Quality Function Deployment - "Despliegue de la Función de la Calidad"
QFD Quality Function Deployment - "Despliegue de la Función de la Calidad"QFD Quality Function Deployment - "Despliegue de la Función de la Calidad"
QFD Quality Function Deployment - "Despliegue de la Función de la Calidad"Ronald Alexander Medina Pinto
 
ISO 10017 (herramientas para la mejora de la calidad) mapa de conceptos RM
ISO 10017 (herramientas para la mejora de la calidad) mapa de conceptos RMISO 10017 (herramientas para la mejora de la calidad) mapa de conceptos RM
ISO 10017 (herramientas para la mejora de la calidad) mapa de conceptos RMRonald Alexander Medina Pinto
 
Primera ley de la termodinámica para sistemas cerrados UC
Primera ley de la termodinámica para sistemas cerrados UCPrimera ley de la termodinámica para sistemas cerrados UC
Primera ley de la termodinámica para sistemas cerrados UCRonald Alexander Medina Pinto
 

Más de Ronald Alexander Medina Pinto (20)

Trabajo practico - Base de Datos (311) - UNA
Trabajo practico - Base de Datos (311) - UNATrabajo practico - Base de Datos (311) - UNA
Trabajo practico - Base de Datos (311) - UNA
 
Trabajo practico - Grafos y Matrices (332) - UNA
Trabajo practico - Grafos y Matrices (332) - UNATrabajo practico - Grafos y Matrices (332) - UNA
Trabajo practico - Grafos y Matrices (332) - UNA
 
Trabajo practico - Arquitectura del Computador (333) - UNA
Trabajo practico - Arquitectura del Computador (333) - UNATrabajo practico - Arquitectura del Computador (333) - UNA
Trabajo practico - Arquitectura del Computador (333) - UNA
 
Trabajo Practico - Gerencia Organizacional (235) - UNA - Afinnia Wiix
Trabajo Practico - Gerencia Organizacional (235) - UNA - Afinnia WiixTrabajo Practico - Gerencia Organizacional (235) - UNA - Afinnia Wiix
Trabajo Practico - Gerencia Organizacional (235) - UNA - Afinnia Wiix
 
Trabajo Practico - Aplicación de la Programación Lineal y Entera (359) - UNA
Trabajo Practico - Aplicación de la Programación Lineal y Entera (359) - UNATrabajo Practico - Aplicación de la Programación Lineal y Entera (359) - UNA
Trabajo Practico - Aplicación de la Programación Lineal y Entera (359) - UNA
 
Trabajo Practico - Simulación (337) - UNA
Trabajo Practico - Simulación (337) - UNATrabajo Practico - Simulación (337) - UNA
Trabajo Practico - Simulación (337) - UNA
 
Trabajo Practico - Investigación de Operaciones II (348) - UNA
Trabajo Practico - Investigación de Operaciones II (348) - UNATrabajo Practico - Investigación de Operaciones II (348) - UNA
Trabajo Practico - Investigación de Operaciones II (348) - UNA
 
Trabajo, Modelos de Transporte y Optimización de Redes
Trabajo, Modelos de Transporte y Optimización de RedesTrabajo, Modelos de Transporte y Optimización de Redes
Trabajo, Modelos de Transporte y Optimización de Redes
 
Informe sobre la Operación Secado - DEPLA - Procesos Químicos
Informe sobre la Operación Secado - DEPLA -  Procesos QuímicosInforme sobre la Operación Secado - DEPLA -  Procesos Químicos
Informe sobre la Operación Secado - DEPLA - Procesos Químicos
 
Presentación Operación Secado - DEPLA - Procesos Químicos
Presentación Operación Secado - DEPLA -  Procesos QuímicosPresentación Operación Secado - DEPLA -  Procesos Químicos
Presentación Operación Secado - DEPLA - Procesos Químicos
 
Informe Termometría - Termodinámica General
Informe Termometría - Termodinámica GeneralInforme Termometría - Termodinámica General
Informe Termometría - Termodinámica General
 
Trabajo Especial de Grado, T.E.G, Medina - Brea, UC- Ingeníeria Industrial - ...
Trabajo Especial de Grado, T.E.G, Medina - Brea, UC- Ingeníeria Industrial - ...Trabajo Especial de Grado, T.E.G, Medina - Brea, UC- Ingeníeria Industrial - ...
Trabajo Especial de Grado, T.E.G, Medina - Brea, UC- Ingeníeria Industrial - ...
 
Construccion Diagrama causa efecto (Ishikawa) RM
Construccion Diagrama causa efecto (Ishikawa) RMConstruccion Diagrama causa efecto (Ishikawa) RM
Construccion Diagrama causa efecto (Ishikawa) RM
 
Ronald medina-talentoday-book-personal
Ronald medina-talentoday-book-personalRonald medina-talentoday-book-personal
Ronald medina-talentoday-book-personal
 
QFD Quality Function Deployment - "Despliegue de la Función de la Calidad"
QFD Quality Function Deployment - "Despliegue de la Función de la Calidad"QFD Quality Function Deployment - "Despliegue de la Función de la Calidad"
QFD Quality Function Deployment - "Despliegue de la Función de la Calidad"
 
ISO 10012 mapa de conceptos RM UC
ISO 10012 mapa de conceptos RM UCISO 10012 mapa de conceptos RM UC
ISO 10012 mapa de conceptos RM UC
 
ISO 10017 (herramientas para la mejora de la calidad) mapa de conceptos RM
ISO 10017 (herramientas para la mejora de la calidad) mapa de conceptos RMISO 10017 (herramientas para la mejora de la calidad) mapa de conceptos RM
ISO 10017 (herramientas para la mejora de la calidad) mapa de conceptos RM
 
ISO 17025 mapa de conceptos RM UC
ISO 17025 mapa de conceptos RM UCISO 17025 mapa de conceptos RM UC
ISO 17025 mapa de conceptos RM UC
 
Ingenieria de metodos 1 T.E.L RM UC
Ingenieria de metodos  1   T.E.L  RM  UCIngenieria de metodos  1   T.E.L  RM  UC
Ingenieria de metodos 1 T.E.L RM UC
 
Primera ley de la termodinámica para sistemas cerrados UC
Primera ley de la termodinámica para sistemas cerrados UCPrimera ley de la termodinámica para sistemas cerrados UC
Primera ley de la termodinámica para sistemas cerrados UC
 

Último

CLASE - 01 de construcción 1 ingeniería civil
CLASE - 01 de construcción 1 ingeniería civilCLASE - 01 de construcción 1 ingeniería civil
CLASE - 01 de construcción 1 ingeniería civilDissneredwinPaivahua
 
Manual de Usuario Estacion total Sokkia SERIE SET10K.pdf
Manual de Usuario Estacion total Sokkia SERIE SET10K.pdfManual de Usuario Estacion total Sokkia SERIE SET10K.pdf
Manual de Usuario Estacion total Sokkia SERIE SET10K.pdfSandXmovex
 
Fe_C_Tratamientos termicos_uap _3_.ppt
Fe_C_Tratamientos termicos_uap   _3_.pptFe_C_Tratamientos termicos_uap   _3_.ppt
Fe_C_Tratamientos termicos_uap _3_.pptVitobailon
 
Fisiología del azufre en plantas S.S.pdf
Fisiología del azufre en plantas S.S.pdfFisiología del azufre en plantas S.S.pdf
Fisiología del azufre en plantas S.S.pdfJessLeonelVargasJimn
 
CONSTRUCCIONES II - SEMANA 01 - REGLAMENTO NACIONAL DE EDIFICACIONES.pdf
CONSTRUCCIONES II - SEMANA 01 - REGLAMENTO NACIONAL DE EDIFICACIONES.pdfCONSTRUCCIONES II - SEMANA 01 - REGLAMENTO NACIONAL DE EDIFICACIONES.pdf
CONSTRUCCIONES II - SEMANA 01 - REGLAMENTO NACIONAL DE EDIFICACIONES.pdfErikNivor
 
Flujo potencial, conceptos básicos y ejemplos resueltos.
Flujo potencial, conceptos básicos y ejemplos resueltos.Flujo potencial, conceptos básicos y ejemplos resueltos.
Flujo potencial, conceptos básicos y ejemplos resueltos.ALEJANDROLEONGALICIA
 
AMBIENTES SEDIMENTARIOS GEOLOGIA TIPOS .pptx
AMBIENTES SEDIMENTARIOS GEOLOGIA TIPOS .pptxAMBIENTES SEDIMENTARIOS GEOLOGIA TIPOS .pptx
AMBIENTES SEDIMENTARIOS GEOLOGIA TIPOS .pptxLuisvila35
 
PRESENTACION DE CLASE. Factor de potencia
PRESENTACION DE CLASE. Factor de potenciaPRESENTACION DE CLASE. Factor de potencia
PRESENTACION DE CLASE. Factor de potenciazacariasd49
 
QUIMICA ORGANICA I ENOLES Y ENAMINAS LIBR
QUIMICA ORGANICA I ENOLES Y ENAMINAS LIBRQUIMICA ORGANICA I ENOLES Y ENAMINAS LIBR
QUIMICA ORGANICA I ENOLES Y ENAMINAS LIBRyanimarca23
 
Clase 1 Análisis Estructura. Para Arquitectura pptx
Clase 1 Análisis Estructura. Para Arquitectura pptxClase 1 Análisis Estructura. Para Arquitectura pptx
Clase 1 Análisis Estructura. Para Arquitectura pptxPaolaVillalba13
 
Fijaciones de balcones prefabricados de hormigón - RECENSE
Fijaciones de balcones prefabricados de hormigón - RECENSEFijaciones de balcones prefabricados de hormigón - RECENSE
Fijaciones de balcones prefabricados de hormigón - RECENSEANDECE
 
CAP4-TEORIA EVALUACION DE CAUDALES - HIDROGRAMAS.pdf
CAP4-TEORIA EVALUACION DE CAUDALES - HIDROGRAMAS.pdfCAP4-TEORIA EVALUACION DE CAUDALES - HIDROGRAMAS.pdf
CAP4-TEORIA EVALUACION DE CAUDALES - HIDROGRAMAS.pdfReneBellido1
 
Una estrategia de seguridad en la nube alineada al NIST
Una estrategia de seguridad en la nube alineada al NISTUna estrategia de seguridad en la nube alineada al NIST
Una estrategia de seguridad en la nube alineada al NISTFundación YOD YOD
 
3039_ftg_01Entregable 003_Matematica.pptx
3039_ftg_01Entregable 003_Matematica.pptx3039_ftg_01Entregable 003_Matematica.pptx
3039_ftg_01Entregable 003_Matematica.pptxJhordanGonzalo
 
Flujo multifásico en tuberias de ex.pptx
Flujo multifásico en tuberias de ex.pptxFlujo multifásico en tuberias de ex.pptx
Flujo multifásico en tuberias de ex.pptxEduardoSnchezHernnde5
 
Uso y Manejo de Extintores Lucha contra incendios
Uso y Manejo de Extintores Lucha contra incendiosUso y Manejo de Extintores Lucha contra incendios
Uso y Manejo de Extintores Lucha contra incendioseduardochavezg1
 
Como de produjo la penicilina de manera masiva en plena guerra mundial Biotec...
Como de produjo la penicilina de manera masiva en plena guerra mundial Biotec...Como de produjo la penicilina de manera masiva en plena guerra mundial Biotec...
Como de produjo la penicilina de manera masiva en plena guerra mundial Biotec...ssuser646243
 
Propositos del comportamiento de fases y aplicaciones
Propositos del comportamiento de fases y aplicacionesPropositos del comportamiento de fases y aplicaciones
Propositos del comportamiento de fases y aplicaciones025ca20
 
SEGURIDAD EN CONSTRUCCION PPT PARA EL CIP
SEGURIDAD EN CONSTRUCCION PPT PARA EL CIPSEGURIDAD EN CONSTRUCCION PPT PARA EL CIP
SEGURIDAD EN CONSTRUCCION PPT PARA EL CIPJosLuisFrancoCaldern
 
Historia de la Arquitectura II, 1era actividad..pdf
Historia de la Arquitectura II, 1era actividad..pdfHistoria de la Arquitectura II, 1era actividad..pdf
Historia de la Arquitectura II, 1era actividad..pdfIsbelRodrguez
 

Último (20)

CLASE - 01 de construcción 1 ingeniería civil
CLASE - 01 de construcción 1 ingeniería civilCLASE - 01 de construcción 1 ingeniería civil
CLASE - 01 de construcción 1 ingeniería civil
 
Manual de Usuario Estacion total Sokkia SERIE SET10K.pdf
Manual de Usuario Estacion total Sokkia SERIE SET10K.pdfManual de Usuario Estacion total Sokkia SERIE SET10K.pdf
Manual de Usuario Estacion total Sokkia SERIE SET10K.pdf
 
Fe_C_Tratamientos termicos_uap _3_.ppt
Fe_C_Tratamientos termicos_uap   _3_.pptFe_C_Tratamientos termicos_uap   _3_.ppt
Fe_C_Tratamientos termicos_uap _3_.ppt
 
Fisiología del azufre en plantas S.S.pdf
Fisiología del azufre en plantas S.S.pdfFisiología del azufre en plantas S.S.pdf
Fisiología del azufre en plantas S.S.pdf
 
CONSTRUCCIONES II - SEMANA 01 - REGLAMENTO NACIONAL DE EDIFICACIONES.pdf
CONSTRUCCIONES II - SEMANA 01 - REGLAMENTO NACIONAL DE EDIFICACIONES.pdfCONSTRUCCIONES II - SEMANA 01 - REGLAMENTO NACIONAL DE EDIFICACIONES.pdf
CONSTRUCCIONES II - SEMANA 01 - REGLAMENTO NACIONAL DE EDIFICACIONES.pdf
 
Flujo potencial, conceptos básicos y ejemplos resueltos.
Flujo potencial, conceptos básicos y ejemplos resueltos.Flujo potencial, conceptos básicos y ejemplos resueltos.
Flujo potencial, conceptos básicos y ejemplos resueltos.
 
AMBIENTES SEDIMENTARIOS GEOLOGIA TIPOS .pptx
AMBIENTES SEDIMENTARIOS GEOLOGIA TIPOS .pptxAMBIENTES SEDIMENTARIOS GEOLOGIA TIPOS .pptx
AMBIENTES SEDIMENTARIOS GEOLOGIA TIPOS .pptx
 
PRESENTACION DE CLASE. Factor de potencia
PRESENTACION DE CLASE. Factor de potenciaPRESENTACION DE CLASE. Factor de potencia
PRESENTACION DE CLASE. Factor de potencia
 
QUIMICA ORGANICA I ENOLES Y ENAMINAS LIBR
QUIMICA ORGANICA I ENOLES Y ENAMINAS LIBRQUIMICA ORGANICA I ENOLES Y ENAMINAS LIBR
QUIMICA ORGANICA I ENOLES Y ENAMINAS LIBR
 
Clase 1 Análisis Estructura. Para Arquitectura pptx
Clase 1 Análisis Estructura. Para Arquitectura pptxClase 1 Análisis Estructura. Para Arquitectura pptx
Clase 1 Análisis Estructura. Para Arquitectura pptx
 
Fijaciones de balcones prefabricados de hormigón - RECENSE
Fijaciones de balcones prefabricados de hormigón - RECENSEFijaciones de balcones prefabricados de hormigón - RECENSE
Fijaciones de balcones prefabricados de hormigón - RECENSE
 
CAP4-TEORIA EVALUACION DE CAUDALES - HIDROGRAMAS.pdf
CAP4-TEORIA EVALUACION DE CAUDALES - HIDROGRAMAS.pdfCAP4-TEORIA EVALUACION DE CAUDALES - HIDROGRAMAS.pdf
CAP4-TEORIA EVALUACION DE CAUDALES - HIDROGRAMAS.pdf
 
Una estrategia de seguridad en la nube alineada al NIST
Una estrategia de seguridad en la nube alineada al NISTUna estrategia de seguridad en la nube alineada al NIST
Una estrategia de seguridad en la nube alineada al NIST
 
3039_ftg_01Entregable 003_Matematica.pptx
3039_ftg_01Entregable 003_Matematica.pptx3039_ftg_01Entregable 003_Matematica.pptx
3039_ftg_01Entregable 003_Matematica.pptx
 
Flujo multifásico en tuberias de ex.pptx
Flujo multifásico en tuberias de ex.pptxFlujo multifásico en tuberias de ex.pptx
Flujo multifásico en tuberias de ex.pptx
 
Uso y Manejo de Extintores Lucha contra incendios
Uso y Manejo de Extintores Lucha contra incendiosUso y Manejo de Extintores Lucha contra incendios
Uso y Manejo de Extintores Lucha contra incendios
 
Como de produjo la penicilina de manera masiva en plena guerra mundial Biotec...
Como de produjo la penicilina de manera masiva en plena guerra mundial Biotec...Como de produjo la penicilina de manera masiva en plena guerra mundial Biotec...
Como de produjo la penicilina de manera masiva en plena guerra mundial Biotec...
 
Propositos del comportamiento de fases y aplicaciones
Propositos del comportamiento de fases y aplicacionesPropositos del comportamiento de fases y aplicaciones
Propositos del comportamiento de fases y aplicaciones
 
SEGURIDAD EN CONSTRUCCION PPT PARA EL CIP
SEGURIDAD EN CONSTRUCCION PPT PARA EL CIPSEGURIDAD EN CONSTRUCCION PPT PARA EL CIP
SEGURIDAD EN CONSTRUCCION PPT PARA EL CIP
 
Historia de la Arquitectura II, 1era actividad..pdf
Historia de la Arquitectura II, 1era actividad..pdfHistoria de la Arquitectura II, 1era actividad..pdf
Historia de la Arquitectura II, 1era actividad..pdf
 

Sistemas Operativos Trabajo Práctico Organización Tablas Páginas

  • 1. UNIVERSIDAD NACIONAL ABIERTA VICERRECTORADO ACADÉMICO ÁREA: INGENIERÍA TRABAJO PRÁCTICO ASIGNATURA: SISTEMAS OPERATIVOS (358) ALUMNO: MEDINA RONALD CÉDULA DE IDENTIDAD: V-16.291.029 EMAIL DEL ESTUDIANTE: alexchelsea222@gmail.com TELÉFONO: 0412-1300161 CENTRO LOCAL: CARABOBO CARRERA: INGENIERÍA DE SISITEMAS (236) ASESOR: DRA. ROSA BELEN PERÉZ LAPSO: 2018-1 (NOVIEMBRE 2018) RESULTADOS DE CORRECCIÓN:
  • 2. TABLA DE CONTENIDO Objetivo 6……………………………………………………………………… Página 3 Objetivo 7……………………………………………………………………… Página 11 Objetivo 8……………………………………………………………………… Pagina 15 Objetivo 10……………………………………………………………………. Pagina 32
  • 3. PREGUNTA # 1 – OBJETIVO 6 – CRITERIO DE DOMINIO 1/1 El analista de sistema de una oficina informática, al estudiar la memoria virtual de la arquitectura VAX (por sus siglas en ingles Virtual Address Extensión), se da cuenta que cada proceso puede tener hasta 2 a la 31= 22 Giga Bytes de memoria virtual. Utilizando páginas de 29= 512 bytes, eso significa que se necesitan tablas de páginas de 222 entradas por proceso, llegando a la conclusión que la cantidad de memoria dedicada sólo a tablas de páginas podría ser inaceptablemente alta. Investigando la solución para este problema, se encuentra que la mayoría de los esquemas de memoria virtual almacenan las tablas de páginas en la propia memoria virtual, en lugar de utilizar la memoria física. Esto significa que la tabla de páginas también está sujeta a paginación, igual que el resto de los programas y datos. Cuando un programa se está ejecutando, al menos una parte de su tabla de páginas (TP), incluyendo el elemento correspondiente a la página actualmente en ejecución, debe estar en la memoria principal. Entre las formas de organización encuentra que, algunos procesadores hacen uso de un esquema de dos o más niveles para organizar las tablas de páginas. Existen, otras alternativas donde se elimina de la tabla de páginas las entradas que no apuntan a una página de la memoria física, reduciendo las entradas a un número igual al de páginas de la memoria física. Y también existen esquemas donde se evita la duplicación del tiempo de acceso a la memoria utilizando un cache especial para los elementos de la TP. Basado en lo anteriormente expuesto: Analice, describiendo detalladamente las diferentes formas de organización de la tabla de páginas. Los algoritmos para reemplazo de páginas, tienen que considerar que cuando se produce un fallo de página, el sistema operativo tiene que escoger la página saldrá de memoria para hacer espacio para colocar una página que traerá del almacenamiento secundario, como un disco. También se debe considerar que si la página a desalojar fue modificada mientras estaba en memoria, se debe reescribir en el disco para su debida actualización si en caso contrario no tiene modificación alguna, la copia en el disco duro ya está actualizada y no es necesario rescribirla. Se podría escoger una página aleatoriamente y desalojarla como una posible solución cuando se produzca un fallo de página, pero pueden ocurrir dos situaciones las más favorable es que el rendimiento del sistema aumentó si se escogió una página que no se usa mucho, o por el contrario al escoger una página muy utilizada, esta probablemente tenga que volver a cargarse en memoria con el gasto adicional que significa.
  • 4. Adicionalmente hay que tener en cuenta que la memoria del sistema no solo se usa para almacenar páginas, también se usa; entre otras cosas, para los búferes de los dispositivos e/s que consumen una cantidad considerable de memoria, lo cual genera un desafío importante. Se han realizado diversos trabajos sobre los algoritmos de reemplazo de páginas, a continuación se describirá los más relevantes: Sustitución básica de páginas: Se basa en la siguiente técnica, si no hay algún marco libre, se localiza uno que no esté actualmente actualizado y se libera. Se puede liberar un marco escribiendo su contenido en el espacio de intercambio y modificando la tabla de páginas y así indicar que esta página ya no está en memoria. (En la Figura 1.1 se muestra el esquema sobre la sustitución de páginas). Ahora si se puede utilizar el marco liberado para almacenar la página que causo el fallo en el proceso. Figura 1.1 Sustitución de páginas. Se puede modificar la rutina de servicio de fallo de página para incluir este mecanismo de sustitución de páginas: Paso 1. Hallar la ubicación de la página deseada dentro del disco. Paso 2. Localizar un marco libre: 2. a Si hay un marco libre, utilizarlo. 1 3 2 4
  • 5. 2. b Si no hay alguno libre, utilizar el algoritmo de sustitución de páginas para seleccionar el marco víctima. 2. c Escribir el marco victima en el disco; cambiar las tablas de páginas y de marcos correspondientes. Paso 3: Leer la página deseada y cargarla en el marco recién liberado; cambiar las tablas de páginas correspondiente. Paso 4: Reiniciar el proceso de usuario. Es importante resaltar que si no hay ningún marco libre, se requiere dos transferencia de páginas, una de descarga y una de carga, esta situación duplica el tiempo de servicio del fallo de página e incremente el tiempo efectivo de acceso. Algoritmo de reemplazo de páginas de primero en entrar, primero en salir, (FIFO): Es el algoritmo más simple de sustitución de páginas, asocia cada página con el instante en que esa página fue cargada en memoria. Al requerir sustituir una página, se elige la página más antigua. No es estrictamente necesario guardar los instantes donde se cargó cada página, simplemente al crear una cola FIFO donde se almacenan todas las páginas en memoria y sustituir la página que esta al principio de la cola. Al ser cargada en memoria una página nueva se inserta al final de la cola. El algoritmo de sustitución de página FIFO es fácil de entender y de programar. Sin embargo, su rendimiento no siempre es bueno, es posible que la página sustituida por ejemplo, pueda ser una aplicación que ya no sea necesaria reusar, o que se haya usado en el arranque de un programa, o que haya usado hace mucho tiempo. Otro inconveniente de este algoritmo, es que a pesar de usar como sustitución de un fallo, una página que sea utilizada de forma activa y que el sistema funcione de forma adecuada, al sustituir esta página activa por otra se producirá casi irremediablemente un nuevo fallo y esta página activa sufrirá por recarga. Es decir se puede incrementar la tasa de fallos de página y ralentización en la ejecución de procesos por una mala elección de página que hay que sustituir. Algoritmo óptimo de reemplazo de páginas: En algunas curvas de fallos de página se presentó una inconsistencia bastante peculiar: Las tasas de fallos pueden incrementarse a medida que se incrementa el número de marcos asignados. Lo esperado es que al asignar más memoria a un proceso mejore su rendimiento, pero luego se realizarse algunos trabajos de investigación se observó que la suposición no siempre es correcta, estas
  • 6. investigaciones le dieron el nombre de anomalía Belady a la inconsistencia mencionada. Como resultado del descubrimiento de la anomalía Belady, se decidió encontrar un algoritmo óptimo de sustitución de páginas. Será óptimo si posee la tasa más baja de fallos entre todos los algoritmos y que no presente la anomalía Belady, Al usar este algoritmo se garantiza la tasa de fallos de página más baja posible, si se tiene un número fijo de marcos. El mejor algoritmo de reemplazo de páginas posible es fácil de describir, pero imposible de implementar: Al momento en que ocurre un fallo de página, Hay un conjunto de páginas en memoria y una de éstas se referenciará en la siguiente instrucción, otras páginas es posible que no referencien hasta muchas instrucciones después (50, 500, 5000). De esta forma, cada página se puede etiquetar con el número de instrucciones que se ejecutarán antes de que se haga referencia por primera vez a esa página. El algoritmo óptimo establece, que la página con la etiqueta más alta debe eliminarse. Es decir se sustituye la página que no vaya a ser utilizada durante el periodo más largo. Por ejemplo, si una página no se va a utilizar luego de 100.000 instrucciones y otra no se va a utilizar durante 80.0000 instrucciones, al eliminar la primera se enviará el fallo de página que la obtendrá de vuelta lo más lejos posible en el futuro. Se toma la misma idea de que las personas posponen las cosas indeseables hasta la mayor cantidad de tiempo posible. El único problema con este algoritmo es que no se puede realizar. Al momento del fallo de página, el sistema operativo no tiene forma de saber cuándo será la próxima referencia a cada una de las páginas. Es decir no tiene conocimiento futuro de la cadena de referencia, Este algoritmo es útil al ejecutar un programa en un simulador y llevar la cuenta de todas las referencias a páginas, es posible implementar un algoritmo óptimo de reemplazo de páginas a partir de la segunda ejecución, al utilizar la información de referencia de páginas obtenida durante la primera ejecución. Con este enfoque se puede realizar una comparación de rendimiento de otros algoritmos con el mejor posible, para obtener una eficiencia del sistema tomando en cuenta los factores como el costo – beneficio. Algoritmo de reemplazo de páginas: no usadas recientemente o NRU (Not Recently Used) Las computadoras con memoria virtual usan en su mayoría un par de bits de estado a cada página, para que el sistema operativo pueda obtener información útil sobre el uso de las páginas. Un bit b1 se enciende cada vez que se hace
  • 7. referencia a la página, y b2 se enciende cada vez que se escribe en la página (es decir una modificación). Estos bits deben actualizarse en cada referencia a la memoria, por lo tanto, es muy importante que el hardware sea quien los encienda. Cuando algunos de los bits este encendido, se debe guardar el valor 1 hasta que el sistema operativo mediante software lo restablezca a 0. En el caso de que el hardware no posea estos bit, se pueden establecer mediante simulación mediante la siguiente forma: Al iniciar un proceso, todas sus respectivas entradas en la tabla de páginas se marcan que no están en memoria, al hacer referente a una página, en ese momento ocurrirá un fallo de página, ahí el sistema operativo encenderá el bit b1 en tablas internas, se cambia la entrada en la tabla para poder apuntar a una página correcta, con el modo solo lectura y reiniciar la instrucción. Si posteriormente se modifica la página, ocurrirá otro fallo de página que permita al sistema establecer el bit b2 y el cambiar el modo de página a lectura/escritura. Los bits b1 y b2 pueden construir un algoritmo simple de paginación: Al iniciar un proceso, ambos bits se inician en 0 para todas las paginas, el sistema operativo se encarga de esta operación. El bit b1 se borra periódicamente, cuando produce una interrupción de reloj, para poder diferencia las paginas a las que no se ha hecho referencia recientemente de las que sí han referenciado. Al presentarse un fallo de página, se inspeccionan todas las páginas y se dividen en cuatro categorías, tomando como base los valores actuales de sus bits b1 y b2: Categoría 0: No ha sido solicitada, no ha sido modificada. Categoría 1: No ha sido solicitada, ha sido modificada. Categoría 2: Ha sido solicitada, no ha sido modificada. Categoría 3: Ha sido solicitada, ha sido modificada. Pudiera parecer imposible en primera instancia que alguna página este en la categoría 1, esto sucede cuando una interrupción de reloj apaga el bit 1 de una página de la categoría 3. Las interrupciones de reloj no eliminan el bit 2 porque esta información es requerida para saber si la página se ha rescrito en el disco o no. Cuando se borra b1 pero no b2 se obtiene una página de categoría 1. El algoritmo NRU elimina aleatoriamente una página de la categoría menos que no se encuentre vacía. El algoritmo se basa en la idea en que es mucho mejor eliminar una página modificada pero que no haya sido referenciada en por lo menos un ciclo reloj que una página que se utilice frecuentemente. Lo atractivo del
  • 8. NRU es su fácil comprensión, en su implementación se obtiene una eficiencia aceptable y da un rendimiento adecuando a pesar de no ser óptimo. Algoritmo de reemplazo de página recientemente menos usada o LRU (Least Recently Used): Cuando el algoritmo óptimo no es factible, es posible una aproximación a él. La diferencia entre el algoritmo FIFO y el óptimo, además de que uno mira hacia atrás en el tiempo y el otro mira hacia adelante, es que FIFO utiliza el instante de tiempo donde se cargó una página en la memoria, mientras que por otro lado el algoritmo optimo utiliza el instante donde hay que utilizar la página. Si se realiza una especie de enlace o punto medio de estos dos métodos al utilizar el pasado reciente como aproximación al futuro cercano, se puede sustituir la página que no haya sido utilizada durante la mayor cantidad de tiempo. El algoritmo LRU es factible teóricamente, pero tiene un costo elevado. El cómo implementar este mecanismo de sustitución suele traer complicaciones, para poder hacerlo es preciso mantener una lista enlazada de todas las páginas que están en la memoria, con la que usó más recientemente al principio y la menos recientemente usada al final. La dificultad radica en que la lista debe actualizarse cada vez que se hace referencia a la memoria, esto requiere una cantidad importante de asistencia por parte del hardware, para que halle la página en la lista, borrarla y reinsertarla al frente puede llevar grandes demoras. Hay dos posibles implementaciones: Por contadores: Es la forma más simple se asocia con cada entrada en la tabla de páginas un campo de tiempo de uso y se añade al CPU un reloj lógico. Este reloj se incrementará con cada referencia a la memoria. Al realizar una referencia a una página se copia el registro tiempo del reloj al campo de tiempo de uso de la entrada de la tabla de páginas de esta página. Al tener el tiempo de la última referencia a cada página se podrá sustituir la página que tenga el valor temporal menor. Este esquema requiere hacer una búsqueda en la tabla de páginas para encontrar la página recientemente menos usada y realizar una escritura en memoria, para cada acceso a memoria. Estos tiempos de “espera” se deben mantener de forma apropiada cuando se modifique las tablas de páginas sin dejar de lado el posible desborde del reloj. Pila: Consiste es tener una pila de número de páginas, cuando se haga una referencia a una página, se extrae de la pila y se le coloca en la parte superior, con este procedimiento la página usada más recientemente, siempre estará en la parte superior y la menos reciente en la parte inferior. Por eso, es necesario suprimir las entradas de la parte intermedia de la pila, una lista doblemente enlazada es la mejor opción para poder implementar este mecanismo, con un puntero a la cabeza y otro en la cola. En el peor de los casos al eliminar una página se requerirá modificar seis punteros. Estas actualizaciones son un poco
  • 9. más caras que con la forma anterior, pero se ahorra la necesidad de buscar la página que hay sustituir, esto es porque el puntero de la cola siempre apuntara a la parte inferior de la pila, que será la página recientemente menos utilizada. Es importante señalar que poder implementar este algoritmo LRU, independientemente del tipo de implementación, se requiere de una asistencia de hardware bastante compleja. Cada actualización de reloj o de la pila deben hacerse para todas las referencia en memoria y pocos sistemas podrían tolerar esa carga de trabajo a la gestión de memoria. Algoritmo de segunda oportunidad: Es una modificación sencilla del algoritmo FIFO, que evita el inconveniente de eliminar una página de uso frecuente es inspeccionar el bit 1 de la página más antigua. Si es igual a 0, se considera la página como antigua y no se ha utilizado, y por lo tanto se sustituye inmediatamente. Si el bit1 es 1, el bit se borra, y la página se pone al final de la lista y se actualiza su campo de tiempo, como se tratara de una página recién cargada en la memoria. A partir de o la búsqueda continua. En la siguiente grafica se muestra un conjunto de páginas desde A hasta H en una lista enlazada, estas páginas están ordenadas según la hora a la que llegaron a memoria. Figura 1.2 Operación del algoritmo de segunda oportunidad. En 1.2.a están ordenadas las páginas por FIFO, en 1.2.b, Es una lista de páginas si ocurre un fallo de página en el tiempo 20 y A tiene el bit 1 activado. Los números encima de las paginas son su sus tiempo de carga respectivo. Sustitución de páginas. En 1.2.a se observa que las páginas de la A a la H se mantienen en una lista ligada y se ordenan con base en el tiempo en que llegaron a la memoria. Como ejemplo suponga que aparece un fallo de página en el tiempo 20. La página más antigua es A, que llegó en el tiempo 0, cuando se inició el proceso. Si el bit 1 de A esta desactivado, este sale de memoria, ya sea por una escritura en el disco o sólo se abandona. Por el contrario si bit1 está activado, la pagina A se coloca al final de la lista y su campo de tiempo se restablece al tiempo actual (20). El bit1 también se desactiva. La búsqueda de una página apropiada sigue con B.
  • 10. Lo que hace el algoritmo es buscar una página antigua a la que no se haya hecho referencia durante el reloj anterior. En el caso que se haya hecho referencia a todas las páginas, se transforma en un algoritmo FIFO puro. Retomando el ejemplo de figura 1.2, consideremos que los bits 1 de todas las páginas estén encendidos, el sistema operativo va pasando página por página al final de la lista y va apagando el bit 1 cada vez que se anexa una página al final. Finalmente el sistema volverá a examinar la página A, que ahora tiene su bit 1 desactivado, ahora en este punto A es desalojada y así el algoritmo termina. Algoritmo de reemplazo de páginas tipo reloj: A pesar de que el algoritmo segunda oportunidad es razonable, es menos eficiente de lo que debería, porque mueve constantemente páginas de un lugar a otro dentro de la lista. Una mejor estrategia seria mantener todas las páginas en una lista circular parecida a un reloj como esta en la figura 1.3. donde una manecilla apunta a la página más antigua. Figura 1.3 Algoritmo de reemplazo de páginas tipo reloj. Cuando se presenta un fallo de página, se examina la página que a la que apunta la manecilla. Si el bit 1 es 0, la página se desaloja, se inserta la nueva página en el reloj en su lugar y la manecilla se avanza una posición. Si bit 1 es 1, se cambia a 0 y la manecilla se adelante una posición. Este proceso se repite hasta hallar una página con bit 1 = 0. No es ninguna sorpresa porque a este algoritmo se le llame reloj. La diferencia que tiene con el de segunda oportunidad es en su implementación.
  • 11. PREGUNTA # 2 – OBJETIVO 7 – CRITERIO DE DOMINIO 1/1 La interface NFS (Network File System) es una interfaz entre el sistema de ficheros físico, y un sistema remoto que cuando recibe una petición vía red, opera las modificaciones sobre el sistema local, dispone de todo lo que se puede esperar de un sistema de ficheros tipo Unix: gestión de permisos, propiedades avanzadas, enlaces, tuberías con nombre, entre otros. Desde el punto de vista del cliente, se trata de un sistema de ficheros clásico, que se monta con la instrucción mount, y se integra en la jerarquía de ficheros existente en la máquina. Todas las órdenes de entrada y salida son enviadas al servidor que se encarga de procesarlas, y controlar el acceso concurrente a ficheros. También proporciona un archivo de solución, permitiendo transferir archivos entre equipos con sistema operativo Windows Server y sistemas operativos UNIX. Con la información anterior y, dadas las especificaciones de los siguientes equipos: Dos equipos que ejecutan Windows Server en el que se va a instalar los dos principales componentes de servicios para NFS: Servidor para NFS y cliente para NFS. Dos equipos UNIX que ejecutan software de cliente NFS y servidor NFS. El equipo basado en UNIX ejecuta un NFS de hosts de servidor, de archivo compartido o exportación, y tiene acceso a un equipo que ejecuta Windows Server como cliente para NFS. Un controlador de dominio que se ejecuta en el nivel funcional de Windows Server. El controlador de dominio proporciona información de autenticación de usuario y la asignación para el entorno de Windows. Analice cómo se conectan los equipos especificados anteriormente a una red de área local (LAN), utilizando la infraestructura NFS, describiendo: a) En que versión de Windows se instala el Servidor para NFS. Definición: Network File System (NFS), es un protocolo de nivel de aplicación, según el Modelo OSI. Es utilizado en redes locales. Permite conectar equipos con distintos sistemas a una red común que posee en realidad ficheros remotos. Fue desarrollado por Sun Microsystems con el objetivo de que sea independiente de la máquina y el sistema operativo. El protocolo NFS está incluido por defecto en los Sistemas Operativos UNIX y la mayoría de distribuciones Linux. Es este caso de estudio, NFS proporciona una solución que permite transferir archivos entre equipos que ejecutan Windows Server y sistemas operativos UNIX mediante el protocolo NFS de uso compartido de archivos.
  • 12. NFS en Windows Server 2012: Las nuevas características que han cambiado en Windows Server 2012 son: Soporte para NFS versión 4.1. Esta versión de protocolo incluye las siguientes mejoras: Navegación sencilla por los servidores de seguridad, que permite mejorar la accesibilidad. Admite el protocolo RPCSEC_GSS, que proporciona una mayor seguridad, y permite a los clientes y servidores negociar la seguridad. Admite semántica de archivo de UNIX y Windows. Aprovecha las ventajas de las implementaciones de servidor de archivos agrupados en clúster. Compatibilidad con los procedimientos compuestos que tienen asistencia WAN. Módulo NFS para Windows PowerShell: Disponibilidad de cmdlets integrados de NFS facilita automatizar varias operaciones. Mejoras de administración de NFS: Al tener una consola de administración centralizada basada en la interfaz de usuario, simplifica la configuración y administración de SMB y recursos compartidos NFS. Mejoras de asignación de identidad: Nueva compatibilidad de la interfaz de usuario y basada en tareas de los cmdlets de Windows PowerShell para configurar la asignación de identidad, lo que permite a los administradores configurar rápidamente un origen de asignación de identidad y crear identidades asignadas individuales para los usuarios. Reestructurar de modelo de recurso de clúster: Aporta coherencia entre el modelo de recursos de clúster para NFS de Windows y servidores de protocolo SMB y simplifica la administración. Integración con el Administrador de claves de reanudación: Es un componente que realiza un seguimiento de servidor de archivos y el estado del sistema de archivos y permite a los servidores de protocolo SMB de Windows y NFS la conmutación por error sin interrumpir clientes o aplicaciones de servidor.
  • 13. b) Especificación de Protocolos NFS. El servidor NFS se puede instalar en cualquier versión de Windows Server 2012. Se puede usar NFS con equipos basados en UNIX que ejecutan un servidor NFS o el cliente para NFS, si se cumplen implementaciones de servidor y cliente NFS algunas de los siguientes especificaciones de protocolo: Especificación de protocolo NFS versión 4.1 (https://tools.ietf.org/html/rfc5661) Especificación de protocolo NFS versión 3. (https://tools.ietf.org/html/rfc1813) Especificación de protocolo NFS versión 2: (https://tools.ietf.org/html/rfc1094) Cada enlace web proporciona toda la información técnica sobre el protocolo correspondiente. En general la versión 2 es la más usada y soportada por los sistemas operativos, pero al mismo tiempo la más antigua e insegura. La versión 3 es más potente que la 2 pero no es compatible con la totalidad de clientes de la versión anterior. Ambas versiones pueden trabajar tanto con TCP como con UDP como protocolo de transporte creando conexiones de red entre cliente y servidor. En general las versiones 2 y 3 de NFS no contemplan un control de acceso al sistema de archivos por usuario, solo lo permiten para los equipos. Esto implica que si un sistema de archivos es exportado desde el servidor NFS, cualquier usuario de un equipo remoto cliente NFS podría acceder a él. En la versión 4 los problema de seguridad mencionados desaparecen, a cambio tiene unos requerimientos de configuración adicionales más importantes. En la versión 4 la utilización de mecanismos para la autenticación de los usuarios es obligatoria. Este requerimiento proporciona seguridad al servicio NFS a cambio de incluir mayor complejidad a su configuración y puesta a punto. Otra característica de NFS4 es la utilización de Listas de Control de Acceso, que no son soportadas por las versiones 2 y 3. Estas listas de control de acceso se refieren a los derechos de acceso que tiene cada usuario sobre un archivo o directorio y que vienen especificados a modo de listas editables por el administrador del sistema. c) Como se instala el sistema de archivos de red en el servidor mediante el administrador del servidor. A continuación se explicara el paso a paso del proceso de instalación: Paso 1: En el apartado de agregar roles y características, en las funciones del servidor, seleccionar Servicios de Archivo y Almacenamiento, en caso de que ya no se haya instalado previamente.
  • 14. Paso 2: Bajo el iSCSI y los archivos de servicios seleccionar el servidor de archivos y el servidor para NFS, luego se debe seleccionar Agregar características al incluir las características NFS seleccionadas. Paso 3: Seleccionar la instalación adecuada para poder instalar los componentes NFS en el servidor. d) En qué tipo de entornos se aplica la Infraestructura NFS. NFS admite un entorno mixto de sistemas operativos basados en Windows y basados en UNIX. Los siguientes escenarios de implementación son ejemplos de cómo implementar un servidor de archivos bajo plataforma Windows. Recursos compartidos de archivos de aprovisionamiento en entornos heterogéneos: Este escenario se aplica a las organizaciones que tienen entornos heterogéneos que constan de equipos Windows y otros sistemas operativos, como Linux o UNIX. En este escenario puede proporcionar acceso de múltiples protocolos para el mismo recurso compartido de archivos a través de protocolos el SMB y NFS. Generalmente al implementar un servidor de archivos de Windows en este escenario, se quiere facilitar la colaboración entre los usuarios Windows y equipos basados en UNIX. Cuando de configura un recurso compartido de archivos, se comparte los protocolos SMB y NFS. A los usuarios de Windows se obtiene acceso a sus archivos a través del protocolo SMB mientras que lo usual en usuarios UNIX es tener en acceso a sus archivos a través del protocolo NFS. Recursos compartidos de archivos de aprovisionamiento en entornos basados en UNIX: En este escenario los servidores de archivos Windows se implementan en un entorno basado en UNIX, fundamentalmente para proporcionar acceso a recursos compartidos de archivos NFS para los equipos cliente basados en UNIX. Una opción de acceso de usuario de UNIX sin asignar, siglas (UUUA). Se ha implementado de forma inicial para recursos compartidos NFS en Windows Server 2008 R2 para la asignación de cuentas de Windows, los servidores pueden usarse para almacenar datos NFS sin tener que crear UNIX a Windows. UUUA permite a los administradores aprovisionar rápidamente NFS sin tener que configurar la asignación de la cuenta. Cuando está habilitada para NFS, UUUA crea identificadores de seguridad personalizado (SID) para representar los usuarios sin asignar. Las cuentas de usuario asignado usan identificadores de seguridad (SID) de Windows estándares y sin asignar a los usuarios usan SID de NFS personalizados.
  • 15. Sitios de implementación de la infraestructura NFS: Se puede implementar a los siguientes equipos y que estén interconectados en una red LAN: Uno o varios equipos que ejecutan Windows Server 2012 en el que se instalará los dos servicios principales para los componentes NFS: servidor para NFS y cliente para NFS. Se puede instalar estos componentes en el mismo equipo o en equipos diferentes. Uno o varios equipos basados en UNIX que ejecutan servidor NFS y software de cliente NFS. El equipo basado en UNIX que se está ejecutando como servidor NFS hospeda un recurso compartido de archivos NFS o de exportación, que se accede a un equipo que ejecuta Windows Server 2012 como un cliente para el NFS. Para instalar el software de cliente y servidor NFS, en el mismo equipo basado en UNIX o en varios equipos basados en UNIX distintos según la preferencia del administrador. Un controlador de dominio que se ejecuta en el nivel funcional de Windows Server 2008 R2. El controlador de dominio proporciona información de autenticación de usuario y la asignación de entorno de Windows. En los casos que no se implemente un controlador de dominio se puede usar un servidor de servicio de servicio de información de red (NIS) para proporcionar información de autenticación de usuario para el entorno de UNIX. También se puede usar archivos de contraseña y un grupo de estos se almacenan en el equipo que se esté ejecutando al servicio de asignación de nombres de usuario. PREGUNTA # 3 – OBJETIVO 8 – CRITERIO DE DOMINIO 1/1 El gerente de la oficina informática desea implementar el almacenamiento terciario como intercambiador de cintas o de discos extraíbles ya que según recomendaciones recibidas por otros colegas este nivel de jerarquía de almacenamiento proporciona una mayor capacidad, es más barato pero también es más lento, por lo tanto para la implementación de dicha tecnología, se ha de realizar un estudio detallado sobre la misma. En este contexto se le pide realizar el estudio mencionado anteriormente, respondiendo a los siguientes planteamientos: a) ¿En qué tipo de instalaciones se aplican los sistemas de gestión de almacenamiento jerárquico denominado por sus siglas en inglés HSM (Hierarchical Storage Management)?. b) ¿Qué significado tiene en la tecnología HSM el ciclo de vida de la información?
  • 16. El éxito futuro de las empresas públicas o privadas está basado en las decisiones que tomen hoy, de acuerdo al conocimiento de la información con que cuenten. El valor de la información va más allá del tiempo de acceso, las organizaciones también deben evaluar la eficiencia de unir la información con los procesos y establecer métodos para proveer un seguro acceso a la información requerida en el tiempo preciso y desde cualquier estación de trabajo. Recientemente el crecimiento de la información no estructurada por su volumen, complejidad y diversidad ha hecho necesaria una evolución en los sistemas de gestión de su almacenamiento. Esta evolución se ha hecho imprescindible para evitar el caos en los sistemas de información tanto internos como externos. Cada organización tiene necesidades internas y externas diferentes, un punto común es disponer un repositorio donde se almacene y mantenga actualizada toda la información, donde luego pueda ser accesada a través de los canales más adecuados. Un sistema de almacenamiento de la información, totalmente integrado en el funcionamiento de la administración de datos, podrá gestionar de forma eficiente y eficaz el ciclo completo de la vida de la información; almacenar de forma eficaz esta y compartirla es la base imprescindible para la gestión de la información en tiempo real, y accesibles. Diversos conflictos surgen cuando una organización utiliza varios cauces para manejar la información y los procesos de negocio por ejemplo: dificultad de acceso a la información, existencia de distintas interface de usuario, incremento de los costes operacionales, etc. El volumen de la información está aumentando de manera exponencial, hasta el punto de que se prevé un crecimiento de la necesidad de capacidad de almacenamiento por encima del 180% anual. Sin embargo almacenar toda esa información en discos un costo elevado, y su uso no está justificado cuando esa información no va a ser utilizada y solo se conserva. Es en este punto donde aparece el concepto del ILM (Information Lifecycle Management) o ciclo de vida de la información. Ciclo de vida de la información – ILM: La información que cualquier organismo genera tiene un ciclo de vida que viene marcado por el uso que se pueda hacer con ella en un momento determinado. Por lo general el valor de la información va disminuyendo progresivamente a medida que pasa el tiempo, hasta el punto que su valor puede ser residual. El ritmo de envejecimiento varía según su naturaleza y aplicación, lo que añade complejidad a su gestión en el tiempo. A medida que la información va perdiendo valor, los costos de su almacenamiento van perdiendo su justificación, por lo tanto el reto principal es ir trasladando la información a dispositivos más baratos. Asegurando que la información necesaria va a estar siempre disponible.
  • 17. Jerarquía de Almacenamiento: En los últimos años la tendencia ha sido tener en tiempo real los centros de cómputos, esto ha producido cambios en el almacenamiento y la preferencias por equipos de acceso directo. Anteriormente la voz cantante eren los procesos por lotes, donde la cinta magnética era el medio favorito. Versiones mejoradas de las cintas, hoy en día se utilizan en los centro de cómputo, aunque que los discos de acceso directo hoy tienen un mayor peso debido a su rendimiento y tiempo de respuesta. Existe jerarquía de dispositivos, como se representa en la figura 8.1. Figura 8.1 Jerarquía de Almacenamiento Esta jerarquía se compone de dispositivos de almacenamiento de muy alta velocidad de acceso en el tope, y en su parte más baja por dispositivos de baja velocidad de acceso. Existe una relación costo - capacidad de almacenamiento en cada piso. Los equipos de alta velocidad son más costosos ($/Mb) que los más lentos y los dispositivos más lentos ofrecen una mayor capacidad de almacenamiento por unidad. La pirámide representa una situación común donde se tienen pocas unidades de almacenamiento de alta velocidad, que se utilizan para servicio a datos que constantemente utilizados hasta llegar al nivel más bajo donde se tiene una mayor cantidad de unidades de almacenamiento de baja velocidad pero más económicos, que almacenan datos que no se requieren usualmente y de bajo rendimiento. Al administrar los estratos, hay que ubicar en cada uno de ellos, los datos que de verdad merezcan y justifiquen recibir tiempo de acceso correspondiente, porque no tendría sentido, que en un sistema solamente se utilicen discos de estado sólido, para que toda la información reciba el mejor nivel de servicio posible, por
  • 18. dos motivos: el costo sería altísimo e injustificado, y el segundo es que no todos los datos, requieren de contar con tan altos niveles de servicio y por lo tanto se puede caer en costos infructuosos. Se explicará brevemente algunos estratos de la jerarquía de almacenamiento. SSD - Disco de estado sólido: Es en realidad más cercano a una memoria de acceso directo (RAM, Random Access Memory) que a un disco. El SSD consiste de varios módulos de control y una cantidad variable de RAM. Fueron introducidos para manejar la actividad de paginación, pero al crecer su capacidad se abrieron a nuevas aplicaciones, en especial donde el pobre rendimiento de los discos empezaba a afectar en los tiempos de respuesta. Cuando se usan para almacenar los archivos más activos, se produce una importante mejora en el rendimiento de las aplicaciones. Discos con memoria caché: Proporcionan un alto rendimiento en liberar memoria RAM en los controladores, este tipo de RAM sirve área de retención para los datos referenciados de alta frecuencia, y también es conocida como memoria caché y disminuye el tiempo de servicio para las operaciones de E/S, mejorando así el rendimiento global. Se basa en el principio básico de suponer la alta probabilidad en usar un registro que ha sido utilizado recientemente. El resultado son operaciones de E/S atendidas sin acceso a un disco físico, y se completan en tiempos que solo requiere la transferencia electrónica de datos, sin recurrir a movimientos mecánicos que tienen los discos magnéticos. Solo ciertas aplicaciones obtienen una ventaja significativa y justificable, debido a la propia la naturaleza de la operación de la memoria caché, por ejemplo: archivos con alto porcentaje de lectura y bajo porcentaje de escritura. Discos sin memoria caché: Es donde se almacena la gran mayoría de los datos en los centros de cómputo. Ha habido una mejora en las densidades de almacenamiento, aunque la velocidad de acceso no ha mejorado tan dramáticamente como la densidad. Sirven para aplicaciones de acceso secuencial o aleatorio. Se ha constatado que mientras la capacidad de los dispositivos de este tipo ha aumentado, el porcentaje de espacio realmente utilizado ha bajado, lo cual indica que el incremento de E/S sobre un mismo equipo ocasiona problemas de contención y de pobre rendimiento. De forma contundente se puede afirmar, que la capacidad instalada no se usa al 100% debido a: rendimiento en declive, ubicación de archivos y uso inefectivo del todo el espacio definido. Cintas o cartuchos magnéticos: Este medio fue uno de los primeros en surgir y continúa siendo usado ampliamente para el almacenamiento de alto volumen y bajo costo. Una gran mayoría de cintas siguen siendo de nueve pistas, y recientemente existen cartuchos de 18 y 36 pistas, con una capacidad que va de 200 Mb a 200 Gb. Tiene la gran ventaja de ser intercambiable y portable, una posición ideal para el almacenamiento fuera de sitio como puede ser: resguardo de datos fuera del centro de cómputo, protección en caso de desastre o de
  • 19. destrucción de locaciones, para respaldo de información, para intercambio de datos entre centros de cómputo, y para almacenamiento de archivos de bajo uso. El tiempo de acceso es el más bajo de toda la jerarquía, ya que es el único que involucra la intervención humana al requerir que un operador encuentre un cartucho específico y lo introduzca en los equipos lectores. En los últimos años esto ha cambiado un poco con la introducción de cinto tecas automáticas que incluyen brazos robóticos de montaje/desmontaje, reemplazando a los operadores. Administración de la jerarquía de almacenamiento: Significa administrar todos los componentes dentro de la pirámide de jerarquía descrita. Los tiempos de acceso de los discos magnéticos no han evolucionado al mismo ritmo de los procesadores en los últimos años. El resultado es que los ciclos de CPU son de un orden mayor por millones de veces a los tiempos de acceso a disco. La solución a este problema es la implantación y la administración de una jerarquía de almacenamiento, donde se involucre un manejo efectivo de todos los recursos, incluyendo los SSD y los discos con memoria caché para reducir el tiempo de acceso, y al mismo tiempo mantener al mínimo indispensable la cantidad de dispositivos instalados, debido al costo incurrido. Este proceso inicia con la discriminación de datos que requieren de un acceso rápido de aquellos que solo requieran gran cantidad de almacenamiento. Los dispositivos pueden ser evaluados en términos de costo/rendimiento. Hay una importante relación entre la velocidad de acceso, cantidad de datos a ser almacenados y el costo del dispositivo. La dificultad de centra en balancear estos 3 aspectos, constantemente nuevas aplicaciones son introducidas y cambian las necesidades de los dispositivos de almacenamiento. La tecnología por sí misma propicia el crecimiento y la creación de nuevas aplicaciones. Manejo jerárquico del almacenamiento: Uno de los grandes retos que enfrenta la administración del almacenamiento, es hacer el mejor uso de los medios disponibles, con el requerimiento de contar con una mínima intervención humana. Uno de los habilitadores para hacer realidad este aspecto es la Administración de Almacenamiento Jerárquico, (Hierarchical Storage Management). El sistema HSM, se ha estado usando con todo éxito en ambientes de mainframe. Se puede definir como un conjunto de estrategias de administración del almacenamiento de datos, las cuáles definen la mejor utilización de los recursos a
  • 20. través del movimiento de los mismos de un medio de almacenamiento disponible a otro, basadas en un juego de políticas y soportadas por equipamiento de Hardware y Software adecuado. El sistema debe manejar las situaciones donde una empresa produce muchos datos que en su gran mayoría, al menos después de una primera etapa de vida activa, sólo se usan ocasionalmente. También debe prever el tipo de archivos: si son aislados, si se agrupan en conjuntos relacionados; también es importante considerar el tamaño. Además de todo debiera operar en forma transparente de manera tal que para el usuario todos los archivos parezcan estar en el medio primario. Aquí es donde el HSM puede ser de gran utilidad. Se ve al HSM como una extensión del respaldo y almacenaje de datos pero está más cercano al concepto de la memoria caché. El objetivo del HSM es mantener siempre disponibles los datos más actualizados y más frecuentemente solicitados, y al mismo tiempo eliminar aquellos archivos que ya no sean requeridos. El mecanismo llamado migración de archivos, involucra hacer una copia de un archivo a un medio de almacenamiento más lento, es decir a un eslabón más cercano a la base de la pirámide y borrar el original. Esta actividad toma lugar en periodos predefinidos o por inicio automático. Con la difusión de los medios ópticos de almacenamiento, el panorama se amplía. Por otra parte, nuevos dispositivos, permiten tener casi en línea múltiples discos y cintas. Los documentos que se acceden con menor frecuencia pueden pasarse a un almacenamiento secundario que maneje un medio óptico, o bien CD−ROM y CD−R (borrable), mientras que los más inactivos, pasarse a cinta como almacenamiento terciario. El algoritmo utilizado para escoger qué archivos migrar debe incluir diversos factores. El principal es la capacidad de almacenamiento del dispositivo; lo usual es establecer umbrales de utilización y por medio del HSJ los medios se mantienen por debajo de estos umbrales. Si se alcanza el umbral máximo, se toman como candidatos de migración, archivos que tienen mayor tiempo de no haber sido accesados, al mismo tiempo se utilizan reglas para minimizar la necesidad de retornarlos en un futuro y reducir sus probabilidades de ocurrencia. El manejo jerárquico resuelve varios problemas. La migración de archivos viejos hacia medios lentos y baratos, libera espacio en medios primarios y también reduce el costo promedio del almacenamiento. Al implementar HSM se establece un alto al crecimiento de medios de almacenamientos rápidos y costosos y se transfiere parte de este crecimiento a los medios lentos y baratos. Los sistemas de HSM no son un reemplazo de los respaldos, es un complemento.
  • 21. Utilización de los Archivos en una Empresa: Los archivos de datos generados en una empresa, tienen un uso que depende del tipo de actividades que se desarrollen en la misma. Un período inicial de frecuencia general puede extenderse hasta unos 30 días. Se sugiere dividir la actividad de los archivos en un período de 90 días. Algunas empresas utilizan el modelo 80/20, que indica a inactividad /actividad. Estudios más amplios indican que entre el 70 y 75 % de los archivos permanecen inactivos en los primeros 90 días, y entre el 75 y 80 % permanecerán así en los primeros 120 días. Finalmente, sólo entre un 2 y 2,5 % será accedido en algún momento pasado este último lapso. Lo importante es trazar un aproximado de la situación. Identificar esta información para tomar una decisión y crear un esquema eficiente en la solución implementada. Arquitectura y Funcionamiento del HSM: El sistema HSM extiende el sistema de archivos y debido al establecimiento de políticas de migración, entrega de forma automática y clara un mejor costo por megabyte para los archivos de menor acceso, junto el ahorro de seguimiento del almacenamiento primario, entre ambos compensan la pérdida de eficiencia por tener que acceder archivos ubicados en otros medios. La idea es transferir los archivos a dispositivos de almacenamiento secundario y menos costoso, en función de su menor uso. El objetivo es un mejor uso de los costos asociados al almacenamiento de datos, se busca una optimización entre el costo de almacenamiento de diferentes medios y la reducción en la productividad del personal debido al mayor tiempo de acceso de los medios más baratos. Por eso es importante fijar una política de migración de archivos para mantener un equilibrio adecuado. En el peor de los casos se obtiene una eliminación de los elevados costos del almacenamiento tradicional, gracias a la automatización de las tareas de administración de archivos que ofrece el HSM. Un sistema de este tipo permite: Hacer más eficiente el almacenamiento primario, reducir el costo total de los medios de almacenamiento, simplificar la administración almacenamiento. Una solución HSM consiste de los componentes de hardware, y un software inteligente de administración de datos que trabaja en base al establecimiento de una jerarquía multinivel de medios de almacenamiento. Migración de Archivos: El paso de un medio a otro se llama migración, este proceso se basa en criterios que se fijan en la configuración en base a una cantidad de características. Un sistema HSM hace que los procesos de migración y recuperación de datos sean automáticos y transparentes.
  • 22. Primero se considera que los datos que se acceden más frecuentemente se mantengan en el disco duro para mantener la eficiencia. Luego se determina los archivos candidatos para migración. Los criterios pueden variar en cada nivel y diferentes entre sí. Se determinan los parámetros de acuerdo con las políticas de migración de un medio a otro. Los parámetros pueden ser: nivel de ocupación, antigüedad, tiempo transcurrido desde su última lectura, tamaño, frecuencia de acceso etc. La migración también puede estar condicionada para ser realizada a cierta hora del día, de noche, o fuera del horario típico de trabajo. Migración Cliente y Servidor: El cliente de migración: Es cualquier sistema en la red que contiene datos que necesitan ser migrados ahora o en el futuro. Consiste en múltiples sistemas de archivos, que pueden bajo el control del sistema de migración. El servidor de migración: Es un sistema en la red que, almacén de migración, proporciona los servicios de migración a los clientes en la red. Almacén de Migración: Reside en el servidor de migración. Contiene datos que en inicio residieron en los clientes antes de emigrarse automáticamente encima del servidor. El almacén puede ser cualquier tipo de medio de almacenamiento, discos, cintas, óptico, etc. Lo usual que es que el almacén tenga una jerarquía de medios y el movimiento de los datos, se base en políticas de organización. Talón o Stub: Al migrar un archivo, su entrada de directorio no se borra, es ocupada por un inquilino. El archivo que tiene ahora dicha entrada es un archivo fantasma que se presenta al usuario como el original migrado. Si se considera al original como un ticket, el inquilino retiene el talón o stub de ese ticket. Cuando un proceso quiere acceder el archivo original, en realidad se accede al archivo stub, que inmediatamente produce la re−emigración del original para que se efectúe la operación correspondiente. El stub incluye información del lugar donde efectivamente se encuentra un archivo migrado. Sistema de Archivos: Algunos productos HSM requieren su propio sistema de archivos, que inclusive residan en el mismo computador donde se conectan los dispositivos de almacenamiento. Otros, trabajan con los sistemas de archivos existentes. En ambos casos se plantea donde residen los metadatos del sistema de archivos. Toda esta información puede estar junto a los datos en el disco óptico o en el propio disco duro. Si están en un disco óptico, se puede intercambiar con otro drive que podrá leer los archivos en cuestión. Pero exige que haya un sistema de archivo en forma de una base de datos que las aplicaciones deben consultar antes de la búsqueda correspondiente. Este proceso adicional, hace más lento el
  • 23. proceso de recuperación. Si los metadatos residen en el disco duro, es más rápido porque se usa el sistema de archivos estándar del sistema operativo, lo negativo es que con cada migración hay que exportar también la información del sistema de archivos al disco óptico. Backup y HSM: A pesar de que el HSM y backup pueden usar los mismos medios de almacenamiento, son cosas muy diferentes. Un sistema de backup es un sistema de protección; copia archivos en un medio diferente y permanece inactivo hasta la siguiente oportunidad. Esto hace que ambos programas tengan algo en común. Hay proveedores que venden ambos tipos de productos, algunos de backup no aceptan productos HSM de terceros sino el propio. Otro tema a tener en cuenta es el reconocimiento de los archivos stubs por parte del software de backup, si esto no ocurre, la lectura de estos archivos provocaría sin necesidad, el retorno al almacenamiento primario del archivo migrado correspondiente. Puesto que el proceso de backup seguiría su curso, la lectura de todos los archivos stubs provocaría un gran congestionamiento del tráfico con el riesgo incluso de agotar la capacidad del disco duro. Una funcionalidad completa para compartir dispositivos se logra con la integración de ambos tipos de productos. Cuando el proceso de backup encuentra un archivo stub puede hacerse o que lo respalde directamente sin activar el archivo principal, o que el proceso sea re direccionado al almacenamiento secundario y respalde dicho archivo principal, o a las dos cosas juntas. Archivado: Se trata de un proceso unidireccional de copiado de archivos en base a los criterios más comunes comentados en el HSM. Cuando se produce la copia automática de un archivo en un medio de almacenamiento secundario, no se deja ninguna indicación en el sistema de archivos primario, simplemente se agrega a una base de datos que controla el programa con la nueva ubicación del archivo copiado. Un operador manualmente, tendrá que volverlo a copiar al disco duro si fuera necesario consultando previamente la mencionada base de datos. Esto indica dice que no hay recuperación automática. El proceso es simple, fácil de configurar y trabaja directamente con unidades removibles de disco óptico o cinta, sin necesidad de medios robóticos para el manejo de múltiples cartuchos. Requisitos para implementar HSM: Las organizaciones deben asegurarse que ciertos elementos básicos de administración de almacenamiento estén en el lugar adecuado antes de que HSM se despliegue a lo largo de la empresa, estos incluyen:
  • 24. Sólida estrategia de backup y archivado: Para tener una protección de datos en una red heterogénea. Análisis apropiado del tamaño de las redes y edad de los datos: Por lo general las empresas con cantidad desmedida de datos antiguos, son los candidatos ideales por desplegar HSM. A pesar de la dificultar en cuantificar los datos antiguos, se recomienda que las organizaciones desplieguen el HSM si los datos tienen al menos un año de antigüedad. Hay varias herramientas disponibles que analiza la edad de los datos. Compromiso de los usuarios finales: Es fundamental que el personal de Sistemas, obtenga el máximo apoyo posible de los diversos usuarios finales antes de desplegar HSM por la organización. Factores y consideraciones: Para asegurar una administración exitosa, las organizaciones deben tener en cuenta los diversos problemas antes de seleccionar una solución de HSM. Entre los factores incluyen: Solución integrada: Donde las organizaciones deben llevar a cabo backup, archivado y HSM del mismo vendedor de software, al desplegar una solución del mismo vendedor se tiene acceso a muchas ventajas como: consistencia en la administración de datos, compartir en forma eficaz los recursos de almacenamiento, Interface de usuarios comunes, Contactos de servicio técnico sencillo, procedimientos simples a recuperación de desastres. Coexistencia armónica entre el backup y HSM: Es una ventaja importante de desplegar la solución de un vendedor donde coexista el backup/archivado y HSM. Si la solución no se integra, los usuarios podrían encontrar el backup de un archivo o un almacenamiento migrado no puede ser respaldado, de igual forma un candidato para migración podría ignorarse si se accedió por el software de backup. Los problemas de la empresa requiere solución de empresa: Los ambientes deben ser lo más homogéneos posibles, y cuando se requiere una solución HSM a una determinada plataforma de la empresa, debe ser provista por el mismo proveedor, y por ende de la misma plataforma, de las ya implementadas. Mantener los estándares: Uno de los retos más grandes a superar es que los proveedores del sistema operativo por lo general no proveen el soporte de migración de archivos. Por esta razón se ha hecho necesario que terceros obliguen a los usuarios a que modifiquen archivos de sistemas para facilitar la migración. Eso no es un camino recomendado, por significa que ya no se está ejecutando un OS que goza la garantía del vendedor de OS.
  • 25. Independencia del hardware de almacenamiento: El software para HSM debe trabajar con cualquier tipo de medio de almacenamiento. No debe obligar al usuario a que compre un dispositivo de hardware específico. Penetración de HSM: A pesar de haber sido introducido hace algún tiempo en el mercado, las empresas convencionales no han incorporado el HSM en forma bastante lenta hasta ahora. En realidad para un administrador es un gran paso que exige una evaluación del tipo de almacenamiento y los requisitos de recuperación. Parte de los argumentos en los primeros tiempos se basaban en algunas fallas de los programas durante el proceso de re−emigración, especialmente en aquellos productos de la que época que eran inmaduros, no había en los proveedores un buen conocimiento del sistema. También es cierto que en muchos casos los problemas en la implementación han sido causados por los propios administradores. Algunos usuarios optaron por una solución parcial como el archivado, donde la re−emigración es manual, otros aplicaron el HSM integrándola a productos de backup. Con el backup mantienen la protección de sus datos mientras que el HSM mantiene los recursos de almacenamiento de la red. Mientras los datos respaldados pierden valor con el tiempo al ser sustituidos por otros más recientes, los datos migrados por el HSM representan un valor prácticamente constante pues se refieren siempre a la última versión de cada archivo. Hoy en día muchos proveedores ofrecen productos confiables. Las tendencias actuales se refieren a la integración con los sistemas de archivos propios de los sistemas operativos, soporte de plataformas heterogéneas, integración con el backup, configuraciones escalables, y un mayor soporte en la administración del almacenamiento. Dónde usar HSM: Las empresas que tengan bases de datos de gran tamaño y activas, no se beneficiarán mucho del HSM. Algo similar es válido para quienes trabajan con muchos archivos pequeños, especialmente si se los debe mantener agrupados en el mismo medio. El HSM es ideal para toda empresa donde el tamaño del medio de almacenamiento, así como los archivos que lo llenan, toma un volumen importante, con las consiguientes complicaciones de tiempo de respuesta y administración. También el HSM es una buena solución para una empresa con archivos de tamaño mediano de uso comercial donde los archivos envejecen casi sin volver a usarse.
  • 26. Niveles HSM: Las características que diferencian al HSM son el número de niveles jerárquicos soportados, la configuración, los métodos de interacción con el sistema operativo, soporte a unidades ópticas y de cinta y, soporte o integración con el backup. Algunos productos incluyen compresión en los archivos migrados. Esta clasificación se compone de cinco niveles funcionales que no tienen nada que ver con los niveles jerárquicos antes mencionados: Nivel 1: Características bidireccionales, migración automática y recuperación transparente de archivos. Todos los productos HSM deben satisfacer al menos este nivel. Nivel 2: Umbrales múltiples predefinidos, que permiten un balance dinámico de los medios de almacenamiento. Este nivel es adecuado para empresas que tienen requerimientos de disco muy variables, tales como los propios de una operatoria comercial, técnica o de ingeniería. Nivel 3: Provee administración transparente de tres o más niveles de almacenamiento. Los umbrales entre niveles diferentes se balancean dinámicamente. Agrega administración de volúmenes y medios, incluyendo cola de tareas y optimización del rendimiento de los dispositivos. Es para empresas que trabajan con varios tipos de almacenamiento. Nivel 4: Permite la clasificación de archivos puede ser por: tipo, tamaño, ubicación, o propiedad. Además, el administrador puede establecer diferentes reglas de migración para cada clasificación. Puede operar en plataformas diferentes. Nivel 5: Organización basada en objetos, con registros estructurados y no estructurados, preservando las relaciones entre aquellos. Beneficios al implementar HSM: Algunas implementaciones han conseguido una reducción de costos del 52%, y en ampliaciones posteriores los precios por MB llegaron a reducirse cerca del 82%. Por otro los costos Backup pueden eliminarse en un 75%. Se tiene transparencia absoluta hacia los usuarios. Este sistema transparente de almacenamiento jerárquico actúa sobre tres elementos esenciales en toda organización: Personas: Generando cargas de trabajo menores y actividades más eficaces y eficientes. Tecnología: Integración con el resto de sistemas existentes.
  • 27. Procesos: Centralizando su lógica de proceso a través de accesos rápidos y seguros. Algunas ventajas de adoptar Almacenamiento Jerárquico HSM son: mejora de la productividad, mejora de calidad en el servicio al ciudadano, reducción del coste administrativo, reducción del coste de material, reducción de riesgos, optimización de los procesos de servicio, acceso instantáneo y concurrente a la información en cualquier momento. Los resultados que se pueden obtener son: Eliminación de trabajo manual de reparto, firma, registro y archivo de documentos. Acceso inmediato a la información, que sea accesible por varias personas a la vez y desde cualquier lugar. Eliminación de la posibilidad de pérdida de documentos. Reducción del tiempo de ejecución, tiempos de acceso, de espera y recuperación de la información. Facilitar la toma de decisiones. Incremento en la transparencia de los procesos de información, mejora de la calidad de gestión, tramitación y consulta de la información. Racionalización y automatización de los procesos de negocio. Incremento de la productividad, mejorando los procesos. Reducción de los costos de las operaciones. Mejora del servicio al usuario. En definitiva la implementación de este sistema de almacenamiento jerárquico dotará a las diversas organizaciones un sistema transparente que facilitará el acceso a los diversos documentos, optimizando su operativa habitual y aumentando la eficacia en las diferentes tareas administrativas, para conseguir en definitiva un mejor y más rápido servicio. La propuesta de valor que plantea el sistema de almacenamiento jerárquico es alcanzar la eficiencia y calidad en el servicio a través de la automatización de los procesos y contenidos críticos que son gestionados y distribuidos a usuarios. c) Realice un cuadro esquemático sobre el rendimiento del almacenamiento terciario por tipo de unidad tomando en cuenta: la velocidad, fiabilidad y coste.
  • 28. Velocidad: Puede analizarse desde dos aspectos: el ancho de banda y latencia. El ancho de banda se mide en bytes por segundo. El ancho de banda sostenido es la tasa promedio de transferencia de datos durante una transferencia larga. El ancho de banda efectivo mide el promedio durante el tiempo de E/S completo, incluyendo seek o locate, y cambio de cartuchos. La latencia de acceso, es la cantidad de tiempo requerida para localizar datos. En el caso de los discos son mucho más rápidos que las cintas, el almacenamiento de los discos es bidimensional y por lo general tienen una latencia rotacional inferior a 5 milisegundos. Por otro lado las cintas tienen acceso tridimensional y sin importar el momento solo un segmento de la cinta tiene acceso al cabezal, la mayoría de los bits están debajo de miles de capas de cinta bobinada en el carrete. Si se usa un intercambiador la latencia de acceso puede ser mayor, en el caso de los discos extraíbles, la unidad debe dejar de rotar y luego el brazo robotizado debe conmutar los cartuchos de discos, a partir de ahí el disco introducido comenzara a rotar, esto requiere varios segundos, 100 veces más lento que acceder aleatoriamente a un disco, por lo tanto el intercambio de discos tiene un gran impacto en la velocidad de acceso. En las cintas, el tiempo requerido por el brazo robotizado es casi igual a un disco, pero cuando se debe conmutar las cintas, se requiere rebobinar la cinta anterior para poder sacarla de la unidad lo que puede tardar hasta unos cuatro minutos, luego de cargar la nueva cinta, puede ser necesario varios segundos para calibrarla dentro del carrete, aunque un intercambiador de cintas no muy rápido puede tener un tiempo de conmutación de uno o dos minutos, no es un tiempo mayor que el tiempo de acceso aleatorio a la propia cinta. Se puede afirmar que el acceso aleatorio en un intercambiador de discos tiene una latencia de decenas de segundos, mientras que en el caso de las cintas tiene una latencia de centenares de segundos. También hay que prestar atención a los cartuchos, y los posibles cuellos de botella que se pueden presentar, si se considera el ancho de banda y su relación con la capacidad de almacenamiento en una biblioteca robotizada es menos favorable que en un disco fijo. Situación similar sucede con la latencia, el bajo costo del almacenamiento terciario es el resultado de tener muchos cartuchos baratos que comparten unos cuantos drives costosos. Fiabilidad: Si se intenta leer un conjunto de datos y no se logra debido a un fallo de la unidad o del soporte físico, eso implica un tiempo de acceso inmensamente largo y un
  • 29. ancho de banda muy pequeño, comprender la fiabilidad de los soportes extraíbles es importante. Los discos magnéticos extraíbles son menos fiables que los discos duros fijos, debido a que el cartucho tiene mayor probabilidad de verse expuesto a condiciones dañinas tanto ambientales y mecánicas. Los discos ópticos se consideran bastante fiables debido a que la capa que contiene los bits está protegida por otra capa transparente. En las cintas la fiabilidad varían depende del modelo, algunas se desgastan fácilmente por el uso mientras que otros son poco abrasivos y permite millones de reutilizaciones. En compasión por cabezal, el de una cinta es uno de los más débiles, el de un disco duro magnético esta contenido sobre un soporte físico. En conclusión, una unidad de disco fijo es con seguridad más confiable que uno disco extraíble o cinta movible, mientras que un cartucho óptico es probablemente más confiable que un disco o cinta magnética. Y que un choque de cabeza es un disco fijo generalmente destruye los datos, mientras que la falla de un drive de cinta o un disco óptico generalmente no daña los datos. Costo: El costo de almacenamiento es un factor importante, los dispositivos extraíbles pueden reducir el costo total de almacenamiento, porque a pesar que sea más caro fabricar un cartucho extraíble, el costo por gigabyte del almacenamiento extraíble puede ser muy inferior al costo por gigabyte de un disco duro. Las figuras 8.2, 8.3 y 8.4 muestran el costo por megabyte para: memoria DRAM, discos duros magnéticos y para cintas. Los precios reflejan las tendencias del mercado. En el caso de las cintas el precio es para una unidad con una cinta, el costo total del almacenamiento en cinta se reduce mucho a medida que compran más unidades para ser utilizadas con la misma unidad. Si en un biblioteca de cintas que tengas miles de cartuchos, el costo está dominado por el precio unitario de los cartuchos de cinta. El costo por gigabyte de según los datos obtenidos esta alrededor de 2 dólares.
  • 30. Figura 8.2 Precio por megabyte para una unidad de cinta, entre 1984 y 2004 El costo de la memoria DRAM varía bastante, en el periodo registrado, se observan tres caídas abruptas en los precios (19811989,1996) debido a un exceso de producción que casi logra colapsar el mercado, de forma similar se tienen dos periodos (1987, 1993) donde la escasez en el mercado provoco significativos aumentos de precio . Figura 8.3 Precio por megabyte para las memorias DRAM, entre 1981 y 2004 En los discos duros, la caida de los precios ha sido mas sostenida, y se ha acelarado desde 1992. A partir de 1997 el precio por gigabyte de las unidades de cinta de bajo costo ha dejado de caer tan rapido, aunque el precio de la tecnologia
  • 31. de cinta de gama media ha seguido cayendo y en este momento se acerca al cosoto de la unidades de gama baja. Figura 8.4 Precio por megabyte para discos duros, entre 1981 y 2004 Las graficas muestran que el costo de almacenamiento ha caido abruptamente en los ultimos 20 años, si se compara las graficas se puede ver que el precio del alamcenamiento en disco ha bajada en gran medida en relacion con el precio de la memoria DRAM y el de las cintas. El precio por megabytes de los discos magneticos ha mejorado mas de cuatro veces en las dos ultimas decadas, mientras que la mejora de los chips de memoria RAM solo ha sido solo tres veces en magnitud, la memoria principal es mas de cien veces mas costosa que el almacenamiento en disco. El precio por megabyte ha caido bastante y mucho mas rapido para las unidades de disco que para las de cinta. El precio por megabyte de una unidad de disco magnetico se esta acercando al de un cartucho de cinta, trayendo como consecuencia que las bibliotecas de cintas tienen un costo de almacenamiento hoy en dia mayor que los sistemas de discos de capacidad similar. La abrupta caida en los precios de los discos ha hecho que el almacenamiento terciario se considere casi obsoleto, ya no se tiene una tecnologia de almacenamiento terciario que en magnitud sea mucho mas barata que los discos magneticos, para que el almacenamiento terciario pueda renacer tendra que aparecer una tecnologia revolucionaria. Por el momento el uso de las cintas se vera limitado a usos como: copias de seguridad de discos, y archivado definitivo en bibliotecas de cintas.
  • 32. PREGUNTA # 4 – OBJETIVO 10 – CRITERIO DE DOMINIO 1/1 Los objetivos de los mecanismos de protección son minimizar los riesgos de las posibles violaciones de mínimo privilegio. Para cumplir con dichos mecanismos de protección un proceso opera dentro de un dominio de protección. Una forma abstracta de presentar un modelo de protección es mediante una matriz de acceso. Así, por ejemplo dadas los siguientes casos: Caso 1: Se tienen 5 dominios (Di), 4 objetos y 5 archivos (F1, F2, F3), donde un proceso con el objeto 1 se ejecuta y tiene privilegio de lectura en D1, y en el dominio D2, este mismo objeto tiene privilegio de escritura, pudiendo leer y escribir en el archivo F2. En el domino D3 el objeto 2 tiene privilegios de escritura, lectura y ejecución y podrá escribir en el archivo F2. En el dominio D4 el objeto 3 tiene privilegios de lectura y ejecución y una impresora. En el domino D5 el objeto 3 tiene privilegio de seguridad para poder cumplir con el principio director clave de escritura, una impresora y lee y escribe en el archivo F1. Se le pide realizar para este caso lo siguiente: c1.a La matriz de acceso tomado en cuenta los objetos y dominios dados. A continuación se presenta la matriz solicitada: Objeto Dominio Objeto 1 Objeto 2 Objeto 3 Objeto 4 Archivo F1 Archivo F2 Archivo F3 Archivo F4 Archivo F5 Dominio 1 Ejecutar Leer Dominio 2 Escribir Leer Escribir Dominio 3 Escribir Leer Ejecutar Escribir Dominio 4 Leer Ejecutar Imprimir Dominio 5 Escribir Imprimir Leer Escribir Tabla 10.1 Matriz de acceso caso 1, tomando en cuenta los objetos y dominios dados. c1.b La matriz de acceso tomando en cuenta la conmutación entre procesos. Para elaborar la matriz de acceso con conmutación, se agregan en los dominios en las columnas, como si se trataran de objetos. En cada conmutación elaborada, se utilizó dominios que tengan derechos en el mismo objeto que pudieran complementarse, se explican a continuación:
  • 33. Conmutación Dominio Origen Dominio Destino Objeto Relacionado Derecho Relacionado Conmutación 1 D1 D2 Objeto 1 Escribir Conmutación 2 D2 D1 Objeto 1 Leer, Ejecutar Conmutación 3 D3 D2 Archivo F2 Lectura Conmutación 4 D4 D5 Objeto 3 Escribir Conmutación 5 D5 D4 Objeto 3 Ejecutar Tabla 10.2 Conmutaciones agregadas. Luego de tener las conmutaciones definidas, se puede elaborar la matriz con conmutación entre procesos. Objeto Dominio Objeto 1 Objeto 2 Objeto 3 Objeto 4 File 1 File 2 File 3 File 4 File 5 D1 D2 D3 D4 D5 D1 Ejecutar Leer Entrar D2 Escribir Leer Escribir Entrar D3 Escribir Leer Ejecutar Escribir Entrar D4 Leer Ejecutar Imprimir Entrar D5 Escribir Imprimir Leer Escribir Entrar Tabla 10.3 Matriz de acceso caso 1, tomando en cuenta la conmutación entre procesos. Caso 2: Se tiene el archivo F2 que se encuentra ejecutándose en el dominio D1, D2 y D3. El archivo F1 con privilegio de lectura en el domino D2 y F3 con privilegio de escritura en el dominio D1y ejecutándose en D2. Se le pide realizar para este caso lo siguiente: La matriz de acceso para un proceso que se ejecute en el dominio D2 con derecho de copiar la operación elegida en cualquier entrada asociada al archivo F2. El primer paso es elaborar la matriz de acceso con los datos iniciales. Objeto Dominio Archivo F1 Archivo F2 Archivo F3 Dominio 1 Ejecutar Escribir Dominio 2 Leer Ejecutar Ejecutar Dominio 3 Ejecutar Tabla 10.4 Matriz de acceso caso 2, datos iniciales.
  • 34. El derecho de copia permite copiar el derecho de acceso solo dentro de la columna, es decir para el objeto en la que esté definida el derecho. La capacidad de copiar un derecho de acceso de un dominio (o fila) de la matriz de acceso a otro se denotará mediante un asterisco (*) al lado del derecho de acceso, el derecho a copiar tiene dos variantes: Un derecho de copia del acceso (o casilla) (i,j) al acceso (k,j); y a continuación se elimina del acceso (i,j) es llamada transferencia de un derecho, en lugar de una copia. La propagación del derecho a copia puede estar limitada. Es decir, cuando el derecho Der* se copia de la casilla (i,j) a la casilla (k,j), sólo se crea el derecho Der (no Der*). Un proceso que se ejecute en el dominio Dk, no podrá copiar a su el derecho R en otra fila. Objeto Dominio Archivo F1 Archivo F2 Archivo F3 Dominio 1 Escribir Dominio 2 Leer Ejecutar* Ejecutar Dominio 3 Ejecutar Tabla 10.5 Matriz de acceso caso 2, con D2 con derecho a copia. En la tabla 10.5, el dominio 2, tiene derecho a copia en el archivo F2, la operación ejecutar fue la seleccionada, se observa que en el dominio 1 ya no posee el derecho ejecutar, debido a que no se requiere en este momento, y en el dominio 3 se realizó una copia limitada, es decir D3 puede ejecutar el archivo F2 pero no podrá realizar otras copias. Caso 3: Se tiene el archivo F1 ejecutándose en el dominio D1 y D3, siendo D1 el propietario. El archivo F2 en el dominio D2 con privilegio de lectura y con derecho de copiar la operación elegida en cualquier entrada asociada siendo D2 propietario. El archivo F3 en el dominio D1 con privilegio de escritura, en el dominio D2 con privilegio de lectura y escritura con derecho de copiar la operación elegida en cualquier entrada asociada siendo D2 propietario. Se le pide realizar para este caso lo siguiente: La matriz de acceso con derechos de propietario. Se elabora la matriz inicial con los datos iniciales, indicando dominios que puedan ser propietario (Owner), otros que puedan tener derecho a copia y otros derechos estándar.
  • 35. Objeto Dominio Archivo F1 Archivo F2 Archivo F3 Dominio 1 Ejecutar Propietario Escribir Dominio 2 Leer * Propietario Leer* Escribir* Propietario Dominio 3 Ejecutar Tabla 10.6 Matriz de acceso caso 3, datos iniciales. El derecho propietario también llamado como Owner, es un mecanismo que permite la adición de nuevos derechos y la eliminación de algunos derechos. Si un acceso (i,j) incluye el derecho propietario, un proceso que se ejecute dentro del dominio Di podrá añadir y eliminar cualquier derecho en cualquier entrada de la columna j. La siguiente matriz de acceso muestra un ejemplo de la aplicación del derecho propietario. Objeto Dominio Archivo F1 Archivo F2 Archivo F3 Dominio 1 Ejecutar Propietario Escribir Dominio 2 Leer * Propietario Leer* Escribir* Propietario Dominio 3 Leer Escribir Tabla 10.7 Matriz de acceso caso 3, ejemplo del derecho propietario. En la tabla 10.7 el comando Propietario eliminó la posibilidad en el dominio 3 de ejecutar F1. El mecanismo Propietario agregó la posibilidad al dominio 1 de escribir en F1 y realizó una copia limitada del derecho leer en el dominio 3 y finalmente Propietario eliminó la posibilidad en el dominio 1 de escribir F3 y adiciono simultáneamente este derecho para el dominio 3.