DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
Unidad 2 jacinto
1. CARRERA:
Ingeniería en Informática
MATERIA:
Sistemas operativos
DOCENTE:
Jacinto
UNIDAD:
2
TRABAJO:
administrador del procesador.
ALUMNOS:
Luz Areli López Aquino
SEMESTRE: GRUPO:
“4” “4S”
Heroica Cd. De Juchitán De Zaragoza Oaxaca A 06 de abril Del 2017
2.
3. El procesador es el que se refiere a los diferentes tipos
de artículos de sistemas informativos que forma parte de
un microprocesador que es parte de un CPU o micro que
es el cerebro de la computadora y de todos los procesos
informativos desde los más sencillos hasta los más
complejos.
El procesador de una computadora es el dispositivo
de hardware que puede tener diversas propiedad, la unidad
central de procesamiento o CPU, conocido como ‘’ cerebro’’
del sistema.
4. Un proceso puede variar entre 5 distintos ESTADOS:
New: cuando el proceso esta siendo creado.
Running: cuando el proceso se esta ejecutando.
Waiting: cuando el proceso esta esperando que se
cumpla algún otro evento.
Ready: cuando el proceso esta pronto para ejecutar,
esperando por la CPU.
Terminated: cuando el proceso esta terminado.
5. TRANSICIONES
Un proceso puede encontrarse en estado de ejecución, bloqueado
o listo (que también se llama ejecutable). De estos estados de los
procesos se derivan las siguientes transiciones y estados:
Transición: El paso de un estado a otro.
1. El proceso se bloquea en la entrada.
2. El planificador elige otro proceso.
3. El planificador elige este proceso.
4. La entrada se vuelve disponible.
Estados:
1. Ejecución (que en realidad hace uso del CPU en ese
instante).
2. Bloqueado (incapaz de correr hasta que suceda
algún evento externo.
3. Listo (ejecutable; se detiene temporalmente para
permitir que se ejecute otro
proceso).
6. EN ESTOS TRES ESTADOS SON POSIBLES CUATRO
TRANSICIONES:
1. Ocurre cuando un proceso descubre que no puede continuar. En algún
sistema el proceso debe ejecutar una llamada al sistema, BLOCK, para
entrar en estado bloqueado.
2 y 3. Son ocasionadas por el planificador del proceso, que es parte del
sistema operativo sin que el proceso llegue a saber de ella.
2. Ocurre cuando el planificador decide que el proceso en ejecución ya
ha corrido el tiempo suficiente y es tiempo de permitir que otro proceso
tome tiempo de CPU.
3. Ocurre cuando todos los procesos han utilizado su parte del tiempo y
es hora de que el primer proceso vuelva a correr.
4. Ocurre cuando aparece el evento externo que estaba esperando un
proceso (como el arribo de alguna entrada). Si ningún otro proceso corre
en ese instante, la transición 3 se activará de inmediato y el proceso
iniciara su ejecución, de lo contrario tendrá que esperar, en estado listo.
7. EXCLUSIÓN MUTUA.
En un sistema multiprogramado con un único procesador, los procesos se
intercalan en el tiempo (Round Robín) para dar apariencia de ejecución
simultánea. Aunque no se consigue un procesado en paralelo real, y
aunque se produce un sobre cargado en la CPU por el hecho de tener
que cambiar de tarea constantemente, las ventajas de todo esto son muy
elevadas. Ejemplo: avión-torre, chats, etc.
Uno de los grandes problemas que nos podemos encontrar es que el
hecho de compartir recursos está lleno de riesgos. Por ejemplo, si dos
procesos hacen uso al mismo tiempo de una variable global y ambos
llevan a cabo tanto operaciones de lectura como de escritura sobre dicha
variable, el orden en que se ejecuten estas lecturas y escrituras es crítico,
puesto que se verá afectado el valor de la variable.
8. SECCIÓN CRÍTICA.
sección crítica, en programación concurrente, a la porción de código de un
programa de ordenador en la que se accede a un recurso compartido (estructura de
datos o dispositivo) que no debe ser accedido por más de un proceso o hilo en
ejecución. La sección crítica por lo general termina en un tiempo determinado y el
hilo, proceso o tarea sólo tendrá que esperar un período determinado de tiempo
para entrar. Se necesita un mecanismo de sincronización en la entrada y salida de la
sección crítica para asegurar la utilización en exclusiva del recurso, por ejemplo
un semáforo.
El acceso concurrente se controla teniendo cuidado de las variables que se
modifican dentro y fuera de la sección crítica. La sección crítica se utiliza por lo
general cuando un programa multihilo actualiza múltiples variables sin un hilo de
ejecución separado que lleve los cambios conflictivos a esos datos. Una situación
similar, la sección crítica puede ser utilizada para asegurarse de que un recurso
compartido, por ejemplo, una impresora, pueda ser accedida por un solo proceso a
la vez. La manera en cómo se implementan las secciones puede variar dependiendo
de los diversos sistemas operativos. Sólo un proceso puede estar en una sección
crítica a la vez. El método más común para evitar que dos procesos accedan al
mismo tiempo a un recurso es el de la exclusión mutua.
9. SEMÁFORO.
Un semáforo es una variable especial (o tipo abstracto de datos) que
constituye el método clásico para restringir o permitir el acceso a
recursos compartidos (por ejemplo, un recurso de almacenamiento del
sistema o variables del código fuente) en un entorno de
multiprocesamiento (en el que se ejecutarán varios procesos
concurrentemente). Fueron inventados por Edsger Dijkstra en 1965 y se
usaron por primera vez en el sistema operativo THEOS.
10. PLANIFICACIÓN DEL PROCESADOR.
En un sistema multiprogramado, la memoria principal contiene varios procesos. Cada
proceso alterna entre usar el procesador y esperar que se realice una operación de
E/S o que ocurra algún otro suceso. El procesador o los procesadores se mantienen
ocupados ejecutando un proceso mientras los demás esperan.
13. METODO F.C.F.S.
Suponga que los siguientes procesos han sido planificados pata trabajar el
Primero en llegar, el Primero en ser servido.
Proceso Tinicio Texe
A--------------0--------------8
B--------------1--------------5
C--------------3--------------3
D--------------5--------------6
Teniendo en cuenta que:
Texe: Tiempo de ejecución T= Tfinal-Tinicio
T: tiempo de servicio E= T-Texe
E: tiempo de espera I= T/Texe x 100
I: rendimiento
a) Determine el tiempo en que finaliza cada proceso.
b) Determine el tiempo de servicio para cada proceso.
c) Obtenga el valor promedio del tiempo de servicio.
d)Obtenga el valor promedio del tiempo de espera.
e) Represente gráficamente el tiempo en el que cada proceso utiliza el
procesador.
f) Obtenga el rendimiento del procesador para cada proceso.
g)Elabore un resumen explicando cómo funciona ese método de
planificación.
14. A)
A= 8, B=13, C=16, D=22
B)
T= 8-0=8
T=13-1=12
T=16-3=13
T=22-5=17
C)
T= 50/ 4 = 12.5%
D)
E= 26/4= 6.5%
E)
15. F)
I= 8/8 * 100= 100
I= 12/5 * 100 =240
I= 13/3 * 100= 433.33
I= 17/6 * 100= 283.33
G) Este método consiste en que el procesador ejecuta cada
proceso hasta que termina, por tanto, los procesos que en cola de
procesos preparados permanecerán encolados en el orden en que
lleguen hasta que les toque su ejecución.
La cantidad de tiempo de espera de cada proceso depende
del número de procesos que se encuentren en la cola en el
momento de su petición de ejecución y del tiempo que cada uno
de ellos tenga en uso al procesador, y es independiente de las
necesidades del propio proceso.
En el caso de que los procesos de mayor tiempo de duración
llegasen los primeros, el tiempo medio de espera sería mucho
mayor. Podemos llegar a la conclusión de que este no es un
algoritmo eficiente. El tiempo medio de servicio es muy variable en
función del número de procesos y su duración.
Conclusión:
Este algoritmo está bien lo único que los procesos largos hacen
esperar mucho a los cortos.