El documento explica qué es un proceso y describe los diferentes estados por los que puede pasar un proceso, incluyendo ejecución, listo, bloqueado, nuevo y terminado. También describe el bloque de control de procesos que el sistema operativo usa para hacer un seguimiento del estado de cada proceso.
En esta presentación se presentan los siguientes temas:
Información, estado y formación de un proceso.
Concepto de hilo y su constitución.
Planificación de servicios POXIS.
Problemas clásicos en la comunicación de procesos.
Los sistemas operativos han evolucionado desde la década de 1940, cuando no existían y las computadoras se administraban mediante tarjetas perforadas, hasta la actualidad con sistemas como Windows 10 y Mac OS X. Algunos hitos incluyen el procesamiento por lotes en la década de 1950, la multiprogramación y los circuitos integrados en la década de 1960, el sistema Multics en 1965, el desarrollo de Unix en 1970, Windows en 1980, Macintosh en 1984 y versiones más recientes como Linux en 1991 y Windows XP en 2001.
1. El documento habla sobre la gestión de procesos por parte de los sistemas operativos, incluyendo la creación, terminación y estados de los procesos.
2. Los sistemas operativos administran los procesos y tareas del sistema para optimizar el uso de recursos como la CPU.
3. Los procesos pueden encontrarse en estados como nuevo, listo, en ejecución, espera y terminado; y el sistema operativo controla las transiciones entre estos estados.
Windows gestiona la memoria utilizando paginación, donde divide la memoria en páginas de 4 KB. Cuando hay más procesos en ejecución de lo que cabe en la memoria RAM, Windows intercambia páginas entre la memoria virtual en el disco y la física RAM. Esto permite a los procesos acceder a más memoria de la disponible físicamente como si fuera ilimitada.
Este documento describe los conceptos fundamentales del paso de mensajes en sistemas distribuidos, incluyendo modalidades de envío y recepción de mensajes, finalización de operaciones, selección de mensajes, problemas de serialización e interbloqueo, y comunicación colectiva. Explica cómo los procesos se comunican mediante el envío y recepción de mensajes sin compartir variables, y las diferentes formas en que las operaciones pueden ser bloqueantes o no bloqueantes.
Manejo de los procesos en los sistemas operativosCarolina Cols
Un proceso es un programa en ejecución que consta de instrucciones, datos, registros y la información necesaria para ejecutar el programa. El sistema operativo crea y administra los procesos, determinando cuándo pasan de ejecutándose a suspendidos y viceversa, almacenando la información de los procesos suspendidos para poder reanudarlos.
El documento discute las ventajas y desventajas de diferentes sistemas operativos para servidores, incluyendo Linux, UNIX, Windows y BSD. Señala que Linux y UNIX son mejores para servidores debido a su estabilidad, seguridad y soporte, mientras que Windows puede ser más fácil de usar pero menos estable. También discute factores como aplicaciones compatibles y la integración con sistemas existentes a la hora de seleccionar un sistema operativo para servidores.
La transferencia de archivos implica la transmisión de un archivo entre computadoras utilizando protocolos como FTP. FTP usa dos canales, uno de control y otro de datos, para identificar el archivo, transferir sus partes y confirmar el fin de la transferencia de manera fiable entre las computadoras. La transferencia de archivos puede ocurrir a través de redes de diferentes formas como entre sistemas de archivos de red, de punto a punto o en mensajería instantánea.
En esta presentación se presentan los siguientes temas:
Información, estado y formación de un proceso.
Concepto de hilo y su constitución.
Planificación de servicios POXIS.
Problemas clásicos en la comunicación de procesos.
Los sistemas operativos han evolucionado desde la década de 1940, cuando no existían y las computadoras se administraban mediante tarjetas perforadas, hasta la actualidad con sistemas como Windows 10 y Mac OS X. Algunos hitos incluyen el procesamiento por lotes en la década de 1950, la multiprogramación y los circuitos integrados en la década de 1960, el sistema Multics en 1965, el desarrollo de Unix en 1970, Windows en 1980, Macintosh en 1984 y versiones más recientes como Linux en 1991 y Windows XP en 2001.
1. El documento habla sobre la gestión de procesos por parte de los sistemas operativos, incluyendo la creación, terminación y estados de los procesos.
2. Los sistemas operativos administran los procesos y tareas del sistema para optimizar el uso de recursos como la CPU.
3. Los procesos pueden encontrarse en estados como nuevo, listo, en ejecución, espera y terminado; y el sistema operativo controla las transiciones entre estos estados.
Windows gestiona la memoria utilizando paginación, donde divide la memoria en páginas de 4 KB. Cuando hay más procesos en ejecución de lo que cabe en la memoria RAM, Windows intercambia páginas entre la memoria virtual en el disco y la física RAM. Esto permite a los procesos acceder a más memoria de la disponible físicamente como si fuera ilimitada.
Este documento describe los conceptos fundamentales del paso de mensajes en sistemas distribuidos, incluyendo modalidades de envío y recepción de mensajes, finalización de operaciones, selección de mensajes, problemas de serialización e interbloqueo, y comunicación colectiva. Explica cómo los procesos se comunican mediante el envío y recepción de mensajes sin compartir variables, y las diferentes formas en que las operaciones pueden ser bloqueantes o no bloqueantes.
Manejo de los procesos en los sistemas operativosCarolina Cols
Un proceso es un programa en ejecución que consta de instrucciones, datos, registros y la información necesaria para ejecutar el programa. El sistema operativo crea y administra los procesos, determinando cuándo pasan de ejecutándose a suspendidos y viceversa, almacenando la información de los procesos suspendidos para poder reanudarlos.
El documento discute las ventajas y desventajas de diferentes sistemas operativos para servidores, incluyendo Linux, UNIX, Windows y BSD. Señala que Linux y UNIX son mejores para servidores debido a su estabilidad, seguridad y soporte, mientras que Windows puede ser más fácil de usar pero menos estable. También discute factores como aplicaciones compatibles y la integración con sistemas existentes a la hora de seleccionar un sistema operativo para servidores.
La transferencia de archivos implica la transmisión de un archivo entre computadoras utilizando protocolos como FTP. FTP usa dos canales, uno de control y otro de datos, para identificar el archivo, transferir sus partes y confirmar el fin de la transferencia de manera fiable entre las computadoras. La transferencia de archivos puede ocurrir a través de redes de diferentes formas como entre sistemas de archivos de red, de punto a punto o en mensajería instantánea.
Este documento describe las características de varios sistemas operativos populares como Windows, Mac OS, Linux y Android. Proporciona interfaces gráficas de usuario, permite ejecutar múltiples aplicaciones simultáneamente, organiza archivos de manera intuitiva, es compatible con una variedad de hardware y periféricos, y ofrece funciones de red y seguridad mejoradas en comparación con versiones anteriores.
Este documento describe la administración de la memoria virtual y la paginación. Explica que la memoria virtual simula tener más memoria de la que físicamente existe mediante el uso de un disco duro. Implementa la paginación para dividir la memoria en páginas y marcos de página. También cubre estrategias para la obtención, colocación y reemplazo de páginas al mover datos entre la memoria principal y secundaria.
Arquitectura de los sistemas operativosXavier Jose
El documento describe las arquitecturas de varios sistemas operativos incluyendo Unix, Windows, DOS, Mac OS, Debian y Ubuntu. La arquitectura de Unix consta de 4 niveles con el hardware en el nivel más bajo, el núcleo en el segundo nivel, programas en el tercer nivel y aplicaciones en el cuarto nivel. La arquitectura de Windows se basa en el diseño extensible de Windows NT. La arquitectura de Mac OS consta de cuatro componentes: la interfaz Aqua, estructuras de aplicaciones, gráficos y
Bases de datos distribuidas heterogéneasJuan Anaya
Este documento describe las características de las bases de datos distribuidas heterogéneas, incluyendo que usan diferentes gestores de bases de datos y esquemas en cada sitio de manera autónoma. Explica los tipos de heterogeneidad que pueden existir debido a diferencias en los sistemas de gestión de bases de datos o en la semántica de los datos. También cubre los retos de procesar consultas y transacciones entre bases de datos heterogéneas de manera distribuida.
El documento describe la gestión de memoria en Linux. Explica que el sistema operativo debe administrar toda la memoria física y asignarla a los subsistemas del núcleo y programas de usuario. Usa técnicas como paginación y swap para ofrecer a los procesos más memoria de la que físicamente existe y mejorar el rendimiento. El núcleo reserva parte de la memoria principal para su código y estructuras de datos estáticas.
El documento describe los conceptos básicos de la gestión de memoria en sistemas operativos, incluyendo requisitos como reubicación, protección y compartición. Explica los diferentes enfoques para la organización lógica y física de la memoria, como paginación y segmentación. También cubre temas como algoritmos de ubicación, reemplazo y los registros utilizados durante la ejecución de procesos.
Este documento presenta un diagrama de estados de procesos y explica los diferentes estados por los que puede pasar un proceso, incluyendo listo, ejecución, bloqueado y suspendido. También explica que un proceso cambia de estado cuando espera una operación o es movido entre memoria principal y secundaria. Un proceso activo está usando la CPU mientras que uno inactivo no lo está. Finalmente, enumera las diferentes transiciones que puede hacer un proceso entre estados como nuevo a listo, listo a ejecución, y ejecución a blo
Este documento explica el enrutamiento entre VLAN. Describe cómo el enrutamiento entre VLAN permite la comunicación entre dispositivos aislados en VLAN separadas a través de un router. Explica dos métodos comunes de enrutamiento entre VLAN, incluida la configuración "router-on-a-stick" que utiliza subinterfaces en una sola interfaz física del router. Concluye que el enrutamiento entre VLAN puede ayudar a administrar mejor una red al facilitar la comunicación entre VLAN.
El documento describe diferentes diagramas de estados que representan el ciclo de vida de un proceso en un sistema operativo. El diagrama de 2 estados incluye los estados de no ejecución y ejecución, mientras que el diagrama de 3 estados agrega el estado bloqueado. El diagrama de 5 estados añade los estados finalizado y nuevo, y el diagrama de 6 estados incluye el estado suspendido. El diagrama de 7 estados permite la transición entre los estados listo y suspendido.
Este documento describe los sistemas de archivos y la gestión de archivos en Mac OS X. Explica que el sistema de archivos HFS+ almacena metadatos usando una estructura de árbol B* y permite nombres de archivo de hasta 255 caracteres. También describe al Finder como el gestor de archivos gráfico que usa una metáfora de explorador para navegar y manipular archivos y carpetas.
1) Los sistemas operativos modernos tratan las unidades de recursos (procesos) e unidades de despacho (hilos) de forma independiente, donde los procesos son unidades de recursos y los hilos son unidades de despacho.
2) Los procesos son pesados y comparten recursos, mientras que los hilos son livianos, existen varios por proceso, y comparten los recursos del proceso.
3) Los hilos comparten el código, datos y recursos de un proceso, y son baratos de crear y gestionar en comparación con los pro
Este documento describe los conceptos de deadlock, incluyendo sus características, métodos para manejarlo como prevención, predicción, detección y recuperación. Explica el modelo de sistema de recursos, el grafo de recursos y las condiciones necesarias para que ocurra un deadlock. También presenta el algoritmo del banquero para predecir deadlocks y ejemplos de su aplicación.
Un sistema distribuido se define como una colección de computadoras conectadas por una red que comparten recursos hardware y software a través del uso de software distribuido, lo que permite a los usuarios ver el sistema como una sola entidad. Las ventajas incluyen la compartición de recursos, apertura para combinar equipos y software de diferentes proveedores, y la capacidad de procesos concurrentes y escalabilidad. Las desventajas son la complejidad, problemas de seguridad y manejo, e impredecibilidad en la respuesta.
El documento describe los conceptos fundamentales de los procesos en sistemas operativos. Explica que un proceso es un programa en ejecución que incluye el contador de programa, registros y variables. Los procesos pueden encontrarse en diferentes estados como listo, ejecutando o bloqueado. También describe el bloque descriptor de proceso, la creación de procesos, las listas y colas de procesos, y el cambio de contexto. Por último, introduce los conceptos de hilos a nivel de usuario y núcleo.
Este documento describe la gestión de dispositivos de entrada y salida en los sistemas operativos. Explica los principales dispositivos de entrada como el teclado, mouse y escáner, y de salida como el monitor e impresora. También describe los dispositivos de almacenamiento como el disco duro y memorias USB, así como conceptos como buffers, interrupciones y controladores de dispositivos.
El documento describe diferentes esquemas y algoritmos de administración de memoria en sistemas operativos, incluyendo administración sin intercambio, multiprogramación con particiones fijas y variables, memoria virtual, paginación, y algoritmos de reemplazo de páginas como FIFO y reloj. La memoria virtual permite a los procesos acceder a un espacio de direcciones lógico más grande que la memoria física real mediante la traducción de direcciones y el intercambio de páginas entre memoria y disco.
Un modelo de arquitectura de dos capas distribuye una aplicación web entre dos componentes lógicos: una capa de presentación que interactúa con los usuarios y una capa de datos que almacena y gestiona la información de forma persistente. Existen tres variantes principales de esta arquitectura dependiendo de cómo se distribuyen estas capas y la lógica de negocio entre el cliente y el servidor.
Este documento trata sobre autómatas finitos. Explica la clasificación de autómatas finitos determinísticos y no determinísticos, y cómo convertir un autómata finito no determinístico a uno determinístico usando el algoritmo de subconjuntos. También cubre la representación de expresiones regulares usando autómatas finitos no determinísticos y la minimización de estados en un autómata finito. Por último, presenta un caso de estudio sobre la construcción de un vehículo que evade obstáculos us
Fase de implementación de sistemas de informaciónNAHAMA19
El documento describe la fase de implementación de sistemas de información, la cual es la más costosa y que consume más tiempo. Explica que durante esta fase se instala y prueba el nuevo sistema, y se capacita a los usuarios para que puedan utilizarlo. Además, detalla cuatro métodos de implementación (directo, paralelo, piloto y en fases), señalando que los métodos piloto y en fases suelen ser los más comunes debido a que tienen menor riesgo. Finalmente, resalta la importancia de realizar pruebas de sistemas
La Gestión de la Configuración del Software (GCS) es un proceso que identifica, controla y audita los elementos de un sistema que pueden cambiar a lo largo de su ciclo de vida para mantener la integridad del software. La GCS incluye actividades como la planificación, clasificación, control de versiones, gestión de cambios y generación de informes.
Un proceso consiste en las instrucciones de un programa, su estado de ejecución y su memoria de trabajo. Un proceso puede crear hilos que comparten la memoria del proceso. Los procesos pueden estar en diferentes estados como ejecución, listo o bloqueado. El sistema operativo crea, administra y termina los procesos para distribuir los recursos del sistema de manera eficiente.
Este documento describe conceptos básicos sobre procesos como unidades de ejecución en sistemas operativos. Explica que un proceso es un programa en ejecución que incluye el código, variables y estado. También describe los estados típicos de un proceso, las operaciones sobre procesos como creación y terminación, y mecanismos de planificación y comunicación entre procesos concurrentes.
Este documento describe las características de varios sistemas operativos populares como Windows, Mac OS, Linux y Android. Proporciona interfaces gráficas de usuario, permite ejecutar múltiples aplicaciones simultáneamente, organiza archivos de manera intuitiva, es compatible con una variedad de hardware y periféricos, y ofrece funciones de red y seguridad mejoradas en comparación con versiones anteriores.
Este documento describe la administración de la memoria virtual y la paginación. Explica que la memoria virtual simula tener más memoria de la que físicamente existe mediante el uso de un disco duro. Implementa la paginación para dividir la memoria en páginas y marcos de página. También cubre estrategias para la obtención, colocación y reemplazo de páginas al mover datos entre la memoria principal y secundaria.
Arquitectura de los sistemas operativosXavier Jose
El documento describe las arquitecturas de varios sistemas operativos incluyendo Unix, Windows, DOS, Mac OS, Debian y Ubuntu. La arquitectura de Unix consta de 4 niveles con el hardware en el nivel más bajo, el núcleo en el segundo nivel, programas en el tercer nivel y aplicaciones en el cuarto nivel. La arquitectura de Windows se basa en el diseño extensible de Windows NT. La arquitectura de Mac OS consta de cuatro componentes: la interfaz Aqua, estructuras de aplicaciones, gráficos y
Bases de datos distribuidas heterogéneasJuan Anaya
Este documento describe las características de las bases de datos distribuidas heterogéneas, incluyendo que usan diferentes gestores de bases de datos y esquemas en cada sitio de manera autónoma. Explica los tipos de heterogeneidad que pueden existir debido a diferencias en los sistemas de gestión de bases de datos o en la semántica de los datos. También cubre los retos de procesar consultas y transacciones entre bases de datos heterogéneas de manera distribuida.
El documento describe la gestión de memoria en Linux. Explica que el sistema operativo debe administrar toda la memoria física y asignarla a los subsistemas del núcleo y programas de usuario. Usa técnicas como paginación y swap para ofrecer a los procesos más memoria de la que físicamente existe y mejorar el rendimiento. El núcleo reserva parte de la memoria principal para su código y estructuras de datos estáticas.
El documento describe los conceptos básicos de la gestión de memoria en sistemas operativos, incluyendo requisitos como reubicación, protección y compartición. Explica los diferentes enfoques para la organización lógica y física de la memoria, como paginación y segmentación. También cubre temas como algoritmos de ubicación, reemplazo y los registros utilizados durante la ejecución de procesos.
Este documento presenta un diagrama de estados de procesos y explica los diferentes estados por los que puede pasar un proceso, incluyendo listo, ejecución, bloqueado y suspendido. También explica que un proceso cambia de estado cuando espera una operación o es movido entre memoria principal y secundaria. Un proceso activo está usando la CPU mientras que uno inactivo no lo está. Finalmente, enumera las diferentes transiciones que puede hacer un proceso entre estados como nuevo a listo, listo a ejecución, y ejecución a blo
Este documento explica el enrutamiento entre VLAN. Describe cómo el enrutamiento entre VLAN permite la comunicación entre dispositivos aislados en VLAN separadas a través de un router. Explica dos métodos comunes de enrutamiento entre VLAN, incluida la configuración "router-on-a-stick" que utiliza subinterfaces en una sola interfaz física del router. Concluye que el enrutamiento entre VLAN puede ayudar a administrar mejor una red al facilitar la comunicación entre VLAN.
El documento describe diferentes diagramas de estados que representan el ciclo de vida de un proceso en un sistema operativo. El diagrama de 2 estados incluye los estados de no ejecución y ejecución, mientras que el diagrama de 3 estados agrega el estado bloqueado. El diagrama de 5 estados añade los estados finalizado y nuevo, y el diagrama de 6 estados incluye el estado suspendido. El diagrama de 7 estados permite la transición entre los estados listo y suspendido.
Este documento describe los sistemas de archivos y la gestión de archivos en Mac OS X. Explica que el sistema de archivos HFS+ almacena metadatos usando una estructura de árbol B* y permite nombres de archivo de hasta 255 caracteres. También describe al Finder como el gestor de archivos gráfico que usa una metáfora de explorador para navegar y manipular archivos y carpetas.
1) Los sistemas operativos modernos tratan las unidades de recursos (procesos) e unidades de despacho (hilos) de forma independiente, donde los procesos son unidades de recursos y los hilos son unidades de despacho.
2) Los procesos son pesados y comparten recursos, mientras que los hilos son livianos, existen varios por proceso, y comparten los recursos del proceso.
3) Los hilos comparten el código, datos y recursos de un proceso, y son baratos de crear y gestionar en comparación con los pro
Este documento describe los conceptos de deadlock, incluyendo sus características, métodos para manejarlo como prevención, predicción, detección y recuperación. Explica el modelo de sistema de recursos, el grafo de recursos y las condiciones necesarias para que ocurra un deadlock. También presenta el algoritmo del banquero para predecir deadlocks y ejemplos de su aplicación.
Un sistema distribuido se define como una colección de computadoras conectadas por una red que comparten recursos hardware y software a través del uso de software distribuido, lo que permite a los usuarios ver el sistema como una sola entidad. Las ventajas incluyen la compartición de recursos, apertura para combinar equipos y software de diferentes proveedores, y la capacidad de procesos concurrentes y escalabilidad. Las desventajas son la complejidad, problemas de seguridad y manejo, e impredecibilidad en la respuesta.
El documento describe los conceptos fundamentales de los procesos en sistemas operativos. Explica que un proceso es un programa en ejecución que incluye el contador de programa, registros y variables. Los procesos pueden encontrarse en diferentes estados como listo, ejecutando o bloqueado. También describe el bloque descriptor de proceso, la creación de procesos, las listas y colas de procesos, y el cambio de contexto. Por último, introduce los conceptos de hilos a nivel de usuario y núcleo.
Este documento describe la gestión de dispositivos de entrada y salida en los sistemas operativos. Explica los principales dispositivos de entrada como el teclado, mouse y escáner, y de salida como el monitor e impresora. También describe los dispositivos de almacenamiento como el disco duro y memorias USB, así como conceptos como buffers, interrupciones y controladores de dispositivos.
El documento describe diferentes esquemas y algoritmos de administración de memoria en sistemas operativos, incluyendo administración sin intercambio, multiprogramación con particiones fijas y variables, memoria virtual, paginación, y algoritmos de reemplazo de páginas como FIFO y reloj. La memoria virtual permite a los procesos acceder a un espacio de direcciones lógico más grande que la memoria física real mediante la traducción de direcciones y el intercambio de páginas entre memoria y disco.
Un modelo de arquitectura de dos capas distribuye una aplicación web entre dos componentes lógicos: una capa de presentación que interactúa con los usuarios y una capa de datos que almacena y gestiona la información de forma persistente. Existen tres variantes principales de esta arquitectura dependiendo de cómo se distribuyen estas capas y la lógica de negocio entre el cliente y el servidor.
Este documento trata sobre autómatas finitos. Explica la clasificación de autómatas finitos determinísticos y no determinísticos, y cómo convertir un autómata finito no determinístico a uno determinístico usando el algoritmo de subconjuntos. También cubre la representación de expresiones regulares usando autómatas finitos no determinísticos y la minimización de estados en un autómata finito. Por último, presenta un caso de estudio sobre la construcción de un vehículo que evade obstáculos us
Fase de implementación de sistemas de informaciónNAHAMA19
El documento describe la fase de implementación de sistemas de información, la cual es la más costosa y que consume más tiempo. Explica que durante esta fase se instala y prueba el nuevo sistema, y se capacita a los usuarios para que puedan utilizarlo. Además, detalla cuatro métodos de implementación (directo, paralelo, piloto y en fases), señalando que los métodos piloto y en fases suelen ser los más comunes debido a que tienen menor riesgo. Finalmente, resalta la importancia de realizar pruebas de sistemas
La Gestión de la Configuración del Software (GCS) es un proceso que identifica, controla y audita los elementos de un sistema que pueden cambiar a lo largo de su ciclo de vida para mantener la integridad del software. La GCS incluye actividades como la planificación, clasificación, control de versiones, gestión de cambios y generación de informes.
Un proceso consiste en las instrucciones de un programa, su estado de ejecución y su memoria de trabajo. Un proceso puede crear hilos que comparten la memoria del proceso. Los procesos pueden estar en diferentes estados como ejecución, listo o bloqueado. El sistema operativo crea, administra y termina los procesos para distribuir los recursos del sistema de manera eficiente.
Este documento describe conceptos básicos sobre procesos como unidades de ejecución en sistemas operativos. Explica que un proceso es un programa en ejecución que incluye el código, variables y estado. También describe los estados típicos de un proceso, las operaciones sobre procesos como creación y terminación, y mecanismos de planificación y comunicación entre procesos concurrentes.
Este documento describe los conceptos básicos de los procesos en sistemas operativos, incluyendo los estados de los procesos, diagramas de formación de procesos, modelos de estados, procesos suspendidos, comunicación entre procesos, e implementación y planificación de procesos. El documento también cubre temas como niveles de planificación, problemas del productor y consumidor, y exclusión mutua.
Un proceso es un programa en ejecución que incluye valores de registros, variables y contador de programa. Un proceso puede estar en los estados de listo, en ejecución o bloqueado. Los procesos listos pueden pasar a estado de ejecución si son seleccionados por el planificador, mientras que los procesos bloqueados esperan recursos como E/S. Un proceso cambia entre estos estados activos e inactivos como suspendido o terminado.
El documento describe los diferentes estados que puede tener un proceso en un sistema operativo, como listo, en ejecución y bloqueado. También explica las transiciones entre estados, como cuando un proceso pasa de listo a en ejecución cuando el planificador lo selecciona. Además, detalla los estados activos e inactivos de los procesos y las operaciones de creación, suspensión y reanudación de procesos.
Este documento describe los conceptos básicos de los procesos y su administración en sistemas operativos, incluyendo los estados de los procesos, su creación, comunicación entre procesos, y planificación. Explica los modelos de dos y cinco estados de un proceso, así como los mecanismos para la creación, comunicación y sincronización de procesos. Finalmente, detalla los diferentes niveles de planificación de procesos realizados por el sistema operativo.
El documento describe los conceptos de procesos, estados de procesos y planificación de procesos en sistemas operativos. Explica que los procesos pueden estar en estados como ejecución, listo, bloqueado, nuevo o terminado. También describe cómo los sistemas operativos usan herramientas como colas y planificadores para asignar recursos a los procesos y decidir qué proceso ejecutar a continuación.
El documento describe los conceptos de procesos, estados de procesos y planificación de procesos en sistemas operativos. Explica que los procesos pueden estar en estados como ejecución, listo, bloqueado, nuevo o terminado. También describe cómo los sistemas operativos usan herramientas como colas y planificadores para asignar recursos a los procesos y decidir qué proceso ejecutar a continuación.
El documento describe los conceptos básicos de los procesos y la planificación de procesos en sistemas operativos. Explica que un proceso puede estar en diferentes estados como nuevo, listo, en ejecución, bloqueado o terminado. También describe los diferentes niveles de planificación como corto, mediano y largo plazo, así como algunos algoritmos comunes de planificación como FIFO, Round Robin y proceso más corto.
Este documento describe los conceptos de proceso y procesamiento paralelo. Un proceso consiste en las instrucciones de un programa, su estado de ejecución y memoria de trabajo. El procesamiento paralelo divide un programa en trozos que se ejecutan simultáneamente en múltiples procesadores para acelerar la ejecución. Los procesos pueden interbloquearse si compiten por recursos limitados. Los sistemas operativos usan modelos de procesos con diferentes estados como ejecutando, listo y bloqueado.
El documento describe los conceptos de procesos y estados de procesos en sistemas operativos. Explica que un proceso es una entidad activa que compite por recursos como la CPU, y que el sistema operativo administra los procesos y su ejecución. Los procesos pueden estar en estados como nuevo, listo, en ejecución, bloqueado o terminado. También habla sobre la creación, terminación y transiciones entre estados de los procesos.
El documento describe los estados por los que pasan los procesos en un sistema operativo. Explica que existen dos modelos principales para describir los estados de un proceso: el modelo de dos estados (ejecución/no ejecución) y el modelo de cinco estados (nuevo, listo, en ejecución, espera y terminado). Asimismo, detalla las transiciones entre estados y las estructuras de datos que el sistema operativo utiliza para administrar los procesos, como las tablas de memoria, E/S, archivos y el bloque de
Este documento describe los conceptos de procesos y estados de procesos en sistemas operativos. Explica que un proceso es una entidad activa que compite por recursos como la CPU, y que el sistema operativo administra los procesos y su ejecución. También describe los cinco estados típicos de un proceso: nuevo, listo, en ejecución, bloqueado y terminado.
El documento describe los conceptos de procesos y estados de procesos en sistemas operativos. Explica que un proceso es una entidad activa que compite por recursos como la CPU, y que el sistema operativo administra los procesos y su ejecución. Los procesos pueden estar en estados como nuevo, listo, en ejecución, bloqueado o terminado. También habla sobre la creación, terminación y transiciones entre estados de los procesos.
El documento describe los estados por los que pasan los procesos en un sistema operativo. Explica que existen dos modelos principales para describir los estados de un proceso: el modelo de dos estados (ejecución/no ejecución) y el modelo de cinco estados (nuevo, listo, en ejecución, espera y terminado). Asimismo, detalla las transiciones entre estados y las estructuras de datos que el sistema operativo utiliza para administrar los procesos, como las tablas de memoria, E/S, archivos y el bloque de
El documento describe los conceptos de procesos y estados de procesos en sistemas operativos. Explica que un proceso es una entidad activa que compite por recursos como la CPU, y que el sistema operativo administra los procesos y su ejecución. Los procesos pueden estar en estados como nuevo, listo, en ejecución, bloqueado o terminado. También habla sobre la creación, terminación y transiciones entre estados de los procesos.
Programa en ejecución / unidad de procesamiento gestionada por el sistema operativo. El proceso es un concepto fundamental en los sistemas operativos , el objetivo último de éstos es crear, ejecutar y destruir procesos, de acuerdo a las órdenes de los usuarios.
Este documento describe conceptos clave de los procesos y la planificación del CPU. Explica que un proceso es una abstracción de un programa en ejecución y que el modelo de procesos permite la multiprogramación mediante el cambio de contexto entre procesos. También cubre temas como los estados de los procesos, la tabla de control de procesos, y diferentes algoritmos de planificación como FIFO.
Este documento describe varios conceptos clave relacionados con la administración de procesos en sistemas operativos. Explica que un proceso es una instancia de ejecución de un programa que está caracterizado por su estado, memoria reservada y contenidos. También describe los diferentes estados que puede tener un proceso como ejecución, listo, espera, nuevo y terminado. Además, explica conceptos como la concurrencia, exclusión mutua, sincronización, semáforos y monitores que son fundamentales para la gestión de procesos concurrentes en un
El documento describe los estados y transiciones de un proceso. Los estados principales de un proceso son: listo, en ejecución y bloqueado. Un proceso puede cambiar entre estos estados a través de transiciones como el despacho, tiempo excedido, bloqueado y despertar. También se describen estados suspendidos y las transiciones asociadas con la suspensión y reanudación de procesos.
La Unidad Eudista de Espiritualidad se complace en poner a su disposición el siguiente Triduo Eudista, que tiene como propósito ofrecer tres breves meditaciones sobre Jesucristo Sumo y Eterno Sacerdote, el Sagrado Corazón de Jesús y el Inmaculado Corazón de María. En cada día encuentran una oración inicial, una meditación y una oración final.
ACERTIJO DESCIFRANDO CÓDIGO DEL CANDADO DE LA TORRE EIFFEL EN PARÍS. Por JAVI...JAVIER SOLIS NOYOLA
El Mtro. JAVIER SOLIS NOYOLA crea y desarrolla el “DESCIFRANDO CÓDIGO DEL CANDADO DE LA TORRE EIFFEL EN PARIS”. Esta actividad de aprendizaje propone el reto de descubrir el la secuencia números para abrir un candado, el cual destaca la percepción geométrica y conceptual. La intención de esta actividad de aprendizaje lúdico es, promover los pensamientos lógico (convergente) y creativo (divergente o lateral), mediante modelos mentales de: atención, memoria, imaginación, percepción (Geométrica y conceptual), perspicacia, inferencia y viso-espacialidad. Didácticamente, ésta actividad de aprendizaje es transversal, y que integra áreas del conocimiento: matemático, Lenguaje, artístico y las neurociencias. Acertijo dedicado a los Juegos Olímpicos de París 2024.
José Luis Jiménez Rodríguez
Junio 2024.
“La pedagogía es la metodología de la educación. Constituye una problemática de medios y fines, y en esa problemática estudia las situaciones educativas, las selecciona y luego organiza y asegura su explotación situacional”. Louis Not. 1993.
LA PEDAGOGIA AUTOGESTONARIA EN EL PROCESO DE ENSEÑANZA APRENDIZAJEjecgjv
La Pedagogía Autogestionaria es un enfoque educativo que busca transformar la educación mediante la participación directa de estudiantes, profesores y padres en la gestión de todas las esferas de la vida escolar.
1. Realizado por: Joselin González.
Universidad Pedagógica Experimental Libertador
Instituto Pedagógico “Profesor Antonio Lira Alcalá” de Maturín
2. ¿Que es un proceso?
Un proceso es una secuencia de pasos dispuesta con algún tipo
de lógica que se enfoca en lograr algún resultado específico. Los
procesos son mecanismos de comportamiento que diseñan los
hombres para mejorar la productividad de algo, para establecer
un orden o eliminar algún tipo de problema.
En informática, un proceso suele ser el nombre que recibe un
programa que está siendo ejecutado en memoria. Si vemos el
administrador de tareas de Windows, podremos tomar
conciencia de muchos de estos programas. En este caso, el
nombre de procesos deriva del hecho de que un programa por
definición lleva una secuencia de pasos de forma lógica. Muchos
de estos procesos son fundamentales para el mantenimiento del
sistema operativo, circunstancia que hace que eliminar a alguno
pueda tener consecuencias negativas.
3. Estado de los procesos.
El principal trabajo del procesador es ejecutar las
instrucciones de máquina que se encuentran en memoria
principal. Estas instrucciones se encuentran en forma de
programas. Para que un programa pueda ser ejecutado, el
sistema operativo crea un nuevo proceso, y el procesador
ejecuta una tras otra las instrucciones del mismo.
En un entorno de multiprogramación, el procesador
intercalará la ejecución de instrucciones de varios
programas que se encuentran en memoria. El sistema
operativo es el responsable de determinar las pautas de
intercalado y asignación de recursos a cada proceso.
4. Modelos de dos estados
El modelo de estados más simple es el de dos estados. En este
modelo, un proceso puede estar ejecutándose o no. Cuando se crea
un nuevo proceso, se pone en estado de No ejecución. En algún
momento el proceso que se está ejecutando pasará al estado No
ejecución y otro proceso se elegirá de la lista de procesos listos para
ejecutar para ponerlo en estado Ejecución.
De esta explicación se desprende que es necesario que el sistema
operativo pueda seguirle la pista a los procesos, conociendo su
estado y el lugar que ocupa en memoria. Además los procesos que
no se están ejecutando deben guardarse en algún tipo de cola
mientras esperan su turno para ejecutar.
5. Modelo de cinco estados.
El modelo anterior de dos estados funcionaría bien con una cola FIFO y
planificación por turno rotatorio para los procesos que no están en
ejecución, si los procesos estuvieran siempre listos para ejecutar. En la
realidad, los procesos utilizan datos para operar con ellos, y puede suceder
que no se encuentren listos, o que se deba esperar algún suceso antes de
continuar, como una operación de Entrada/Salida. Es por esto que se
necesita un estado donde los procesos permanezcan bloqueados
esperando hasta que puedan proseguir. Se divide entonces al estado No
ejecución en dos estados: Listo y Bloqueado. Se agregan además un estado
Nuevo y otro Terminado.
6. Los cinco estados de este diagrama
son los siguientes:
Ejecución: el proceso está actualmente en ejecución.
Listo: el proceso está listo para ser ejecutado, sólo está esperando que el
planificador así lo disponga.
Bloqueado: el proceso no puede ejecutar hasta que no se produzca cierto suceso,
como una operación de Entrada/Salida.
Nuevo: El proceso recién fue creado y todavía no fue admitido por el sistema
operativo. En general los procesos que se encuentran en este estado todavía no
fueron cargados en la memoria principal.
Terminado: El proceso fue expulsado del grupo de procesos ejecutables, ya sea
porque terminó o por algún fallo, como un error de protección, aritmético, etc.
Los nuevos estados Nuevo y Terminado son útiles para la gestión de procesos. En
este modelo los estados Bloqueado y Listo tienen ambos una cola de espera.
Cuando un nuevo proceso es admitido por el sistema operativo, se sitúa en la cola
de listos. A falta de un esquema de prioridades ésta puede ser una cola FIFO. Los
procesos suspendidos son mantenidos en una cola de bloqueados. Cuando se da un
suceso se pasan a la cola de listos los procesos que esperaban por ese suceso.
Si existe un esquema con diferentes niveles de prioridad de procesos es conveniente
mantener varias colas de procesos listos, una para cada nivel de prioridad, lo que
ayuda a determinar cuál es el proceso que más conviene ejecutar a continuación.
7. Bloque de control de los procesos
Para llevar a cabo la gestión de un proceso, es necesario que
el sistema operativo guarde cierta información necesaria.
Para ello, existe un registro especial que se conoce como el
bloque de control del proceso BCP, o PCB en inglés (Process
Control Block).
El BCP es creado por el Sistema operativo cada vez que
aparece un nuevo proceso. Los procesos son conocidos para
el sistema operativo y por tanto elegibles para competir por
los recursos del sistema sólo cuando existe un BCP activo
asociado a ellos. Cuando el programa termina, el BCP es
eliminado para dejar espacio libre en el registro, y usarlo
para almacenar otros BCP.
8. El bloque de control de procesos difiere mucho de un sistema a otros,
pero existen contenidos comunes:
Identificador del proceso: Identificar de forma unívoca al proceso en el
sistema, generalmente se emplea un entero sin signo que se denomina PID
(Process IDentifier)
Estado del proceso para el planificador de procesos: preparado, activo o
bloqueado.
Contexto de la ejecución: valor de los registros del procesador, bits de
estados, etc. Esto es, cada vez que se ejecuta el planificador y se realiza una
conmutación de procesos, la información sobre en qué lugar se encontraba la
ejecución del proceso se encuentra guardada aquí, así como el lugar en el que
se paró la ejecución del anterior proceso (cada una en su respectivo BCP).
Aspectos relacionados con la administración de memoria: tales como el
espacio de direcciones y la cantidad de memoria asignada a un proceso.
Aspectos relacionados con la administración de ficheros: tales como los
ficheros con los que el proceso está actualmente operando.
Los procesadores en los que el proceso puede ejecutarse: en caso de
soportar el sistema multiprocesador.
En el caso de un sistema operativo tipo UNIX: el proceso padre de dicho
proceso y la relación de procesos hijos.
Estadísticas temporales: Tiempo de lanzamiento del proceso, tiempo en
estado activo, etc.
9. Operaciones sobre los procesos
Los sistemas operativos poseen una serie de funciones cuyo objetivo es el de
la manipulación de los procesos. En general las operaciones que se pueden
hacer sobre un proceso son las siguientes:
Crear el proceso. Se produce con la orden de ejecución del programa y
suele necesitar varios argumentos, como el nombre y la prioridad del
proceso.
La creación de un proceso puede ser de dos tipos:
Jerárquica. En ella cada proceso que se crea es hijo del proceso creador y
hereda el entorno de ejecución de su padre. El primer proceso que ejecuta
un usuario será hijo del intérprete de comandos con el que interactúa.
No jerárquico. Cada proceso creado por otro proceso se ejecuta
independientemente de su creador con un entorno diferente. Es un tipo de
creación que no suele darse en los sistemas operativos actuales.
10. Además de los dos tipos anteriores se
pueden realizar las operaciones siguientes:
Destruir un proceso. Se trata de la orden de eliminación del proceso con
la cual el sistema operativo destruye su PCB ( Proces control Block).
Suspender un proceso. Es una operación de alta prioridad que paraliza
un proceso que puede ser reanudado posteriormente. Suele utilizarse en
ocasiones de mal funcionamiento o sobrecarga del sistema.
1- Reanudar un proceso. Trata de activar un proceso que ha sido
previamente suspendido.
2- Cambiar la prioridad de un proceso.
Temporizar la ejecución de un proceso. Hace que un determinado
proceso se ejecute cada cierto tiempo (segundos, minutos, horas,...) por
etapas o de una sola vez, pero transcurrido un periodo de tiempo fijo.
Despertar un proceso. Es una forma de desbloquear un proceso que
habrá sido bloqueado previamente por temporización o cualquier otra
causa.
11. Planificación de los procesos
Hace referencia a un conjunto de políticas y mecanismos incorporados al sistema
operativo, a través de un módulo denominado planificador, que debe decidir cuál
de los procesos en condiciones de ser ejecutado conviene ser despachado primero
y qué orden de ejecución debe seguirse. Esto debe realizarse sin perder de vista su
principal objetivo que consiste en el máximo aprovechamiento del sistema, lo que
implica proveer un buen servicio a los procesos existentes en un momento dado.
Un proceso es un programa en ejecución. Existen 3 estados en los que puede
encontrarse un proceso, estos son: "Listo", "Bloqueado" y "En ejecución". Para el
control de los mismos internamente son almacenados en una lista, cada uno de
los nodos guarda información de un proceso. En esa información se almacena,
entre otros aspectos, el estado en que se encuentra el proceso, el tiempo que el
proceso ha usado el CPU, e información de E/S (entrada/salida). Los sistemas
operativos cuentan con un componente llamado planificador, que se encarga de
decidir cuál de los procesos hará uso del procesador. La toma de esta decisión, así
como el tiempo de ejecución del proceso, estará dada por un algoritmo,
denominado Algoritmo de Planificación.
12. Objetivos de la planificación de
procesos
La Planificación de procesos tiene como principales objetivos la
equidad, la eficacia, el tiempo de respuesta, el tiempo de regreso
y el rendimiento.
Equidad: Todos los procesos deben ser atendidos.
Eficacia: El procesador debe estar ocupado el 100% del tiempo.
Tiempo de respuesta: El tiempo empleado en dar respuesta a
las solicitudes del usuario debe ser el menor posible.
Tiempo de regreso: Reducir al mínimo el tiempo de espera de
los resultados esperados por los usuarios por lotes.
Rendimiento: Maximizar el número de tareas que se procesan
por cada hora.
13. Algoritmos de Planificación
Primero en llegar primero en ser servido
Conocido Como FCFS (First Come First Served). Este algoritmo emplea una
cola de procesos, asignando un lugar a cada proceso por el orden de llegada.
Cuando el proceso llega es puesto en su lugar en la cola después del que llegó
antes que él y se pone en estado de listo. Cuando un proceso comienza a
ejecutarse no se interrumpe su ejecución hasta que termina de hacerlo.
Prioridad al más corto
Su nombre es SJF (Shortest Job First). El proceso que se encuentra en ejecución
cambiará de estado voluntariamente, o sea, no tendrá un tiempo de ejecución
determinado para el proceso. A cada proceso se le asigna el tiempo que usará
cuando vuelva a estar en ejecución, y se irá ejecutando el que tenga un menor
tiempo asignado. Si se da el caso de que dos procesos tengan igual valor en ese
aspecto emplea el algoritmo FCFS.
Round Robin
A cada proceso se le asigna un tiempo determinado para su ejecución, el mismo
tiempo para todos. En caso de que un proceso no pueda ser ejecutado
completamente en ese tiempo se continuará su ejecución después de que todos
los procesos restantes sean ejecutados durante el tiempo establecido. Este es un
algoritmo basado en FCFS que trata la cola de procesos que se encuentran en
estado de listos como una cola circular.
14. Planificación por prioridad
En este tipo de planificación a cada proceso se le asigna una prioridad
siguiendo un criterio determinado, y de acuerdo con esa prioridad será el
orden en que se atienda cada proceso.
Planificación garantizada
Para realizar esta planificación el sistema tiene en cuenta el número de
usuarios que deben ser atendidos. Para un número "n" de usuarios se
asignará a cada uno un tiempo de ejecución igual a 1/n.
Planificación de Colas Múltiples
El nombre se deriva de MQS (Multilevel Queue Schedulling). En este
algoritmo la cola de procesos que se encuentran en estado de listos es
dividida en un número determinado de colas más pequeñas. Los procesos
son clasificados mediante un criterio para determinar en qué cola será
colocado cada uno cuando quede en estado de listo. Cada cola puede
manejar un algoritmo de planificación diferente a las demás.
15. Tiempos
En la Planificación de procesos se tiene en cuenta diferentes tiempos que
pueden ser calculados, como son el "Tiempo de espera medio", el "Tiempo
de retorno del proceso" y el "Tiempo de retorno medio".
Tiempo de espera medio
Es el promedio de tiempos en que los procesos están en estado de listos. En
algoritmos FCFS este tiempo suele ser bastante largo. En algoritmos SJF
para los procesos largos este tiempo suele ser muy grande, pues se estarán
ejecutando constantemente los procesos más cortos y los más largos se
encontrarán constantemente en espera, por lo que pueden entrar en
inanición. En Planificación por prioridad los procesos de prioridad baja
podrían no ejecutarse nunca. Para dar solución a este problema el
envejecimiento de un programa eleva su prioridad.
Tiempo de retorno del proceso
Es el tiempo que transcurre desde la creación de un proceso hasta que
termina la ejecución del programa que le dio lugar.
Tiempo de retorno medio
Es la suma de los tiempos de retorno de cada uno de los procesos dividida
entre la cantidad de procesos.
16. Comunicación y sincronización de
los procesos
Los procesos que ejecutan de forma concurrente en un
sistema se pueden clasificar como procesos independientes
o cooperantes. Un proceso independiente es aquel que
ejecuta sin requerir la ayuda o cooperación de otros
procesos. Un claro ejemplo de procesos independientes son
los diferentes intérpretes de mandatos que se ejecutan de
forma simultánea en un sistema. Los procesos son
cooperantes cuando están diseñados para trabajar
conjuntamente en alguna actividad, para lo que deben ser
capaces de comunicarse e interactuar entre ellos.
Tanto si los procesos son independientes como
cooperantes, pueden producirse una serie de interacciones
entre ellos.
17. Comunicación y sincronización de
los procesos
Estas interacciones pueden ser de dos tipos:
Interacciones motivadas porque los procesos comparten o compiten por el acceso a
recursos físicos o lógicos. Esta situación aparece en los distintos tipos de procesos
anteriormente comentados. Por ejemplo, dos procesos totalmente independientes
pueden competir por el acceso a disco. En este caso, el sistema operativo deberá
encargarse de que los dos procesos accedan ordenadamente sin que se cree ningún
conflicto. Esta situación también aparece cuando varios procesos desean modificar el
contenido de un registro de una base de datos. Aquí es el gestor de la base de datos el
que se tendrá que encargar de ordenar los distintos accesos al registro.
Interacción motivada porque los procesos se comunican y sincronizan entre sí para
alcanzar un objetivo común. Por ejemplo, un compilador se puede construir mediante
dos procesos: el compilador propiamente dicho, que se encarga de generar código
ensamblador, y el proceso ensamblador, que obtiene código en lenguaje máquina a
partir del ensamblador. En este ejemplo puede apreciarse la necesidad de comunicar y
sincronizar a los dos procesos.
Estos dos tipos de interacciones obligan al sistema operativo a incluir mecanismo y
servicios que permitan la comunicación y la sincronización entre procesos.
18. Procesos concurrentes
Dos o más procesos decimos que son concurrentes, paralelos, o que se ejecutan
concurrentemente, cuando son procesados al mismo tiempo, es decir, que para
ejecutar uno de ellos, no hace falta que se haya ejecutado otro.
En sistemas multiprocesador, esta ejecución simultánea podría conseguirse
completamente, puesto que podremos asignarle, por ejemplo, un proceso A al
procesador A y un proceso B al procesador B y cada procesador realizaran la ejecución
de su proceso.
Cuando tenemos un solo procesador se producirá un intercalado delas instrucciones
de ambos procesos, de tal forma que tendremos la sensación de que hay un
paralelismo en el sistema (concurrencia, ejecución simultánea de más de un proceso).
Ahora bien, está claro que en esto tenemos que tener en cuenta que mientras un
proceso está escribiendo un valor en una variable determinada, puede darse el caso
que otro proceso que es concurrente al primero vaya a leer o escribir en esa misma
variable, entonces habrá que estudiar el caso en el que un proceso haga una operación
sobre una variable (o recurso en general) y otro proceso concurrente a él realice otra
operación de tal forma que no se realice correctamente. Para estudiar esto, y
determinar el tipo de operaciones que se pueden realizar sobre recursos compartidos
utilizaremos las condiciones de Bernstein.
19. Condiciones de Bernstein.
Condiciones que nos determinan si dos procesos se pueden
ejecutar de forma paralela.
R(S1) es el conjunto de variables cuyo valor es accedido
durante la ejecución de la instrucción.
W(S1) es el conjunto de variables cuyo valor cambia
durante la ejecución de la instrucción.
Condiciones de Bernstein: Dos procesos se pueden ejecutar
de forma concurrente si se verifican las siguientes
condiciones:
R(S2) Intersección W(S1) = {conjunto vacío}
R(S1) Intersección W(S2) = {conjunto vacío}
W(S1) Intersección W(S2) = {conjunto vacío}
20. Grafos de precedencia.
Es un grafo acíclico y orientado cuyos nodos
corresponden a sentencias individuales. Un arco desde
un nodo si a un nodo sj significa que la sentencia sj
puede ejecutarse sólo después de que si haya terminado
su ejecución.
21. Instrucciones para crear procesos.
fork / join
fork: Genera dos ejecuciones concurrentes en un programa.
join: Hace lo contrario, recombinando dos ejecuciones concurrentes en una sola.
fork etiqueta: La etiqueta nos indica el punto donde está el código de una de esas ejecuciones
concurrentes. El código de la otra ejecución lo escribiremos justo debajo de fork etiqueta.
join variable: La variable especifica el número de instrucciones concurrentes que vamos a
unir en una sola.
parbegin / parend
Encerraremos entre Parbegin / Parend las instrucciones que queramos ejecutar
concurrentemente.
Ejemplo:
Parbegin
A;
B;
C;
Parend
Conseguiremos ejecutar A, B, C de forma simultánea.
22. Interrupciones
En el contexto de la informática, una interrupción (del inglés
Interrupt Request, también conocida como petición de
interrupción) es una señal recibida por el procesador de un
ordenador, indicando que debe “interrumpir” el curso de
ejecución actual y pasar a ejecutar código específico para tratar
esta situación.
Una interrupción es una suspensión temporal de la ejecución de
un proceso, para pasar a ejecutar una subrutina de servicio de
interrupción, la cual, por lo general, no forma parte del
programa, sino que pertenece al sistema operativo o al BIOS).
Una vez finalizada dicha subrutina, se reanuda la ejecución del
programa.
Las interrupciones surgen de la necesidad que tienen los
dispositivos periféricos de enviar información al procesador
principal de un sistema informático.
23. Tipos de interrupciones
Existen tres tipos de interrupciones :
Interrupciones internas de hardware
Las interrupciones internas son generadas por ciertos eventos que surgen
durante la ejecución de un programa.
Este tipo de interrupciones son manejadas en su totalidad por el
hardware y no es posible modificarlas.
Un ejemplo claro de este tipo de interrupciones es la que actualiza el
contador del reloj interno de la computadora, el hardware hace el
llamado a esta interrupción varias veces durante un segundo para
mantener la hora actualizada.
Aunque no podemos manejar directamente esta interrupción (no
podemos controlar por software las actualizaciones del reloj), es posible
utilizar sus efectos en la computadora para nuestro beneficio, por
ejemplo para crear un "reloj virtual" actualizado continuamente gracias al
contador del reloj interno. Únicamente debemos escribir un programa
que lea el valor actual del contador y lo traduzca a un formato entendible
para el usuario.
24. Interrupciones externas de hardware
Las interrupciones externas las generan los
dispositivos periféricos, como pueden ser: teclado,
impresoras, tarjetas de comunicaciones, etc. También
son generadas por los coprocesadores.
No es posible desactivar a las interrupciones externas.
Estas interrupciones no son enviadas directamente a la
UCP, sino que se mandan a un circuito integrado cuya
función es exclusivamente manejar este tipo de
interrupciones. El circuito, llamado PIC 8259A, si es
controlado por la UCP utilizando para tal control una
serie de vías de comunicación llamadas puertos.
25. Una lista de las interrupciones generadas por
hardware es la siguiente
26. Interrupciones de software
Las interrupciones de software pueden ser activadas directamente por el
ensamblador invocando al número de interrupción deseada con la
instrucción INT.
El uso de las interrupciones nos ayuda en la creación de programas,
utilizándolas nuestros programas son más cortos, es más fácil
entenderlos y usualmente tienen un mejor desempeño debido en gran
parte a su menor tamaño.
Este tipo de interrupciones podemos separarlas en dos categorías: las
interrupciones del sistema operativo DOS y las interrupciones del BIOS.
La diferencia entre ambas es que las interrupciones del sistema operativo
son más fáciles de usar pero también son más lentas ya que estas
interrupciones hacen uso del BIOS para lograr su cometido, en cambio
las interrupciones del BIOS son mucho más rápidas pero tienen la
desventaja que, como son parte del hardware son muy específicas y
pueden variar dependiendo incluso de la marca del fabricante del
circuito.
La elección del tipo de interrupción a utilizar dependerá únicamente de
las características que le quiera dar a su programa: velocidad (utilizando
las del BIOS) o portabilidad (utilizando las del DOS).