UNIVERSIDAD TECNICA PARTICULAR DE LOJA PRINCIPIOS DE DISEÑO DE ALGORITMOS PARALELOS INTEGRANTES: Elba  Encalada Margarita Nero “ La Universidad Católica de Loja” 3.1.1. Descomposición, tareas y dependencia.
Dividir el trabajo general en tareas pequeñas y más manejables. MULTIPROCESAMIENTO 19/01/10 DESCOMPOSICIÓN
Es la unidad mas pequeñas, que se va a ejecutar. Ejecutar varias tareas es la clave para reducir el tiempo que se necesita para resolver un problema. MULTIPROCESAMIENTO 19/01/10 TAREA
Algunas tareas necesitan datos producidos por otros trabajos. Se debe respetar un orden de ejecución. Grado de Concurrencia y Camino Crítico. MULTIPROCESAMIENTO 19/01/10 Task-dependency graph
Varias Tareas MULTIPROCESAMIENTO 19/01/10 EJEMPLO:  Multiplicación de Matriz -Vector Tomada del libro:  Introduction   to   Parallel  Computing
4 Tareas MULTIPROCESAMIENTO 19/01/10 EJEMPLO:  Multiplicación de Matriz -Vector Tomada del libro:  Introduction   to   Parallel  Computing
MULTIPROCESAMIENTO 19/01/10 EJEMPLO:  Consulta a una Base de Datos Tomada del libro:  Introduction   to   Parallel  Computing
MULTIPROCESAMIENTO 19/01/10 EJEMPLO:  Consulta a una Base de Datos Tomada del libro:  Introduction   to   Parallel  Computing
MULTIPROCESAMIENTO 19/01/10 EJEMPLO:  Consulta a una Base de Datos Tomada del libro:  Introduction   to   Parallel  Computing
REFERENCIAS Ananth Grama, Anshul Gupta, George Karypis, Vipin Kumar.  Introduction   to   Parallel  Computing. Second Edicion. Jorge I. Zuluaga. Curso de computacion distribuida, Introduccipon a la computacion paralela: http://urania.udea.edu.co/sites/jzuluaga/pages/distos-2009-1-usb.rs/files/distos-2009-1-usbwn3t/distos-presentacion-intro_prog_paralela-mapeo.pdf Juan Antonio Maestro. Diseño de Algoritmos paralelos: http://www.nebrija.es/~jmaestro/AT5128/3_Algoritmos.pdf 19/01/10 ASEGURAMIENTO DE LA CALIDAD

Exposicion A P

  • 1.
    UNIVERSIDAD TECNICA PARTICULARDE LOJA PRINCIPIOS DE DISEÑO DE ALGORITMOS PARALELOS INTEGRANTES: Elba Encalada Margarita Nero “ La Universidad Católica de Loja” 3.1.1. Descomposición, tareas y dependencia.
  • 2.
    Dividir el trabajogeneral en tareas pequeñas y más manejables. MULTIPROCESAMIENTO 19/01/10 DESCOMPOSICIÓN
  • 3.
    Es la unidadmas pequeñas, que se va a ejecutar. Ejecutar varias tareas es la clave para reducir el tiempo que se necesita para resolver un problema. MULTIPROCESAMIENTO 19/01/10 TAREA
  • 4.
    Algunas tareas necesitandatos producidos por otros trabajos. Se debe respetar un orden de ejecución. Grado de Concurrencia y Camino Crítico. MULTIPROCESAMIENTO 19/01/10 Task-dependency graph
  • 5.
    Varias Tareas MULTIPROCESAMIENTO19/01/10 EJEMPLO: Multiplicación de Matriz -Vector Tomada del libro: Introduction to Parallel Computing
  • 6.
    4 Tareas MULTIPROCESAMIENTO19/01/10 EJEMPLO: Multiplicación de Matriz -Vector Tomada del libro: Introduction to Parallel Computing
  • 7.
    MULTIPROCESAMIENTO 19/01/10 EJEMPLO: Consulta a una Base de Datos Tomada del libro: Introduction to Parallel Computing
  • 8.
    MULTIPROCESAMIENTO 19/01/10 EJEMPLO: Consulta a una Base de Datos Tomada del libro: Introduction to Parallel Computing
  • 9.
    MULTIPROCESAMIENTO 19/01/10 EJEMPLO: Consulta a una Base de Datos Tomada del libro: Introduction to Parallel Computing
  • 10.
    REFERENCIAS Ananth Grama,Anshul Gupta, George Karypis, Vipin Kumar. Introduction to Parallel Computing. Second Edicion. Jorge I. Zuluaga. Curso de computacion distribuida, Introduccipon a la computacion paralela: http://urania.udea.edu.co/sites/jzuluaga/pages/distos-2009-1-usb.rs/files/distos-2009-1-usbwn3t/distos-presentacion-intro_prog_paralela-mapeo.pdf Juan Antonio Maestro. Diseño de Algoritmos paralelos: http://www.nebrija.es/~jmaestro/AT5128/3_Algoritmos.pdf 19/01/10 ASEGURAMIENTO DE LA CALIDAD