COMPUTACION PARALELA 
GLORIA PATRICIA FLOREZ 
ANGIE PAOLA ANCHICO
COMPUTACION PARALELA 
La computación Paralela, es muy 
importante actualmente, al permitir 
mejorar la velocidad en la solución 
de grandes problemas, de modo 
que se mejora el rendimiento de 
computo.
La computación paralela es una forma de 
cómputo en la que muchas instrucciones se 
ejecutan simultáneamente, operando sobre el 
principio de que problemas grandes, a menudo 
se pueden dividir en unos más pequeños, que 
luego son resueltos simultáneamente en 
paralelo.
PARALELISMO 
 El paralelismo se ha empleado durante 
muchos años, sobre todo en la 
computación de altas prestaciones, 
pero el interés en ella ha crecido 
últimamente debido a las limitaciones 
físicas que impiden el aumento de la 
frecuencia. Como el consumo de 
energía y por consiguiente la 
generación de calor
TIPOS DE PARALELISMO 
Paralelismo a nivel de BIT 
Paralelismo a nivel de Instrucción 
Paralelismo de datos 
Paralelismo de tareas
PARALELISMO A NIVEL DE BIT 
 Es cuando se aumenta el tamaño de 
la palabra en la computadora esto 
reduce el número de instrucciones 
que el procesador debe ejecutar 
para realizar una operación en 
variables cuyos tamaños son 
mayores que la longitud de la 
palabra.
PARALELISMO A NIVEL DE 
INSTRUCCION 
 Es cuando un grupo de instrucciones 
que compone un programa son 
ejecutadas paralelamente sin cambiar el 
resultado final del programa.
PARALELISMO DE DATOS 
Es cuando se distribuyen los datos a 
través de diferentes nodos de 
computo para que los procesen en 
paralelo y las tareas que realizan son 
comunes y el resultado es uno solo.
PARALELISMO DE TAREAS 
 El paralelismo de tareas es la 
característica de un programa 
paralelo en la que «cálculos 
completamente diferentes se 
pueden realizar en cualquier 
conjunto igual o diferente de 
datos».
MEMORIA Y COMUNICACION 
La memoria principal en un 
ordenador en paralelo puede 
ser compartida—compartida 
entre todos los elementos de 
procesamiento en un 
único espacio de direcciones, o 
distribuida
La comunicación procesador-procesador y 
procesador-memoria se puede implementar en 
hardware de varias maneras: 
 a través de memoria compartida —ya sea 
multipuerto o multiplexado 
 un conmutador de barras cruzadas (crossbar 
switch) 
 un bus compartido o una red interconectada de 
una gran variedad 
de topologías como estrella, anillo, 
árbol, hipercubo, hipercubo grueso —un 
hipercubo con más de un procesador en un nodo.
CLASES DE COMPUTACION 
PARALELA 
Computación Multinúcleo 
Multiprocesamiento simetrico 
Computadoras paralelas 
especializadas
COMPUTACION MULTINUCLEO 
Un procesador multinúcleo es un 
procesador que incluye 
múltiples unidades de ejecución (núcleos) 
en el mismo chip. Los procesadores 
superescalares pueden ejecutar múltiples 
instrucciones por ciclo de un flujo de 
instrucciones (hilo).
MULTIPROCESAMIENTO 
SIMETRICO 
Un multiprocesador simétrico (SMP) 
es un sistema computacional con 
múltiples procesadores idénticos que 
comparten memoria y se conectan a 
través de un bus.
COMPUTADORAS PARALELAS 
ESPECIALIZADAS 
Dentro de la computación paralela, 
existen dispositivos paralelos 
especializados que generan interés. 
Aunque no son específicos para un 
dominio, tienden a ser aplicables sólo 
a unas pocas clases de problemas 
paralelos.
 El cómputo reconfigurable: es el uso de un arreglo de 
compuertas programables 
 El cómputo de propósito general en las unidades de 
procesamiento de gráficos (GPGPU) es una tendencia 
relativamente reciente en la investigación de ingeniería 
informática. 
 Se han diseñado varios circuitos integrados de 
aplicación específica (ASIC) para hacer frente a las 
aplicaciones paralelas. Debido a que un ASIC (por 
definición) es específico para una aplicación dada, 
puede ser completamente optimizado para esa 
aplicación. 
 Un procesador vectorial es un CPU o un sistema 
computacional que puede ejecutar la misma 
instrucción en grandes conjuntos de datos.
LENGUAJE DE PROGRAMACION 
EN PARALELO 
Han sido creados para la programación de 
computadores paralelos. Estos 
generalmente se pueden dividir en clases 
basadas en las suposiciones que se hacen 
sobre la arquitectura de memoria 
subyacente: compartida, distribuida, o 
compartida-distribuida.

Computacion paralela

  • 1.
    COMPUTACION PARALELA GLORIAPATRICIA FLOREZ ANGIE PAOLA ANCHICO
  • 2.
    COMPUTACION PARALELA Lacomputación Paralela, es muy importante actualmente, al permitir mejorar la velocidad en la solución de grandes problemas, de modo que se mejora el rendimiento de computo.
  • 3.
    La computación paralelaes una forma de cómputo en la que muchas instrucciones se ejecutan simultáneamente, operando sobre el principio de que problemas grandes, a menudo se pueden dividir en unos más pequeños, que luego son resueltos simultáneamente en paralelo.
  • 4.
    PARALELISMO  Elparalelismo se ha empleado durante muchos años, sobre todo en la computación de altas prestaciones, pero el interés en ella ha crecido últimamente debido a las limitaciones físicas que impiden el aumento de la frecuencia. Como el consumo de energía y por consiguiente la generación de calor
  • 5.
    TIPOS DE PARALELISMO Paralelismo a nivel de BIT Paralelismo a nivel de Instrucción Paralelismo de datos Paralelismo de tareas
  • 6.
    PARALELISMO A NIVELDE BIT  Es cuando se aumenta el tamaño de la palabra en la computadora esto reduce el número de instrucciones que el procesador debe ejecutar para realizar una operación en variables cuyos tamaños son mayores que la longitud de la palabra.
  • 7.
    PARALELISMO A NIVELDE INSTRUCCION  Es cuando un grupo de instrucciones que compone un programa son ejecutadas paralelamente sin cambiar el resultado final del programa.
  • 8.
    PARALELISMO DE DATOS Es cuando se distribuyen los datos a través de diferentes nodos de computo para que los procesen en paralelo y las tareas que realizan son comunes y el resultado es uno solo.
  • 9.
    PARALELISMO DE TAREAS  El paralelismo de tareas es la característica de un programa paralelo en la que «cálculos completamente diferentes se pueden realizar en cualquier conjunto igual o diferente de datos».
  • 10.
    MEMORIA Y COMUNICACION La memoria principal en un ordenador en paralelo puede ser compartida—compartida entre todos los elementos de procesamiento en un único espacio de direcciones, o distribuida
  • 11.
    La comunicación procesador-procesadory procesador-memoria se puede implementar en hardware de varias maneras:  a través de memoria compartida —ya sea multipuerto o multiplexado  un conmutador de barras cruzadas (crossbar switch)  un bus compartido o una red interconectada de una gran variedad de topologías como estrella, anillo, árbol, hipercubo, hipercubo grueso —un hipercubo con más de un procesador en un nodo.
  • 12.
    CLASES DE COMPUTACION PARALELA Computación Multinúcleo Multiprocesamiento simetrico Computadoras paralelas especializadas
  • 13.
    COMPUTACION MULTINUCLEO Unprocesador multinúcleo es un procesador que incluye múltiples unidades de ejecución (núcleos) en el mismo chip. Los procesadores superescalares pueden ejecutar múltiples instrucciones por ciclo de un flujo de instrucciones (hilo).
  • 14.
    MULTIPROCESAMIENTO SIMETRICO Unmultiprocesador simétrico (SMP) es un sistema computacional con múltiples procesadores idénticos que comparten memoria y se conectan a través de un bus.
  • 15.
    COMPUTADORAS PARALELAS ESPECIALIZADAS Dentro de la computación paralela, existen dispositivos paralelos especializados que generan interés. Aunque no son específicos para un dominio, tienden a ser aplicables sólo a unas pocas clases de problemas paralelos.
  • 16.
     El cómputoreconfigurable: es el uso de un arreglo de compuertas programables  El cómputo de propósito general en las unidades de procesamiento de gráficos (GPGPU) es una tendencia relativamente reciente en la investigación de ingeniería informática.  Se han diseñado varios circuitos integrados de aplicación específica (ASIC) para hacer frente a las aplicaciones paralelas. Debido a que un ASIC (por definición) es específico para una aplicación dada, puede ser completamente optimizado para esa aplicación.  Un procesador vectorial es un CPU o un sistema computacional que puede ejecutar la misma instrucción en grandes conjuntos de datos.
  • 17.
    LENGUAJE DE PROGRAMACION EN PARALELO Han sido creados para la programación de computadores paralelos. Estos generalmente se pueden dividir en clases basadas en las suposiciones que se hacen sobre la arquitectura de memoria subyacente: compartida, distribuida, o compartida-distribuida.