SlideShare una empresa de Scribd logo
1 de 10
Universidad de Sonora Arquitectura de Computadoras 1 PROGRAMA CION PARALELA Y DISTRIBUIDA PRESENTA: JESUS BECERRIL PACHECO MODELOS DE ACCESO A LA MEMORIA UniformMemory Access (UMA,NUMA,COMA,NORMA)
UniformMemory Access (UMA)  En sistemas con uniformmemoryaccess (acceso a memoria uniforme), cada procesador tiene acceso directo a una sola memoria compartida. Todas las ubicaciones de la memoria son equidistantes (en cuanto a tiempos de acceso) a cada procesador. La mayoría de los sistemas UMA incorpora caché para eliminar las disputas de la memoria pero este mecanismo no se ve desde las aplicaciones.
Cache-onlyMemoryArchitecture (COMA)  	Sistemas con cache onlymemoryaccess (acceso a memoria solo en caches) no tiene memoria compartida física, pero el cache solo constituye la memoria de las máquinas. Se provee un solo espacio físico de direcciones pero los tiempos de acceso varían dependientemente si la ubicación de la memoria requerida está en el caché local o en uno remoto. El software de aplicación ignoraría la arquitectura del sistema ya que la máquina se comporta en forma muy parecida a una máquina UMA con caché.
Non uniformMemory Access (NUMA)  Sistemas con nonuniformmemoryaccess (acceso a memoria no uniforme) tienen una memoria física compartida distribuida . Cada partición de esta memoria se ata directamente a un nodo pero se puede acceder a ella por procesadores en otro nodos via la red de interconexión. Así, los tiempos de acceso a la memoria difieren dependiendo de si la ubicación requerida es local al nodo o remota a este. Este nivel de complejidad agregado puede ser escondido del software de aplicación pero hacer esto lleva a un desempeño suboptimo. Para hacer mejor uso del hardware, el programador debe tomar la arquitectura en consideración. El cache se usa entre procesadores y memoria local asi como entre nodos. Máquinas con caché coherente a nivel del hardware se llaman ccNUMA.
Los rasgos de UMA 	UMA (UniformMemory Access) La memoria física es compartida uniformemente por todo procesadores. Todos los procesadores tienen tiempo de acceso igual a la memoria. Se llama también sistema acoplado hermético debido al alto grado de compartir recursos. La interconexión del sistema toma la forma de un bús común, un crossbarswitch. El modelo UMA es satisfactorio para aplicaciones de propósitos generales y tiempo compartido para múltiples usuarios.
Los rasgos de NUMA y pasos de mensajes. La memoria compartida es fisicamente distribuida a todos los procesadores, llamada memorias locales. La colección de todas las memorias locales forma un espacio de la direcciones global accesible por todo procesadores. Es más lento acceder a la memoria remota atada a otros procesadores debido al retraso agregado por la red de interconexión. Hay dos maneras de comunicación de datos entre procesadores. Se pueden direccionar memorias separadas como un espacio de direcciones compartido lógicamente, se llama DSM (DistributedSharedMemory: Memoria Distribuida Compartida) o NUMA (NonUniformMemory Access), ya que el tiempo de acceso depende de la ubicación de memoria, la misma dirección física en dos procesadores refiere a la misma localidad en memoria.
	Comparación de costo y escalabilidad En sistemas UMA, cada procesador conecta a memoria compartida via un bus de sistema o crossbar. Se puede expandir de 2 a 32 procesadores. Debido al ancho de banda del bus y el ancho de banda de la memoria al procesador unido se restringe la escalabilidad. Acerca del costo, debido a que la expansión esta limitada por el tamaño, el costo es relativamente más alto.  En cambio, en sistemas de paso de mensajes (NUMA), cada procesador tiene su propia memoria, cache y E/S. No como UMA, se puede extender fácilmente y ninguna restricción de máquina, así el costo es relativamente más bajo.
      Comparación de  NUMA y COMA En el actual mundo de arquitecturas de memoria distribuida compartida, hay dos arquitecturas dominantes: El más popular es un diseño llamado Cache-Coherent Non-UniformMemory Access ( "ccNUMA"). El otro diseño emergente es el Cache OnlyMemoryArchitecture ( "COMA"). Asi como UMA difiere de estas ya que tiene una memoria uniforme para todos los procesadores, ccNUMA y COMA se diferencian por la forma de uso del caché (ya que las dos usan memoria distribuida). En una máquina ccNUMA, la dirección (física) en un bus de memoria de un nodo de proceso se usa para determinar la ubicación de memoria del nodo hogar de un dato particular. La jerarquía de cache en cada nodo de proceso se construye para reproducir y mantener copias de los datos de no sólo la memoria local, sino también de la memoria de nodos remotos. La coherencia del hardware y mecanismo de directorios sirven para mantener éstas copias de cachés consistentes. Mientras el caché ayuda a reducir la latencia de acceso a una memoria remota, el total disponible es restringido al tamaño del caché en cada nodo. Además, si los datos estan ubicados en un nodo remoto entonces hay un causa para emigrarlos localmente. De cualquier modo, tal migración es una operación costosa envuelviendosincronisación del sistema operativo entre todos los nodos compartidos.
	En una máquina COMA, hardware adicional incluyendo etiquetas (tags) y estado de memoria se agragan a la DRAM de cada nodo de proceso para convertirlo en un tipo de caché que llamamos memoria de atracción. Este hardware adicional habilita la desasociación de la ubicación actual de los datos en la máquina de las direcciones físicas producidas por los procesadores. Haciendo esto habilita los datos para ser reproducidos y emigrados automáticamente según demanda alrededor de la máquina, creando una plataforma mucho más flexible para las aplicaciones. En resumen, una máquina COMA provee una plataforma muy flexible para una procesar una aplicación, pero sobre un gasto en memoria adicional de sobreuso del sistema y quizás más importantemente, una implementación del controlador de la coherencia de la atracción de la memoria complejo. Por contraste, una arquitectura ccNUMA es más fácil de implementar, (posiblemente porque ya esta implementada), pero da fuerza a ser más firme en cuanto al grado de replicación de los datos que una aplicación usaría, y el significante costo más alto de ubicar los datos incorrectamente y la migración (si es posible por la aplicación).

Más contenido relacionado

La actualidad más candente

Arquitectura Multiprocesadores
Arquitectura Multiprocesadores Arquitectura Multiprocesadores
Arquitectura Multiprocesadores
JUANR1022
 
Buses: tipos y arquitectura
Buses: tipos y arquitecturaBuses: tipos y arquitectura
Buses: tipos y arquitectura
dennissemayon0
 
Manejo de los procesos en los sistemas operativos
Manejo de los procesos en los sistemas operativosManejo de los procesos en los sistemas operativos
Manejo de los procesos en los sistemas operativos
Carolina Cols
 
Informe de sistemas operativos
Informe de sistemas operativosInforme de sistemas operativos
Informe de sistemas operativos
Jessy Simba
 
Unidades funcionales del procesador
Unidades funcionales del procesadorUnidades funcionales del procesador
Unidades funcionales del procesador
ANDREA
 
GESTION DE PROCESOS Sistemas Operativos
GESTION DE PROCESOS Sistemas OperativosGESTION DE PROCESOS Sistemas Operativos
GESTION DE PROCESOS Sistemas Operativos
adriel91
 

La actualidad más candente (20)

Tecnicas de Administracion de Memoria
Tecnicas de Administracion de MemoriaTecnicas de Administracion de Memoria
Tecnicas de Administracion de Memoria
 
PAGINACION Y SEGMENTACION DE MEMORIA
PAGINACION Y SEGMENTACION DE MEMORIAPAGINACION Y SEGMENTACION DE MEMORIA
PAGINACION Y SEGMENTACION DE MEMORIA
 
Sistemas Operativos Gestion de procesos
Sistemas Operativos Gestion de procesosSistemas Operativos Gestion de procesos
Sistemas Operativos Gestion de procesos
 
Administración de Memoria
Administración de MemoriaAdministración de Memoria
Administración de Memoria
 
Arquitectura Multiprocesadores
Arquitectura Multiprocesadores Arquitectura Multiprocesadores
Arquitectura Multiprocesadores
 
Buses: tipos y arquitectura
Buses: tipos y arquitecturaBuses: tipos y arquitectura
Buses: tipos y arquitectura
 
Sistemas operativos distribuidos
Sistemas operativos distribuidosSistemas operativos distribuidos
Sistemas operativos distribuidos
 
Procesos en windows
Procesos en windowsProcesos en windows
Procesos en windows
 
Tema 4: Procesamiento paralelo.
Tema 4: Procesamiento paralelo.Tema 4: Procesamiento paralelo.
Tema 4: Procesamiento paralelo.
 
Manejo de los procesos en los sistemas operativos
Manejo de los procesos en los sistemas operativosManejo de los procesos en los sistemas operativos
Manejo de los procesos en los sistemas operativos
 
Gestion de memoria en Linux
Gestion de memoria en LinuxGestion de memoria en Linux
Gestion de memoria en Linux
 
Informe de sistemas operativos
Informe de sistemas operativosInforme de sistemas operativos
Informe de sistemas operativos
 
Estructura de un sistema operativo
Estructura de un sistema operativoEstructura de un sistema operativo
Estructura de un sistema operativo
 
Administración de Memoria en UNIX
Administración de Memoria en UNIXAdministración de Memoria en UNIX
Administración de Memoria en UNIX
 
ADMINISTRACION DE MEMORIA
ADMINISTRACION DE MEMORIAADMINISTRACION DE MEMORIA
ADMINISTRACION DE MEMORIA
 
Arquitecturas de Bases de Datos Distribuidas
Arquitecturas de Bases de Datos DistribuidasArquitecturas de Bases de Datos Distribuidas
Arquitecturas de Bases de Datos Distribuidas
 
Unidades funcionales del procesador
Unidades funcionales del procesadorUnidades funcionales del procesador
Unidades funcionales del procesador
 
Sistemas operativos por estructura
Sistemas operativos por estructuraSistemas operativos por estructura
Sistemas operativos por estructura
 
Gestión de entrada salida
Gestión de entrada salida Gestión de entrada salida
Gestión de entrada salida
 
GESTION DE PROCESOS Sistemas Operativos
GESTION DE PROCESOS Sistemas OperativosGESTION DE PROCESOS Sistemas Operativos
GESTION DE PROCESOS Sistemas Operativos
 

Destacado (6)

Clasificación de flynn (arquitectura del computador)
Clasificación de flynn (arquitectura del computador)Clasificación de flynn (arquitectura del computador)
Clasificación de flynn (arquitectura del computador)
 
Arquitectura Norma A.140
Arquitectura   Norma A.140Arquitectura   Norma A.140
Arquitectura Norma A.140
 
Respuestas al examen de autoevaluación
Respuestas al examen de autoevaluaciónRespuestas al examen de autoevaluación
Respuestas al examen de autoevaluación
 
Arqutecturas harvrd, von newman y risc
Arqutecturas harvrd, von newman y riscArqutecturas harvrd, von newman y risc
Arqutecturas harvrd, von newman y risc
 
Arquitecturas risc y cisc
Arquitecturas risc y ciscArquitecturas risc y cisc
Arquitecturas risc y cisc
 
Gestion de Memoria
Gestion de MemoriaGestion de Memoria
Gestion de Memoria
 

Similar a Modelos de acceso a la memoria(uma,numa,coma,norma)

Arquitectura del sistema operativo windows
Arquitectura del sistema operativo windowsArquitectura del sistema operativo windows
Arquitectura del sistema operativo windows
Alexito Pico
 
Arquitecturas del harvard y von noumann edson
Arquitecturas del harvard y von noumann edsonArquitecturas del harvard y von noumann edson
Arquitecturas del harvard y von noumann edson
edsonbeltran03
 
Memoria cache
Memoria cacheMemoria cache
Memoria cache
kenia2010
 
Sistemas Operativos
Sistemas OperativosSistemas Operativos
Sistemas Operativos
Jammil Ramos
 
Pereirogómez,daniel4
Pereirogómez,daniel4Pereirogómez,daniel4
Pereirogómez,daniel4
danirume
 

Similar a Modelos de acceso a la memoria(uma,numa,coma,norma) (20)

Unidad VI
Unidad VIUnidad VI
Unidad VI
 
Documental de Arquitecturas Avanzadas (Computación)
Documental de Arquitecturas Avanzadas (Computación)Documental de Arquitecturas Avanzadas (Computación)
Documental de Arquitecturas Avanzadas (Computación)
 
Programación Paralela - Conceptos y diseño de sistemas distribuidos
Programación Paralela - Conceptos y diseño de sistemas distribuidosProgramación Paralela - Conceptos y diseño de sistemas distribuidos
Programación Paralela - Conceptos y diseño de sistemas distribuidos
 
Arquitecturas de memoria paralela.pptx
Arquitecturas de memoria paralela.pptxArquitecturas de memoria paralela.pptx
Arquitecturas de memoria paralela.pptx
 
Tema 7.3
Tema 7.3Tema 7.3
Tema 7.3
 
Arquitectura del sistema operativo windows
Arquitectura del sistema operativo windowsArquitectura del sistema operativo windows
Arquitectura del sistema operativo windows
 
Arquitecturas del harvard y von noumann edson
Arquitecturas del harvard y von noumann edsonArquitecturas del harvard y von noumann edson
Arquitecturas del harvard y von noumann edson
 
Arquitecturas de computo
Arquitecturas de computoArquitecturas de computo
Arquitecturas de computo
 
Memoria cache
Memoria cacheMemoria cache
Memoria cache
 
memoria cache
memoria cachememoria cache
memoria cache
 
Gerarquia de memoria
Gerarquia de memoriaGerarquia de memoria
Gerarquia de memoria
 
Gestion De Memoria
Gestion De MemoriaGestion De Memoria
Gestion De Memoria
 
Sistemas Operativos
Sistemas OperativosSistemas Operativos
Sistemas Operativos
 
Capitulo3
Capitulo3Capitulo3
Capitulo3
 
Conceptos de software
Conceptos de softwareConceptos de software
Conceptos de software
 
Arquitectura de computadoras
Arquitectura de computadorasArquitectura de computadoras
Arquitectura de computadoras
 
Pereirogómez,daniel4
Pereirogómez,daniel4Pereirogómez,daniel4
Pereirogómez,daniel4
 
Tipos de memoria
Tipos de memoriaTipos de memoria
Tipos de memoria
 
Tipos de memoria
Tipos de memoriaTipos de memoria
Tipos de memoria
 
Amoeba
AmoebaAmoeba
Amoeba
 

Modelos de acceso a la memoria(uma,numa,coma,norma)

  • 1. Universidad de Sonora Arquitectura de Computadoras 1 PROGRAMA CION PARALELA Y DISTRIBUIDA PRESENTA: JESUS BECERRIL PACHECO MODELOS DE ACCESO A LA MEMORIA UniformMemory Access (UMA,NUMA,COMA,NORMA)
  • 2. UniformMemory Access (UMA) En sistemas con uniformmemoryaccess (acceso a memoria uniforme), cada procesador tiene acceso directo a una sola memoria compartida. Todas las ubicaciones de la memoria son equidistantes (en cuanto a tiempos de acceso) a cada procesador. La mayoría de los sistemas UMA incorpora caché para eliminar las disputas de la memoria pero este mecanismo no se ve desde las aplicaciones.
  • 3. Cache-onlyMemoryArchitecture (COMA) Sistemas con cache onlymemoryaccess (acceso a memoria solo en caches) no tiene memoria compartida física, pero el cache solo constituye la memoria de las máquinas. Se provee un solo espacio físico de direcciones pero los tiempos de acceso varían dependientemente si la ubicación de la memoria requerida está en el caché local o en uno remoto. El software de aplicación ignoraría la arquitectura del sistema ya que la máquina se comporta en forma muy parecida a una máquina UMA con caché.
  • 4. Non uniformMemory Access (NUMA) Sistemas con nonuniformmemoryaccess (acceso a memoria no uniforme) tienen una memoria física compartida distribuida . Cada partición de esta memoria se ata directamente a un nodo pero se puede acceder a ella por procesadores en otro nodos via la red de interconexión. Así, los tiempos de acceso a la memoria difieren dependiendo de si la ubicación requerida es local al nodo o remota a este. Este nivel de complejidad agregado puede ser escondido del software de aplicación pero hacer esto lleva a un desempeño suboptimo. Para hacer mejor uso del hardware, el programador debe tomar la arquitectura en consideración. El cache se usa entre procesadores y memoria local asi como entre nodos. Máquinas con caché coherente a nivel del hardware se llaman ccNUMA.
  • 5. Los rasgos de UMA UMA (UniformMemory Access) La memoria física es compartida uniformemente por todo procesadores. Todos los procesadores tienen tiempo de acceso igual a la memoria. Se llama también sistema acoplado hermético debido al alto grado de compartir recursos. La interconexión del sistema toma la forma de un bús común, un crossbarswitch. El modelo UMA es satisfactorio para aplicaciones de propósitos generales y tiempo compartido para múltiples usuarios.
  • 6. Los rasgos de NUMA y pasos de mensajes. La memoria compartida es fisicamente distribuida a todos los procesadores, llamada memorias locales. La colección de todas las memorias locales forma un espacio de la direcciones global accesible por todo procesadores. Es más lento acceder a la memoria remota atada a otros procesadores debido al retraso agregado por la red de interconexión. Hay dos maneras de comunicación de datos entre procesadores. Se pueden direccionar memorias separadas como un espacio de direcciones compartido lógicamente, se llama DSM (DistributedSharedMemory: Memoria Distribuida Compartida) o NUMA (NonUniformMemory Access), ya que el tiempo de acceso depende de la ubicación de memoria, la misma dirección física en dos procesadores refiere a la misma localidad en memoria.
  • 7. Comparación de costo y escalabilidad En sistemas UMA, cada procesador conecta a memoria compartida via un bus de sistema o crossbar. Se puede expandir de 2 a 32 procesadores. Debido al ancho de banda del bus y el ancho de banda de la memoria al procesador unido se restringe la escalabilidad. Acerca del costo, debido a que la expansión esta limitada por el tamaño, el costo es relativamente más alto. En cambio, en sistemas de paso de mensajes (NUMA), cada procesador tiene su propia memoria, cache y E/S. No como UMA, se puede extender fácilmente y ninguna restricción de máquina, así el costo es relativamente más bajo.
  • 8. Comparación de NUMA y COMA En el actual mundo de arquitecturas de memoria distribuida compartida, hay dos arquitecturas dominantes: El más popular es un diseño llamado Cache-Coherent Non-UniformMemory Access ( "ccNUMA"). El otro diseño emergente es el Cache OnlyMemoryArchitecture ( "COMA"). Asi como UMA difiere de estas ya que tiene una memoria uniforme para todos los procesadores, ccNUMA y COMA se diferencian por la forma de uso del caché (ya que las dos usan memoria distribuida). En una máquina ccNUMA, la dirección (física) en un bus de memoria de un nodo de proceso se usa para determinar la ubicación de memoria del nodo hogar de un dato particular. La jerarquía de cache en cada nodo de proceso se construye para reproducir y mantener copias de los datos de no sólo la memoria local, sino también de la memoria de nodos remotos. La coherencia del hardware y mecanismo de directorios sirven para mantener éstas copias de cachés consistentes. Mientras el caché ayuda a reducir la latencia de acceso a una memoria remota, el total disponible es restringido al tamaño del caché en cada nodo. Además, si los datos estan ubicados en un nodo remoto entonces hay un causa para emigrarlos localmente. De cualquier modo, tal migración es una operación costosa envuelviendosincronisación del sistema operativo entre todos los nodos compartidos.
  • 9.
  • 10. En una máquina COMA, hardware adicional incluyendo etiquetas (tags) y estado de memoria se agragan a la DRAM de cada nodo de proceso para convertirlo en un tipo de caché que llamamos memoria de atracción. Este hardware adicional habilita la desasociación de la ubicación actual de los datos en la máquina de las direcciones físicas producidas por los procesadores. Haciendo esto habilita los datos para ser reproducidos y emigrados automáticamente según demanda alrededor de la máquina, creando una plataforma mucho más flexible para las aplicaciones. En resumen, una máquina COMA provee una plataforma muy flexible para una procesar una aplicación, pero sobre un gasto en memoria adicional de sobreuso del sistema y quizás más importantemente, una implementación del controlador de la coherencia de la atracción de la memoria complejo. Por contraste, una arquitectura ccNUMA es más fácil de implementar, (posiblemente porque ya esta implementada), pero da fuerza a ser más firme en cuanto al grado de replicación de los datos que una aplicación usaría, y el significante costo más alto de ubicar los datos incorrectamente y la migración (si es posible por la aplicación).