Clase de tecnologia - Docente Conrado Tejada Ramirez
Caso TR2 - (tema 2).
1. Tema 2: La memoria
• Unai Corral Lop
•Noemí González Huerga
• Raul Villanueva Saiz
Curso: 2015-2016
2. Indice
• Licencia
• Jerarquía de la memoria.
• Memoria principal y secundaria.
• Diferencias entre las memorias principales.
• Características de la memoria secundaria.
• Tipos de memoria secundaria.
• Sistema de representación de la información:
- Sistema decimal.
- Sistema binario.
• Codificación (Concepto)
• Fuentes y Bibliografía.
• ASCII
•EBCDIC
•ISO/IEC 8859
• UNICODE
•UTF-8
•UTF-16
3. Licencia
• Esta obra esta bajo una Licencia Creative
Commons Reconocimiento-Compartirigual
4.0 España.
• Pinchamos en la imagen para más
información.
4. dirección, contenido, acceso,
tiempo de acceso, capacidad
y velocidad de transferencia
La memoria del ordenador es el
dispositivo que retiene, memoriza o
almacena datos informáticos durante
algún intervalo de tiempo. Es uno de
los componentes fundamentales de
la computadora, interconectada a la
unidad central de procesamiento (CPU)
y los dispositivos de entrada/salida.
5. CAPACIDAD DE LA MEMORIA
Registro del procesador: menor
capacidad (<1kb) y mayor velocidad (10
picosegundos).
Copias de seguridad: mayor capacidad
(xxTB) y menor velocidad (100s) .
Fuente: https://es.wikipedia.org/wiki/Jerarqu%C3%ADa_de_memoria
Fuente: http://www.teach-ict.com/gcse_new/computer%20systems/storage_units/miniweb/pg6.htm
Los distintos bancos de memoria de un
ordenador se organizan en niveles; desde la
memoria mas pequeña y rápida hasta la más
lenta y de mayor capacidad. Los niveles
conforman una estructura piramidal a la que
se denomina “Jerarquía de memoria” del
ordenador.
6. MEMORIA PRINCIPAL
• Memoria principal: es la memoria de
la computadora donde se almacenan
temporalmente tanto los datos como
los programas que la unidad central de
procesamiento (CPU) está procesando
o va a procesar en un determinado
momento.
• En algunas ocasiones suele llamarse
“memoria interna” porque a diferencia
de los dispositivos de memoria
secundaria, la MP no puede extraerse
tan fácilmente.
Fuente: https://es.wikipedia.org/wiki/Memoria_principal
7. MEMORIA SECUNDARIA
• Memoria secundaria: también conocida como almacenamiento secundario,
es el conjunto de dispositivos y soportes de almacenamiento de datos que
conforman el subsistema de memoria de la computadora, junto con la
memoria primaria principal.
• La memoria secundaria es un tipo de almacenamiento masivo y permanente
(no volátil) con mayor capacidad para almacenar datos e información que la
memoria primaria que es volátil, aunque la memoria secundaria es de menor
velocidad.
Fuente: https://sites.google.com/site/martitanoapeque/1-hardware-definicion/memoria/1-3-2-memoria-secundaria
8. DIFERENCIAS ENTRE LAS MEMORIAS
PRINCIPALES
Memoria RAM •Permite almacenar datos temporalmente
•Rapidez para acceder a la información
•Carga el sistema operativo y después los demás
programas
Memoria ROM • Permite almacenar datos de forma indefinida
aunque se corte el fluido eléctrico
• Almacena la BIOS (programa de arranque y
datos de la configuración del sistema)
Memoria CACHE •Almacena datos necesarios para operaciones
inmediatas
9. Características de memoria secundaria:
• Gran capacidad de almacenamiento.
• Conserva información a falta de alimentación
eléctrica.
• Bajas velocidades de transferencia de información.
• Mismo formato de almacenamiento que en
memoria prima.
• Siempre es independiente de la CPU y de la
memoria primaria.
10. TIPOS DE MEMORIA
SECUNDARIA:
• Se clasifican en base a la
tecnología utilizada para leer y escribir la
información en el volumen:
• Magnética (disquete, disco duro, cinta
magnética).
• Óptica (CD, DVD, BD).
• Magneto-óptica (Disco Zip, Floptical, Minidisc).
• De semiconductor o de estado sólido o memoria
Flash (pendrive, tarjetas de memoria: SD, mini
SD, micro SD,…).
11. SISTEMAS DE REPRESENTACIÓN DE LA
INFORMACIÓN
• SISTEMA DECIMAL: es un sistema de numeración
posicional en el que las cantidades se representan
utilizando como base aritmética las potencias del
número diez.
12. SISTEMAS DE REPRESENTACIÓN DE LA
INFORMACIÓN
• SISTEMA BINARIO: es un sistema de numeración en
el que los números se representan utilizando
solamente dos cifras: cero y uno (0 y 1).
Fuente: http://www.areatecnologia.com/sistema-
binario.htm
Fuente:
https://es.wikipedia.org/wiki/Sistema_binario#Decimal_a_b
inario
13. Codificación: Concepto
• La codificación de caracteres es el método
que permite convertir un carácter de un
lenguaje natural (como el de un alfabeto)
en un símbolo de otro sistema de
representación, como un número o una
secuencia de pulsos eléctricos en un
sistema electrónico, aplicando normas o
reglas de codificación.
14. Codificación de la información
Un ordenador maneja información de todo tipo. Nuestra perspectiva humana nos permite
rápidamente diferenciar lo que son números, de lo que es texto, imagen,… Sin embargo, el
ordenador sólo es capaz de representar y manejar números en forma binaria. Así que, los
ordenadores necesitan codificar la información del mundo real al equivalente binario.
Desde el inicio de la informática la codificación ha sido un problema, debido a la falta de
acuerdos en su representación. En la actualidad existen estándares.
Fundamentalmente la información que un ordenador maneja son números, texto, e
información multimedia (imagen, sonido, vídeo,…):
• Por ejemplo en el caso del texto, lo que se hace es codificar cada carácter mediante una
serie de números binarios. El código ASCII ha sido durante mucho tiempo el más utilizado.
• Por ejemplo en el caso, de las imágenes, una forma básica de codificarlas al binario es la
que graba cada píxel (cada punto distinguible en la imagen) mediante tres bytes: el
primero graba el nivel de rojo, el segundo el nivel de azul y el tercero el nivel de verde. Y
así por cada píxel…
15. ASCII
• ASCII (acrónimo inglésde American Standard Code for
Information Interchange — Código Estándar
Estadounidense para el Intercambio de Información).
• Es un código de caracteres basado en el alfabeto latino,
tal como se usa en inglés moderno.
• Fue creado en 1963 por el Comité Estadounidense de
Estándares evolución de la telegrafía.
16. ASCII
• El código ASCII utiliza 7 bits para representar los caracteres,
aunque inicialmente empleaba un bit adicional (bit de
paridad) que se usaba para detectar errores en la
transmisión.
• ASCII fue publicado como estándar por primera vez en 1967
y fue actualizado por última vez en 1986.
• En la actualidad define códigos para 32 caracteres no
imprimibles más otros 95 caracteres imprimibles que les
siguen en la numeración.
18. EBCDIC
• EBCDIC (Extended Binary Coded Decimal Interchange Code)
es un código estándar de 8 bits.
• Representa caracteres alfanuméricos, controles y signos de
puntuación.
• Define un total de 256 caracteres.
• El siguiente es el código CCSID 500, una variante de EBCDIC.
20. BCD
• Binary-Coded Decimal (BCD) o Decimal
codificado en binario es un estándar
para representar números decimales en
el sistema binario.
• Cada dígito decimal es codificado con
una secuencia de 4 bits.
• Se pueden realizar operaciones
aritméticas sin perder en los cálculos la
precisión ni tener inexactitudes .
Fuente:
https://es.wikipedia.org/wiki/Decimal_codificado_en_binario
21. ISO/IEC 8859
• ISO/IEC 8859 es un conjunto ISO y la IEC estándar de 8 bits
para codificaciones de caracteres para su uso en
ordenadores.
• La norma se divide en los números, publicado por separado,
tales como ISO/IEC 8859-1, ISO/IEC 8859-2, etc.
• En la actualidad hay 15 partes a partir de 2006, sin contar el
abandonado ISO/ IEC 8859-12 estándar.
URL: https://es.wikipedia.org/wiki/ISO/IEC_8859
22. UNICODE
• Unicode es un estándar de codificación de caracteres diseñado
para facilitar el tratamiento informático, transmisión y
visualización de textos de múltiples lenguajes y disciplinas
técnicas, además de textos clásicos de lenguas muertas.
• Trata todos los caracteres de forma equivalente por lo que puedes
introducirlos en un mismo texto sin que nos de error.
• Es usado por : Microsoft, Apple, Adobe, IBM, Oracle, SAP, Google o
Yahoo, instituciones como la Universidad de Berkeley entre otros.
23. UTF-8/16
UTF-8
• 8-bit Unicode
Transformation Format.
• Es un formato de
codificación de caracteres
Unicode e ISO 10646
utilizando símbolos de
longitud variable.
UTF-16
• UCS Transformation Format
for 16 Planes of Group 00.
• Es una forma de
codificación de caracteres
UCS y Unicode utilizando
símbolos de longitud
variable.
24. UTF-8/16
UTF-8 (Características)
• Es capaz de representar cualquier
carácter Unicode.
• Usa símbolos de longitud variable (de 1
a 4 bytes por carácter Unicode).
• Incluye la especificación US-ASCII de 7
bits: Cualquier mensaje ASCII se
representa sin cambios.
• Es posible determinar el inicio de cada
símbolo sin reiniciar la lectura desde el
principio de la comunicación.
• No superposición.
UTF-16 (Características)
• Es capaz de representar cualquier
carácter Unicode.
• Utiliza símbolos de longitud variable: 1 o
2 palabras de 16 bits por carácter
Unicode (2 o 4 bytes). La unidad de
información es la palabra de 16 bits.
• Está optimizado para representar
caracteres en el rango U+0000 a U+FFFF.
• No superposición: Los símbolos de 1
palabra (16 bits) utilizan un subconjunto
de valores que no puede utilizarse en
símbolos de 2 palabras (32 bits).