El documento describe diferentes unidades de medida de almacenamiento como el bit, el byte y la palabra. Explica que un bit representa un valor binario de 0 o 1, un byte es una secuencia de 8 bits, y una palabra es una secuencia de bits que se manejan como un conjunto por la máquina y su tamaño depende de la arquitectura. También cubre códigos de caracteres como ASCII y EBCDIC, formas de representar números con signo, y tipos de errores en la manipulación de datos numéricos.
2. DISPOSITIVOS Y UNIDADES DE MEDIDA DE ALMACENAMIENTO: BIT, BYTE
Y PALABRA.
BIT
Un bit es una señal electrónica que puede estar encendida (1) o apagada (0). Es
la unidad más pequeña de información que utiliza un ordenador. El funcionamiento
es el siguiente: El circuito electrónico en los ordenadores detecta la diferencia
entre dos estados (corriente alta y corriente baja) y representa esos dos estados
como uno de dos números, 1 o 0. Estos básicos, alta/baja, ambos/o, si/no
unidades de información se llaman bits.
El término bit deriva de la frase dígito binario (en inglés binary digit).Con él,
podemos representar dos valores cuales quiera, como verdadero o falso, abierto o
cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc.
BYTE
Byte proviene de bite (en inglés "mordisco"), como la cantidad más pequeña de
datos que un ordenador podía "morder" a la vez. El cambio de letra no solo redujo
la posibilidad de confundirlo con bit, sino que también era consistente con la
afición de los primeros científicos en computación en crear palabras y cambiar
letras Sin embargo, en los años 1960, en el Departamento de Educación de IBM
del Reino Unido se enseñaba que un bit era un Binary digIT y un byte era
un BinarY TuplE. Un byte también se conocía como "un byte de 8 bits", reforzando
la noción de que era una tupla de n bits y que se permitían otros tamaños. Es una
secuencia contigua de bits binarios en un flujo de datos serie, como en
comunicaciones por módem o satélite, o desde un cabezal de disco duro, que es
la unidad de datos más pequeña con significado.El término byte fue acuñado por
Werner Buchholz en 1957 durante las primeras fases de diseño del IBM 7030
Stretch. Originalmente fue definido en instrucciones de 4 bits, permitiendo desde
uno hasta dieciséis bits en un byte (el diseño de producción redujo este hasta
campos de 3 bits, permitiendo desde uno a ocho bits en un byte). Los equipos
típicos de E/S de este periodo utilizaban unidades de seis bits. Un tamaño fijo de
byte de 8 bits se adoptó posteriormente y se promulgó como un estándar por
el IBM S/360. Es por ello que en este caso tenemos al Byte como la unidad de
almacenamiento, siendo ésta la mínima expresión de esto, aplicado no solo para
los medios de Almacenamiento Permanente (como son los Discos Duros, Discos
Ópticos o Memorias Flash) sino también para medir la capacidad de una Memoria
RAM.
3. En el contexto de la informática, una palabra es una cadena finita de bits que son
manejados como un conjunto por la máquina. El tamaño o longitud de una palabra
hace referencia al número de bits contenidos en ella, y es un aspecto muy
importante al momento de diseñar una arquitectura de computadores.
PALABRA
El tamaño de una palabra se refleja en muchos aspectos de la estructura y las
operaciones de las computadoras. La mayoría de los registros en un ordenador
normalmente tienen el tamaño de la palabra. El valor numérico típico manipulado
por un ordenador es probablemente el tamaño de palabra. La cantidad de datos
transferidos entre la CPU del ordenador y el sistema de memoria a menudo es
más de una palabra. Una dirección utilizada para designar una localización de
memoria a menudo ocupa una palabra.
Los ordenadores modernos normalmente tienen un tamaño de palabra de 16, 32 ó
64 bits.
Dependiendo de cómo se organiza un ordenador, las unidades de tamaño de
palabra se pueden utilizar para:
NÚMEROS ENTEROS: Los contenedores de valores
numéricos enteros pueden estar disponibles en varios tamaños diferentes,
pero uno de los tamaños disponibles casi siempre será la palabra. Los
otros tamaños, suelen ser múltiplos o fracciones del tamaño de palabra.
Los tamaños más pequeños normalmente se utilizan sólo por eficiencia en
la utilización de memoria, cuando se cargan en el procesador, sus valores
normalmente son mayores, contenedores de tamaño palabra.
NÚMEROS EN COMA FLOTANTE: Los contenedores para valores
numéricos en coma flotante son típicamente una palabra o un múltiplo de
una palabra.
DIRECCIONES: Los contenedores para direcciones de memoria tienen que
ser capaces de expresar el rango necesario de valores, pero no
excesivamente grandes. A menudo el tamaño utilizado es el de la palabra
pero puede ser un múltiplo o una fracción.
REGISTROS: Los registros son diseñados con un tamaño apropiado para
el tipo de dato que almacenan, p.ej. enteros, números en coma flotante o
direcciones. Muchas arquitecturas de computadores utilizan registros de
"propósito general" que pueden albergar varios tipos de datos, estos
registros se dimensionan para permitir los más grandes de estos tipos y el
tamaño típico es el tamaño de palabra de la arquitectura.
4. TRANSFERENCIA MEMORIA-PROCESADOR: Cuando el procesador lee
del subsistema de memoria a un registro o escribe el valor de un registro en
memoria, la cantidad de datos transferidos es a menudo una palabra. En
los subsistemas de memoria simples, las palabras son transferidas sobre
el bus de datos de memoria, que típicamente tiene un ancho de una
palabra o media palabra. En los subsistemas de memoria que
utilizan caché, la transferencia de tamaño palabra se produce entre el
procesador y la caché de nivel uno, en los niveles más bajos de la jerarquía
de memoria las grandes transferencias (con múltiplos de la longitud de
palabra) son normalmente utilizadas.
RESOLUCIÓN DE UNIDADES DE DIRECCIÓN: Es una arquitectura dada,
los sucesivos valores de direcciones designan sucesivas unidades de
memoria. En muchos ordenadores, la unidad puede ser un carácter o una
palabra (algunos han utilizado una resolución de bit). Si la unidad es una
palabra, entonces se puede acceder a una gran suma de memoria
utilizando una dirección de un tamaño dado. Por otra parte, si la unidad es
un byte, se pueden direccionar caracteres individuales (p.ej. seleccionados
durante la operación de memoria).
INSTRUCCIONES: Las instrucciones máquina normalmente son fracciones
o múltiplos de la longitud de palabra de la arquitectura. Esta es una
elección natural ya que las instrucciones y los datos normalmente
comparten el mismo subsistema de memoria.
Representación de datos tipo texto (códigos ASCII y EBCDIC)
La comunicación de datos del ordenador funciona mediante la utilización de un
Código Binario que comprende la utilización de ceros y unos, que representan
nada más y nada menos que la transmisión o no-transmisión de impulsos
eléctricos, permitiendo entonces la comunicación entre los distintos dispositivos
electrónicos del Circuito Electrónico Cerrado que es el equipo.Esta comunicación
es interpretada por la Unidad Central de Procesamiento que se encarga de recibir
estos Datos Aislados que se envían y reciben, y poder reordenarlos, organizarlos y
enviarlos hacia otros dispositivos en forma de Información, que pueden ser
percibidos por los usuarios a través de sus sentidos con la ayuda de un Dispositivo
de Salida (también conocido como Periférico de Salida).
5. ASCII
ASCII (acrónimo inglés de American Standard Code for Information Interchange —
Código Estándar Estadounidense para el Intercambio de Información),
pronunciado generalmente [áski] o [ásci] , es un código de caracteres basado en
el alfabeto latino, tal como se usa en inglés moderno y en otras lenguas
occidentales. Fue creado en 1963 por el Comité Estadounidense de Estándares
(ASA, conocido desde 1969 como el Instituto Estadounidense de Estándares
Nacionales, o ANSI) como una refundición o evolución de los conjuntos de códigos
utilizados entonces en telegrafía. Más tarde, en 1967, se incluyeron las
minúsculas, y se redefinieron algunos códigos de control para formar el código
conocido como US-ASCII.
El código ASCII utiliza 7 bits para representar los caracteres, aunque inicialmente
empleaba un bit adicional (bit de paridad) que se usaba para detectar errores en la
transmisión. A menudo se llama incorrectamente ASCII a otros códigos de
caracteres de 8 bits, como el estándar ISO-8859-1 que es una extensión que
utiliza 8 bits para proporcionar caracteres adicionales usados en idiomas distintos
al inglés, como el español.
ASCII fue publicado como estándar por primera vez en 1967 y fue actualizado por
última vez en 1986. En la actualidad define códigos para 32 caracteres no
imprimibles, de los cuales la mayoría son caracteres de control obsoletos que
tienen efecto sobre cómo se procesa el texto, más otros 95 caracteres imprimibles
que les siguen en la numeración (empezando por el carácter espacio).
Casi todos los sistemas informáticos actuales utilizan el código ASCII o una
extensión compatible para representar textos y para el control de dispositivos que
manejan texto como el teclado. No deben confundirse los códigos ALT+número de
teclado con los códigos ASCII. Las computadoras solamente entienden números.
El código ASCII es una representación numérica de un carácter como ‘a’ o ‘@’. 1
Como otros códigos de formato de representación de caracteres, el ASCII es un
método para una correspondencia entre cadenas de bits y una serie de símbolos
(alfanuméricos y otros), permitiendo de esta forma la comunicación entre
dispositivos digitales así como su procesado y almacenamiento.
EBCDIC
El EBCDIC, siglas en inglés de Extended Binary Coded Decimal Interchange
Code, que significaría en español el concepto de Código Ampliado de Intercambio
6. Decimal Codificado en Binario.Consiste básicamente en la utilización de
un Código Binario aplicado para el Control de Impresora,
las Comunicaciones entre Dispositivos y la edición de Texto que ha sido utilizado
como propio por parte de la firma IBM, comenzando a emplearse con el
System/360. Actualmente es utilizado en los sistemas Mainframe IBM, a su vez
que en distintos ordenadores de medio rango también manufacturados por la
firma, considerándose un código de 8 bits de 256 combinaciones que cuenta con
la característica de poder almacenar en un solo byte o bien un Caracter
Alfanumérico, tanto como dos dígitos decimales.Cada caracter está compuesto
entonces por 8 Bits, siendo definido entonces que 1 Byte es justamente 8 bits
alfanuméricos, o bien dos dígitos decimales, pudiendo representarse un total
de 256 caracteres mediante este Código, lo que hace inclusive que sea uno de los
más utilizados para la representación de datos, junto al más popular Código
ASCII. Existen muchas variantes de la utilización del Código EBCDIC con la
utilización de distintos caracteres diferentes, siendo entonces diferentes
sucesiones de los mismos caracteres pero empleados en distintos idiomas o
regiones, teniendo por ejemplo el caso del EBCDIC Latín, que si bien emplea la
misma cantidad de caracteres, lo que varía son las Sucesiones de los mismos.
REPRESENTACIÓN NUMÉRICA: MAGNITUD Y SIGNO, COMPLEMENTO A
DOS
En matemáticas, los números negativos en cualquier base se representan del
modo habitual, precediéndolos con un signo «−». Sin embargo, en
una computadora, hay varias formas de representar el signo de un número. Este
artículo trata cuatro métodos de extender el sistema binario para
representar números con signo: signo y magnitud,complemento a
uno, complemento a dos y exceso K, donde normalmente K equivale a bn-1.
7. MAGNITUD Y SIGNO
Para la mayoría de usos, las computadoras modernas utilizan típicamente la
representación en complemento a dos, aunque pueden usarse otras en algunas
circunstancias.
Un primer enfoque al problema de representar un número signado de nbits consiste en asignar:
1. un bit para representar el signo. Ese bit a menudo es el bit más
significativo o MSB (de sus siglas en inglés) y, por convención: un 0 denota
un número positivo, y un 1 denota un número negativo;
2. los (n-1)-bits restantes para representar el significando que es la magnitud
del número en valor absoluto.
Y se conoce como Signo y Magnitud.
Este enfoque es directamente comparable a la forma habitual de mostrar el signo
(colocando "+" o "-" al lado de la magnitud del número). Algunas de las primeras
computadoras binarias (la IBM 7090) utilizaron esta representación, quizás por su
relación obvia con la práctica habitual.
El formato Signo y Magnitud es además el habitual para la representación del
significando en números en punto flotante.Sea una representación en formato de
Signo y Magnitud que nos permite codificar un número entero en binario con 8 bits
(un byte). Esto nos otorga 1 bit para el signo y 7 bits para la magnitud. Con 8 bits,
podemos representar, en teoría al menos, 28 = 256 números. Los cuales, según
éste formato, van a estar repartidos entre 128 números positivos (bit de signo en
0) y 128 números negativos (bit de signo en 1).
COMPLEMENTO A 2
Sea una representación en formato de Complemento a dos que nos permite
codificar en binario en punto fijo con 8 bits (un byte). Al igual que con la
representación en Signo y Magnitud, y Complemento a uno, esto nos otorga 1 bit
para el signo y 7 bits para la magnitud. Con 8 bits, podemos representar, 2 8 = 256
números. Los cuales, según éste formato, van a estar repartidos entre 128
números positivos (bit de signo en 0) y 128 números negativos (bit de signo en 1).
8. TIPOS DE ERRORES EN LA MANIPULACIÓN DE CANTIDADES
Debido a las limitaciones físicas de la memoria se presentan distintos tipos de
errores en la manipulación de datos numéricos. Los más comunes son:
Error inherente: Es aquel error que se encuentra ligado a cualquier
medición debido a que no se pueden realizar mediciones exactas y por lo
mismo las cantidades que se representan tampoco son exactas. Por
ejemplo la raíz cuadrada de 2 y los números π y e
Error de redondeo: Ocurre por la necesidad de utilizar menos dígitos en
alguna fracción.
Ej. 2/3 = 0.666667
Error de truncamiento: Ocurre cuando se detiene algún proceso matemático
recursivo sin alcanzar el resultado exacto.
FORMATOS DE MANEJO DE IMÁGENES, VIDEO, VOZ.
La información almacenada en la computadora se encuentra en archivos. Archivo
es una colección de datos guardados bajo un formato determinado, consta de un
nombre único y una extensión separados por un punto. El nombre sirve para
9. distinguirlo de otros archivos y la extensión le asocia las propiedades del formato
en el que está almacenado. La funcionalidad de un archivo se centra en las
aplicaciones y en los documentos.
AUDIO
Los formatos de archivos de audio son todos aquellos que contienen sonido.
MP3 ("Media Picture expert group - layer 3"): formato digital de audio
comprimido con pérdida.
AAC ("Audio Advanced Coding"): codificado avanzado de audio.
WMA ("Windows Media Audio"): se trata de el formato alterno de Microsoft®
a MP3.
REC ("RECord"): audio de baja fidelidad, proveniente de grabadoras de voz
digitales.
WAV ("WAVeform audio format"): formato de audio de Microsoft® e IBM®.
CDA ("Compact Disc Audio"): es el formato presente en cualquier disco
compacto de 22 melodías sin música comprimida.
IMAGENES
Cada formato de archivos de imagines tiene un método de representación y da
una calidad diferente a cada uno.
JPEG ("Joint Photographic Expert Group"): sistema de compresión de
imágenes, muy utilizado en Internet con mínima pérdida de resolución.
WMF ("Windows MetaFile"): formato de imágenes de Microsoft® basado en
sistema vectorial.
PNG ("Portable Network Graphics"): utiliza algoritmos de compresión y
permite transparencias.
GIF (Graphics Interchange Format"): permite hasta 256 colores y capas
para animaciones.
BMP ("BitMaP"): soporta 24 bits (16.7 millones de colores, pesan mucho los
archivos.
10. ODG ("Open Document Graphic"): imagen generada con la suite
OpenOffice ó StarOffice.
TIFF: ("Tagged Image File Format"): maneja los datos de las imágenes
combinadas con etiquetas.
ICO ("Icon"): pequeñas imágenes usuales para el entorno de Microsoft®
Windows y Microsoft® Internet Explorer 8.
VIDEO
Los formatos de archivos de video guardan conjuntos de imágenes y el
audio que las sincroniza y reproduce conjuntamente.
MPEG ("Media Picture Expert Group"): compresión de audio y video con
poca pérdida.
WMM ("Windows Movie Maker"): archivos creados por Microsoft® Windows
Movie Maker.
3GP ("3a Generation Partnership"): formato utilizado para los teléfonos
celulares modernos.
AVI ("Audio Video Interleave"): formato desarrollado por Microsoft®.
VCD ("Video Compact Disc"): utilizado para insertar videos en discos
compactos.
SVCD ("Super Video Compact Disc"): permite videos en discos compactos
pero con menús de acceso.
MP4 ("Media Picture expert group - 4 part 14"): formato que utiliza un muy
bajo ancho de banda y resolución de 176x144 pixéles.