1. bit
Bit . (dígito binario). Un bit es un dígito del sistema de numeración binario.
Mientras que en el sistema de numeración decimal se usan diez dígitos, en
el binario se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede
representar uno de esos dos valores, 0 ó 1.
El bit es la unidad mínima de información empleada en informática, en
cualquier dispositivo digital, o en la teoría de la información. Con él, podemos
representar dos valores cuales quiera, como verdadero o falso, abierto o
cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc.
Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al
estado de "encendido" (1)
2. byte
El byte es la unidad de capacidad de almacenamiento estándar. Con esta
unidad de medida se mide desde el almacenamiento de datos hasta la
capacidad de memoria de una computadora. Representa un carácter, lo
que sería aproximadamente una letra, y está constituido por 8 bits
consecutivos, de modo tal que un byte equivaldría a 8 bits.
Si bien la unidad mínima es el bit, como solamente toma valores 0 y 1
(por el código binario, que es el que se utiliza para el procesamiento y
almacenamiento de datos en una computadora), a partir de las diversas
combinaciones de los 8 bits que integran un byte, este tomará la forma
de un caracter diferente (un número, una letra, un espacio, o cualquier
otro signo; aunque existen signos especiales que necesitan dos bytes
para su representación). Hay 256 combinaciones de 8 bits posibles, por
lo que hay 256 caracteres.
3. kilobyte
Un Kilobyte (abreviado como KB o Kbyte) es una unidad de medida
equivalente a mil bytes de memoria de ordenador o de capacidad
de disco. Por ejemplo, un dispositivo que tiene 256K de memoria
puede almacenar aproximadamente 256.000 bytes (o caracteres)
de una vez.
En sistemas decimales, kilo significa 1.000, pero el mundo de los
ordenadores se basa en un sistema binario de dos en vez de diez.
Así pues, un kilobyte es realmente 1.024 (210) bytes. Para distinguir
entre una K decimal (1.000) y una K binaria (1.024), el IEEE ha
sugerido usar una k minúscula para un kilo decimal y una K
mayúscula para un kilo binario.
4. megabyte
El megabyte (MB) es una unidad de medida de cantidad de datos informáticos.
Es un múltiplo del byte , que equivale a 106 B (un millón de bytes).
Se representa por MB y no por Mb, cuya correspondencia equivaldría
a megabit. Coloquialmente a los megabytes se les denomina megas.
5. terabyte
Un terabyte es una unidad de almacenamiento de información cuyo símbolo es
el TB, y equivale a 1012 bytes.
1 TB = 103 GB = 106 MB = 109 KB = 1012 bytes
6. Múltiplo de 1000 o de 1024?
Artículo principal: Prefijo binario.
Durante los inicios de la informática, las unidades se mostraban como múltiplos de
1000, pero a finales de los años 50 se empezó a confundir 1000 con 1024, puesto
que los ordenadores trabajan en base binaria. El problema se originó al nombrar
estas cantidades, ya que se adoptaron los prefijos de los múltiplos del Sistema
Internacional de Medidas, lo cual es semánticamente incorrecto para valores
binarios. Esto ha creado hoy en día gran confusión.
Para aclarar la diferencia entre los prefijos decimal y binario, la Comisión
Electrotécnica Internacional, un organismo privado de estandarización, definió
en 1998 nuevos prefijos usando la combinación del Sistema Internacional de
Medidas con la palabra "binary" (ver prefijo binario). Así, se usa terabyte para
referirse a una cantidad de 1012 bytes, de acuerdo al prefijo tera del S.I. Se observa
que 1012 está expresado en base 10. En cambio, con cantidades en base 2 (binaria)
es incorrecto usar el prefijo tera. Se definió en su lugar tebi, dando lugar al
término tebibyte, que corresponde al valor 240 bytes. Esta nomenclatura no ha sido
aún ampliamente adoptada por la comunidad informática, pero sí por la mayoría
de los dispositivos de almacenamiento.