1. ASI FUNCIONAN LOS BITS Y LOS BYTES
Por un acuerdo conjunto entre los ingenieros y científicos, se le asignó al dígito “1” la existencia de
un pulso eléctrico y al dígito “0” la no existencia de pulso eléctrico. Por tanto, para el ordenador
sólo existen dos estados físicos que le permiten comprender las órdenes o instrucciones antes de
ejecutarlas: “la existencia de pulsos eléctricos o la no existencia de ellos”.
Por ejemplo, cuando se escribe en el teclado la letra “A” mayúscula, se generan automáticamente
8 bits u octeto, equivalentes a un byte, que representan esa letra. El código numérico que se
genera, para que el ordenador reconozca que se ha escrito la letra “A” , es: 0100 0001. Cada uno
de los bits correspondientes a los dígitos “1” contenidos en ese byte de información generan pulsos
eléctricos, mientras que los representados por el dígito “0” no generan prácticamente ningún pulso
eléctrico.
En cualquier circuito electrónico digital, como el que posee el ordenador, el bit “0” puede estar en
ocasiones cercano a “0” volt y el bit “1” cercano a 3 ó 5 volt, de forma tal que la tensión o voltaje
que pueda llegar a tener el dígito “0” nunca llegará a alcanzar un valor alto, ni el dígito “1” un valor
muy bajo.
Gracias a ese mecanismo el circuito digital puede diferenciar perfectamente el valor
correspondiente a estos dos dígitos sin equivocarse, por lo que el riesgo de que se produzcan
confusiones o errores a la hora de reconocer el valor de ambos es prácticamente nula.
Cuando la memoria RAM del ordenador recibe una combinación de pulsos y no pulsos eléctricos
correspondientes a los unos y los ceros que forman el byte 0100 0001, reconoce que le están
enviando el código correspondiente a la letra “A”. De esa forma lo descifra y retiene como tal,
permitiendo, a su vez, que esa letra se pueda representar en la pantalla del monitor.
Esta operación resulta ser algo similar a lo que ocurría en el mundo analógico cuando un
telegrafista recibía a través de su aparato receptor el sonido de un punto y una raya ( · – ) en
código Morse. En cuanto éste oía ese sonido en el dispositivo receptor, sabía que le estaban
transmitiendo la letra “A”.
Lo mismo ocurría cuando las escobillas del sistema electrónico de las antiguas máquinas
tabuladoras IBM leían en la tarjeta las dos perforaciones correspondientes a la letra “A” o cualquier
otro signo alfanumérico para que la máquina lo interpretara e imprimiera. Por tanto, cuando
escribimos en el teclado del ordenador letras, números y signos, se forman cadenas de bytes
codificados que representan instrucciones y caracteres alfanuméricos que el ordenador interpreta
como tales.
Lógicamente, para escribir los programas, aplicaciones o “softwares” que el ordenador emplea para
trabajar, el programador utiliza un lenguaje de programación denominado “de alto nivel”, que le
permite crearlos escribiendo líneas de texto codificadas. Esas líneas de texto u órdenes el
programador las puede escribir, leer y entender, no así el ordenador mientras se mantengan
escritas de esa forma.
Para que el ordenador pueda entender las ordenes contenidas en un programa cualquiera escrito
por el programador en lenguaje de "alto nivel", es necesario que otro programa denominado
“compilador” las traduzca y convierta a código máquina “de bajo nivel”. Este código, compuesto
solamente de unos y ceros, es el único que entiende el ordenador y es el que le permite interpretar
las órdenes contenidas en los programas para que las pueda ejecutar.