La historia de la computación se remonta a miles de años atrás con el desarrollo de herramientas de cálculo como el ábaco. A través de los siglos, matemáticos e inventores han creado dispositivos más avanzados como el Mecanismo de Antikythera en el 87 a.C. y la máquina analítica de Charles Babbage en el siglo XIX. En el siglo XX, se desarrollaron las primeras computadoras electrónicas como la ENIAC y UNIVAC, dando inicio a la era de la comput
2. La historia de la computación se
remonta a la época de la aparición
del hombre en la faz de la tierra, y se
origina en la necesidad que tenía
éste de cuantificar a los miembros de
su tribu, los objetos que poseía,
etcétera.
Uno de los primeros artefactos
mecánicos de calcular que se conoce
es el ábaco, que aún se sigue
usando en algunos países de oriente
(Babilonia o China) de donde es
originario.
En los restos de un naufragio cerca
de la isla griega de Anticitera, entre
Citera y Creta, se descubrió el
Mecanismo de Antikythera. Se
calcula que data del año 87 a.C., y se
diseñó para seguir el movimiento de
los cuerpos celestes; es la
computadora astronómica más
antigua del mundo.
En la India antigua, Pingala, autor del
libro Chhandah-shastra escrito en
sánscrito, descubrió el número cero,
representándolo como un punto,
unos tres siglos antes de Cristo.
También describió el primer sistema
binario, que es la base de
comunicación de las computadoras
modernas.
El matemático persa Mohammed ben
Musa, padre del álgebra, en su tratado
de álgebra enseña a resolver problemas
de la vida cotidiana mediante una serie
de pasos lógicos, conocidos como
algoritmo, en los inicios del siglo IX.
En el siglo XV los Incas de Perú
usaban un sistema para contar y
comunicarse mediante cuerdas con
nudos que hacían las veces de
símbolos mnemotécnicos, llamado
Quipu
3. El matemático escocés John Napier, basado
en su teoría de que todas las cifras numéricas
podían expresarse en forma exponencial,
inventa los logaritmos, que permiten reducir a
sumas y restas las operaciones de
multiplicación y división. También inventó unas
tablas de multiplicar movibles hechas con
varillas de hueso o marfil, conocidas como
huesos de Napier, que representan el
antecedente de las reglas de cálculo.
Después del descubrimiento del concepto y las
propiedades de los logaritmos naturales en
1614 por Napier, el matemático inglés Henry
Briggs (1561-1630), realizó su conversión a la
base decimal en 1617 (logaritmos comunes o
brigsianos.). En 1624 publicó en su Aritmética
Logarítmica, las primeras tablas logarítmicas
naturales, que contenían los logaritmos de
30,000 números naturales, con 14 decimales.
El matemático inglés William Oughtred utilizó
las tablas logarítmicas recién descubiertas,
para construir la primera regla de cálculo
circular analógica en 1621. La regla consistía
en círculos rotatorios con graduaciones
logarítmicas que permitían realizar cálculos
como multiplicación, división, extracción de
raíz cuadrada, y trigonométricos.
Wilhelm Schickard (1592-1635), científico
alemán, construyó lo que podemos considerar
como la primera máquina mecánica de calcular
–basada en unas ruedas dentadas–, que ya
podía efectuar las cuatro operaciones
aritméticas básicas: suma, resta, multiplicación
y división.
A Blaise Pascal, es a quien se le atribuye la
invención de la primera calculadora automática
llamada la “Pascalina” en 1642.
El matemático inglés Sir Samuel Morland
(1625-1695) no es muy conocido en la historia
de la computación, pero construyó una
máquina de multiplicar mecánica inspirada en
los huesos de Napier y en la calculadora de
Blaise Pascal, en 1666. El aparato constaba
de una serie de ruedas en donde se
representaban las unidades, decenas,
centenas, etcétera
4. El matemático alemán Gottfried von
Leibniz diseñó una calculadora
mecánica que ya permitía multiplicar,
dividir y extraer raíz cuadrada mediante
sumas y restas sucesivas.
En 1801 el francés Joseph Marie
Jacquard (1752-1834) construye su telar
mecánico basado en una lectora
automática de tarjetas perforadas.
En Inglaterra, Charles Babbage,
profesor de matemáticas de la
Universidad de Cambridge,
diseña la “máquina diferencial”. En 1833
abandona el primer proyecto y se
propone realizar el verdadero sueño de
su vida: la “máquina analítica”, que sería
capaz de realizar cualquier tipo de
cálculo de manera digital.
Augusta Ada (1815-1853), hija del poeta
Lord Byron está considerada como la
primera programadora pues escribió
secuencias de instrucciones en tarjetas
perforadas, inventó métodos de
programación como la subrutina e
introdujo en sus programas las
iteraciones y el salto condicional.
En 1854 el matemático inglés George
Boole publicó el libro Investigación de
las leyes del pensamiento, donde
describe el álgebra de Boole, que
implica la aplicación de la lógica
simbólica a los procesos del
razonamiento, mediante símbolos
matemáticos que pueden manipularse
según reglas fijas que producen
resultados lógicos.
En 1886, el Dr. Herman Hollerith,
estadístico empleado en la oficina de
censos de Estados Unidos de
Norteamérica, desarrolló un sistema
basado en tarjetas perforadas para
codificar los datos de la población en el
censo de 1890.
5. En 1892, el suizo Otto Steiger patentó la primera
calculadora automática, basada en el modelo de
Leibniz, que tuvo éxito comercial. Fue producida
en serie entre 1895 y 1935 por el ingeniero suizo
Hans W. Egli, y vendió unas 4,700 unidades con
el nombre de La Millonaria.
Leonardo Torres Quevedo, ingeniero
español, inventó gran cantidad de artefactos
en los campos de la automática y la
aeronáutica. En 1903 construyó el primer
aparato de radio control llamado telekino, un
autómata que ejecutaba órdenes
transmitidas mediante ondas hertzianas.
A principios del siglo XX, se dieron los grandes
descubrimientos, que permitieron la creación de estas
primeras computadoras. En esta época se llevaron a
cabo descubrimientos tan importantes como el tubo de
vacío (bulbo) de tres elementos de Lee De Forest
(1873-1961), en 1906, que hizo posible la transmisión
de la radio en vivo; el flip-flop o basculador de W. H.
Eccles (1894-1989) y F. W. Jordan, desarrollado en
1919, un circuito biestable multivibrador que puede
asumir uno de dos estados en un momento dado, y se
compone de dos transistores o tubos de vacío
conectados, de manera que el circuito representa una
de dos condiciones estables, y muchos otros.
También se llevan a cabo importantes sucesos como el inicio de
la International Business Machines Corporation, IBM, en 1924; la
creación de la primera computadora analógica del Dr. Vannevar
Bush (1890-1974), investigador del Instituto Tecnológico de
Massachusetts, en 1930, denominada como la analizadora
diferencial, porque se utilizaba para resolver ecuaciones
diferenciales; el desarrollo del primer programa mecánico de
Wallace J. Eckert (1902-1971); la creación del primer modelo
general de máquinas lógicas de Alan M. Turing (1912-1954),
denominado La máquina de Turing, y su decodificadora utilizada
para descifrar las comunicaciones Nazis, conocida como Bomba.
Se comienza la construcción (inconclusa), de la
primera computadora electrónica digital del Dr. John
Vincent Atanasoff (1903-1995), conocida como la
Atanasoff-Berry Computer, ABC, que diseñó con la
ayuda del brillante estudiante Clifford E. Berry (1918-
1963); la creación de la primera computadora de
propósito general controlada por programa del Dr.
Konrad Zuse (1910-1995), bautizada como Z1 en
1939; la fundación de Hewlett-Packard en un garaje,
en Palo Alto, California, ese mismo año; el desarrollo
en 1943 de la computadora Colossus en las
universidades de Oxford y Cambridge, en Inglaterra, y
muchos adelantos más.
El matemático estadounidense Claude
E. Shannon, creador de la moderna
teoría de la información, la define de la
siguiente manera: “Información es todo
lo que reduce la incertidumbre entre
diversas alternativas posibles”
6. El descubrimiento de los nuevos dispositivos
electrónicos, los grandes avances de la
programación y el acelerado desarrollo de los
nuevos sistemas operativos, marcaron fechas
que permiten identificar y clasificar a las
computadoras de acuerdo con sus componentes y
con su capacidad de procesamiento, agrupándolas
por generaciones.
Hay quienes ubican a la primera generación a partir
de 1937 o antes, relacionándola con los primeros
trabajos del Dr. Konrad Zuse y del Dr. Howard H.
Aiken; otros consideran 1951 como el año de
arranque de la computación, por coincidencia con
la aparición de la primera computadora comercial,
la UNIVAC. Por estos motivos, las fechas en que se
dieron los grandes cambios tecnológicos son los
parámetros que determinan el comienzo y el fin de
cada generación.
Las computadoras de la primera generación (1946-
1954) se caracterizan por estar constituidas de
relevadores (relés) electromecánicos, o de tubos de
vacío, como la Mark I o Automatic Sequenced
Controlled Calculator, basada en la máquina
analítica de Babbage, pesaba unas cinco
toneladas, estaba constituida por 78 máquinas
sumadoras conectadas entre sí mediante 800 km
de cable, contenía miles de relevadores, recibía las
instrucciones por medio de cinta perforada de
papel, y multiplicaba dos números de 10 dígitos en
tres segundos aproximadamente.
La ENIAC, (Electronic Numerical Integrator and
Calculator), incluía aproximadamente 18 000 tubos
de vacío. Fue terminada hasta 1946, y su velocidad
de procesamiento permitía efectuar alrededor de
500 multiplicaciones por segundo.
La EDVAC, (Electronic Discrete Variable Automatic
Computer), y la EDSAC (Electronic Delay Storage
Automatic Calculator), ya incorporan las ideas
sobre almacenamiento de programas en la
memoria de la computadora del Dr. John von
Neumann, científico estadounidense originario de
Hungría. En 1951 se desarrolla la UNIVAC
(Universal Automatic Computer).
La segunda generación de computadoras (1955-
1963) se caracteriza por la inclusión de
transistores. Utilizan tarjetas o cinta perforada para
la entrada de datos. La inclusión de memorias de
ferrita en estas computadoras hizo posible que se
redujeran de tamaño considerablemente,
reduciendo también su consumo de energía
eléctrica. Esto significó una notable baja de la
temperatura en su operación.
7. El siguiente paso fue la integración a gran escala
de transistores en microcircuitos llamados
procesadores o circuitos integrados monolíticos
LSI (Large Scale Integration), así como la
proliferación de lenguajes de alto nivel y la
introducción de programas para facilitar el control
y la comunicación entre el usuario y la
computadora, denominados sistemas operativos,
que dieron paso a la tercera generación (1964-
1970).
La aparición del primer microprocesador en 1971,
fabricado por Intel Corporation, que era una
pequeña compañía fabricante de
semiconductores ubicada en Silicon Valley,
marca el inicio de la cuarta generación de
computadoras (1971-1981).
Cada vez se hace más difícil la identificación de las
generaciones de computadoras, porque los grandes
avances y nuevos descubrimientos ya no nos
sorprenden como sucedió a mediados del siglo XX.
Con base en los grandes acontecimientos tecnológicos
en materia de microelectrónica y computación
(software) como CAD, CAM, CAE, CASE, inteligencia
artificial, sistemas expertos, redes neurales, teoría del
caos, algoritmos genéticos, fibras ópticas,
telecomunicaciones, etc., a mediados de la década de
los años ochenta se establecieron las bases de lo que
se puede considerar como la quinta generación de
computadoras (1982-1995).
Hay que mencionar dos grandes avances
tecnológicos, que quizás sirvan como parámetro
para el inicio de la quinta generación: la creación
en 1982 de la primera supercomputadora con
capacidad de proceso paralelo, diseñada por
Seymouy Cray y el anuncio por parte del gobierno
japonés del proyecto “quinta generación”, que
según se estableció en el acuerdo con seis de las
más grandes empresas japonesas de
computación, debería terminar en 1992.
Las computadoras se clasifican de acuerdo a su
tamaño, poder de cómputo, capacidad de
memoria y almacenamiento, como
macrocomputadoras, minicomputadoras,
supercomputadoras y microcomputadoras o
computadoras personales.
El hombre tardó miles de años en desarrollar las bases
de las matemáticas modernas y miles más para llegar
al desarrollo tecnológico que se conoce en la
actualidad, y que avanza a pasos agigantados. Esto ha
llevado a las sociedades modernas a cambiar por
completo su mentalidad con respecto a la utilización de
la herramienta más difundida en el mundo: la
computadora. A menos de cincuenta años de su
aparición de manera comercial, las computadoras han
invadido la mayoría de las labores del ser humano.
Actualmente no se puede pensar en casi ninguna
actividad en la cual no intervengan de alguna manera
los procesos de cómputo.
8. El mundo está cambiando y usted deberá aprender
todas esas tecnologías modernas para poder
conseguir un empleo mejor retribuido y quizás, en
poco tiempo, realizar trabajos desde la comodidad
de su hogar mediante el teletrabajo, reduciendo el
tráfico en las calles y por ende la contaminación de
las grandes ciudades.
La nueva tecnología informática está cambiando
nuestras vidas. Es necesario conocerla para no
quedar inmersos en una nueva forma de
analfabetismo.
Se debe adoptar una serie de normas éticas que regulen
la convivencia pacífica y cordial entre los millones de
personas que tienen que utilizar estas avanzadas
tecnologías para realizar su trabajo, estudio, descanso y
esparcimiento diarios..
Es necesario aprender y utilizar técnicas de
prevención, mantenimiento y seguridad para los
equipos y programas que involucran a las
computadoras. Actualmente se utilizan esquemas
de seguridad basados en claves o passwords para
la protección de accesos a las computadoras y a
las redes. También se han creado algoritmos de
encripción o encriptamiento que permiten codificar
la información para que sólo el destinatario pueda
recibirla –mediante una clave secreta– en una
forma entendible.
Se han diseñado sistemas físicos de seguridad
como las tarjetas “inteligentes”, que incluyen un
chip de protección con los datos del usuario, y
firewals, que son una especie de compuertas de
protección para las conexiones entre las redes
empresariales y las redes públicas como Internet.
Se abre un campo muy amplio para los futuros
abogados, que tendrán que aprender mucho
acerca de la tecnología informática para poder
legislar y hacer valer las leyes y el derecho a la
intimidad, que se viola constantemente al compartir
información mediante Internet, el correo electrónico
y las redes sociales.
9. La ergonomía” (ergonomics) se define como “el
estudio de la capacidad y psicología humanas en
relación con el ambiente de trabajo y el equipo
manejados por el trabajador”, o “el estudio de
cómo diseñar el equipo que afecta el qué tan
bien puede realizar la gente su trabajo”.
Prácticamente se puede decir que la ergonomía
se encarga de la relación de eficiencia y salud
entre el hombre, y su ambiente y herramientas
de trabajo.
Muchas empresas fabricantes de equipos y
mobiliario para oficinas computadorizadas
ofrecen un sinnúmero de aditamentos y sistemas
de protección para prevenir los riesgos y
molestias causados en las largas horas que pasa
un usuario frente a su monitor o debido a las
prolongadas sesiones de trabajo al teclear una
gran cantidad de texto o dibujar en una misma
posición pulsando el ratón durante muchas
horas.
Diversas asociaciones de salud de todos los
países han realizado estudios sobre los efectos
que causa el trabajo informático en la salud de
los operadores, capturistas o programadores que
tienen que utilizar la computadora gran parte de
su tiempo productivo.
Grupos y organizaciones de trabajadores de la informática,
en los países avanzados, han luchado por conseguir que
las empresas que los contratan les provean de: aditamentos
especiales para descansar los brazos y las muñecas al usar
el ratón; teclados con inclinaciones y posiciones naturales;
pantallas protectoras de las radiaciones de las
computadoras; brazos para colocar los monitores a las
alturas adecuadas; luces y ventanas
colocadas de manera perpendicular a la pantalla para evitar
los reflejos, e incluso, la eliminación de los sistemas de
control de sus actividades, ya sea por computadora o
mediante cámaras de video, arguyendo que esto les causa
problemas emocionales y de angustia.
Actualmente casi no podemos encontrar una
rama de la ciencia en donde no se aplique la
tecnología informática. La computación ha
invadido, para bien, casi todas las actividades del
ser humano, posibilitando la reducción de precios
de productos que antiguamente se realizaban por
métodos manuales.
Las áreas de trabajo donde se aprecia más la
necesidad de computadoras son: las ciencias; la
administración y la economía; el diseño, la
manufactura y la ingeniería; la ecología y el
medio ambiente; la medicina; la educación;
aplicaciones militares; el arte y la cultura; la
distribución de mejores bienes de consumo hasta
regiones distantes del planeta; la reducción de
los precios de los servicios de transporte
internacional, etcétera.