1. La historia de la computación se
remonta a la época de la
aparición del hombre en la faz de
la tierra, y se origina en la
necesidad que tenía éste de
cuantificar a los miembros de su
tribu, los objetos que
poseía, etcétera.
Uno de los primeros artefactos
mecánicos de calcular que se
conoce es el ábaco, que aún
se sigue usando en algunos países
de oriente (Babilonia o China) de
donde es originario.
En los restos de un naufragio cerca de la
isla griega de Anticitera, entre Citera y
Creta, se
descubrió el Mecanismo de Antikythera. Se
calcula que data del año 87 a.C., y se
diseñó
para seguir el movimiento de los
cuerpos celestes; es la computadora
astronómica más
antigua del mundo.
En el siglo XV los Incas de Perú
usaban un sistema para contar y
comunicarse mediante
cuerdas con nudos que hacían las
veces de símbolos
mnemotécnicos, llamado Quipu.
En la India antigua, Pingala, autor del
libro Chhandah-shastra escrito en
sánscrito,
descubrió el número cero, representándolo
como un punto, unos tres siglos antes de
Cristo.
También describió el primer sistema
binario, que es la base de comunicación
de las
computadoras modernas.
El matemático persa Mohammed
ben Musa, padre del álgebra, en
su tratado de álgebra
enseña a resolver problemas de
la vida cotidiana mediante una
serie de pasos lógicos,
conocidos como algoritmo, en los
inicios del siglo IX.
2. El matemático escocés John Napier, basado en su
teoría de que todas las cifras numéricas
podían expresarse en forma exponencial, inventa
los logaritmos, que permiten reducir a
sumas y restas las operaciones de multiplicación y
división. También inventó unas tablas de
multiplicar movibles hechas con varillas de hueso
o marfil, conocidas como huesos de
Napier, que representan el antecedente de las reglas
de cálculo.
Después del descubrimiento del concepto y las
propiedades de los logaritmos naturales en
1614 por Napier, el matemático inglés Henry
Briggs (1561-1630), realizó su conversión a
la base decimal en 1617 (logaritmos
comunes o brigsianos.). En 1624 publicó en
su
Aritmética Logarítmica, las primeras tablas
logarítmicas naturales, que contenían los
logaritmos de 30,000 números naturales, con
14 decimales
El matemático inglés William Oughtred
utilizó las tablas logarítmicas recién
descubiertas,
para construir la primera regla de cálculo
circular analógica en 1621. La regla consistía
en círculos rotatorios con graduaciones
logarítmicas que permitían realizar cálculos
como
multiplicación, división, extracción de raíz
cuadrada, y trigonométricos.
El matemático inglés Sir Samuel Morland
(1625-1695) no es muy conocido en la historia
de la computación, pero construyó una
máquina de multiplicar mecánica inspirada en
los
huesos de Napier y en la calculadora de Blaise
Pascal, en 1666. El aparato constaba de
una serie de ruedas en donde se representaban
las unidades, decenas, centenas, etcétera
Wilhelm Schickard (1592-1635), científico
alemán, construyó lo que podemos
considerar
como la primera máquina mecánica de
calcular –basada en unas ruedas dentadas–
, que ya
podía efectuar las cuatro operaciones
aritméticas básicas:
suma, resta, multiplicación y
división.
A Blaise Pascal, es a quien se
le atribuye la invención de la
primera calculadora
automática llamada la “Pascalina”
en 1642.
3. El matemático alemán Gottfried
von Leibniz diseñó una
calculadora mecánica que ya
permitía multiplicar, dividir y
extraer raíz cuadrada mediante
sumas y restas sucesivas.
En 1801 el francés Joseph
Marie Jacquard (1752-1834)
construye su telar mecánico
basado en una lectora automática
de tarjetas perforadas.
Augusta Ada (1815-1853), hija del poeta
Lord Byron está considerada como la
primera
programadora pues escribió secuencias
de instrucciones en tarjetas
perforadas, inventó
métodos de programación como la
subrutina e introdujo en sus programas las
iteraciones y
el salto condicional.
En 1886, el Dr. Herman
Hollerith, estadístico empleado en
la oficina de censos de Estados
Unidos de
Norteamérica, desarrolló un
sistema basado en tarjetas
perforadas para codificar
los datos de la población en el
censo de 1890.
En Inglaterra, Charles Babbage, profesor
de matemáticas de la Universidad de
Cambridge,
diseña la “máquina diferencial”. En 1833
abandona el primer proyecto y se propone
realizar
el verdadero sueño de su vida: la “máquina
analítica”, que sería capaz de realizar
cualquier
tipo de cálculo de manera digital.
En 1854 el matemático inglés George Boole
publicó el libro Investigación de las leyes del
pensamiento, donde describe el álgebra de
Boole, que implica la aplicación de la lógica
simbólica a los procesos del
razonamiento, mediante símbolos
matemáticos que pueden
manipularse según reglas fijas que producen
resultados lógicos.
4. En 1892, el suizo Otto Steiger patentó
la primera calculadora
automática, basada en el
modelo de Leibniz, que tuvo éxito
comercial. Fue producida en serie entre
1895 y 1935 por
el ingeniero suizo Hans W. Egli, y
vendió unas 4,700 unidades con el
nombre de La
Millonaria.
Leonardo Torres Quevedo, ingeniero
español, inventó gran cantidad de
artefactos en los
campos de la automática y la aeronáutica.
En 1903 construyó el primer aparato de
radio
control llamado telekino, un autómata que
ejecutaba órdenes transmitidas mediante
ondas
hertzianas.
A principios del siglo XX, se dieron los grandes
descubrimientos, que permitieron la
creación de estas primeras computadoras. En esta época se
llevaron a cabo
descubrimientos tan importantes como el tubo de vacío (bulbo) de
tres elementos de Lee
De Forest (1873-1961), en 1906, que hizo posible la transmisión de
la radio en vivo; el flipflop o basculador de W. H. Eccles (1894-
1989) y F. W. Jordan, desarrollado en 1919, un
circuito biestable multivibrador que puede asumir uno de dos
estados en un momento dado,
y se compone de dos transistores o tubos de vacío conectados, de
manera que el circuito
representa una de dos condiciones estables, y muchos otros.
El matemático estadounidense
Claude E. Shannon, creador de
la moderna teoría de la
información, la define de la
siguiente manera: “Información
es todo lo que reduce la
incertidumbre entre diversas
alternativas posibles”.
También se llevan a cabo importantes sucesos como el
inicio de la International Business
Machines Corporation, IBM, en 1924; la creación de la
primera computadora analógica del
Dr. Vannevar Bush , investigador del Instituto Tecnológico
de Massachusetts,
en 1930, denominada como la analizadora
diferencial, porque se utilizaba para resolver
ecuaciones diferenciales; el desarrollo del primer programa
mecánico de Wallace J. Eckert; la creación del primer
modelo general de máquinas lógicas de Alan M.
Turing, denominado La máquina de Turing, y su
decodificadora utilizada para
descifrar las comunicaciones Nazis, conocida como Bomba.
Se comienza la construcción (inconclusa), de la primera
computadora electrónica digital del
Dr. John Vincent Atanasoff conocida como la Atanasoff-Berry
Computer,
ABC, que diseñó con la ayuda del brillante estudiante Clifford
E. Berry la
creación de la primera computadora de propósito general
controlada por programa del Dr.
Konrad Zuse bautizada como Z1 en 1939; la fundación de Hewlett-
Packard
en un garaje, en Palo Alto, California, ese mismo año; el
desarrollo en 1943 de la
computadora Colossus en las universidades de Oxford y
Cambridge, en Inglaterra, y
muchos adelantos más.
5. El descubrimiento de los nuevos dispositivos
electrónicos, los grandes avances de la
programación y el acelerado desarrollo de
los nuevos sistemas operativos, marcaron
fechas
que permiten identificar y clasificar a las
computadoras de acuerdo con sus
componentes y
con su capacidad de
procesamiento, agrupándolas por
generaciones.
Hay quienes ubican a la primera generación a partir
de 1937 o antes, relacionándola con los
primeros trabajos del Dr. Konrad Zuse y del Dr.
Howard H. Aiken; otros consideran 1951 como
el año de arranque de la computación, por
coincidencia con la aparición de la primera
computadora comercial, la UNIVAC. Por estos
motivos, las fechas en que se dieron los grandes
cambios tecnológicos son los parámetros que
determinan el comienzo y el fin de cada
generación.
Las computadoras de la primera generación (1946-1954)
se caracterizan por estar
constituidas de relevadores (relés) electromecánicos, o de
tubos de vacío, como la Mark I o
Automatic Sequenced Controlled Calculator, basada en la
máquina analítica de Babbage,
pesaba unas cinco toneladas, estaba constituida por 78
máquinas sumadoras conectadas
entre sí mediante 800 km de cable, contenía miles de
relevadores, recibía las instrucciones
por medio de cinta perforada de papel, y multiplicaba dos
números de 10 dígitos en tres
segundos aproximadamente.
La segunda generación de computadoras (1955-
1963) se caracteriza por la inclusión de
transistores. Utilizan tarjetas o cinta perforada
para la entrada de datos. La inclusión de
memorias de ferrita en estas computadoras hizo
posible que se redujeran de tamaño
considerablemente, reduciendo también su
consumo de energía eléctrica. Esto significó
una notable baja de la temperatura en su operación.
La ENIAC, (Electronic Numerical
Integrator and Calculator), incluía
aproximadamente 18
000 tubos de vacío. Fue terminada
hasta 1946, y su velocidad de
procesamiento permitía
efectuar alrededor de 500
multiplicaciones por segundo.
La EDVAC, (Electronic Discrete Variable
Automatic Computer), y la EDSAC (Electronic
Delay Storage Automatic Calculator), ya
incorporan las ideas sobre almacenamiento
de
programas en la memoria de la
computadora del Dr. John von
Neumann, científico
estadounidense originario de Hungría. En
1951 se desarrolla la UNIVAC (Universal
Automatic Computer).
6. El siguiente paso fue la integración a gran escala de
transistores en microcircuitos llamados
procesadores o circuitos integrados monolíticos LSI
(Large Scale Integration), así como la
proliferación de lenguajes de alto nivel y la
introducción de programas para facilitar el
control y la comunicación entre el usuario y la
computadora, denominados sistemas
operativos, que dieron paso a la tercera generación
(1964-1970).
La aparición del primer
microprocesador en 1971, fabricado
por Intel Corporation, que era
una pequeña compañía fabricante de
semiconductores ubicada en Silicon
Valley, marca el
inicio de la cuarta generación de
computadoras (1971-1981).
Cada vez se hace más difícil la identificación de las generaciones de
computadoras, porque
los grandes avances y nuevos descubrimientos ya no nos
sorprenden como sucedió a
mediados del siglo XX. Con base en los grandes acontecimientos
tecnológicos en materia
de microelectrónica y computación (software) como
CAD, CAM, CAE, CASE, inteligencia
artificial, sistemas expertos, redes neurales, teoría del
caos, algoritmos genéticos, fibras
ópticas, telecomunicaciones, etc., a mediados de la década de
los años ochenta se
establecieron las bases de lo que se puede considerar como la
quinta generación de
computadoras (1982-1995).
El hombre tardó miles de años en desarrollar las bases de las
matemáticas modernas y
miles más para llegar al desarrollo tecnológico que se conoce
en la actualidad, y que
avanza a pasos agigantados. Esto ha llevado a las sociedades
modernas a cambiar por
completo su mentalidad con respecto a la utilización de la
herramienta más difundida en el
mundo: la computadora. A menos de cincuenta años de su
aparición de manera comercial,
las computadoras han invadido la mayoría de las labores del ser
humano. Actualmente no
se puede pensar en casi ninguna actividad en la cual no intervengan
de alguna manera los
procesos de cómputo
Hay que mencionar dos grandes avances
tecnológicos, que quizás sirvan como parámetro
para el inicio de la quinta generación: la creación en
1982 de la primera supercomputadora
con capacidad de proceso paralelo, diseñada por
Seymouy Cray y el anuncio por parte del
gobierno japonés del proyecto “quinta
generación”, que según se estableció en el acuerdo
con seis de las más grandes empresas japonesas
de computación, debería terminar en
1992.
Las computadoras se clasifican de
acuerdo a su tamaño, poder de
cómputo, capacidad de
memoria y almacenamiento, como
macrocomputadoras, minicomputador
as,
supercomputadoras y
microcomputadoras o computadoras
personales.
7. El mundo está cambiando y usted deberá
aprender todas esas tecnologías modernas
para
poder conseguir un empleo mejor
retribuido y quizás, en poco
tiempo, realizar trabajos
desde la comodidad de su hogar mediante el
teletrabajo, reduciendo el tráfico en las calles
y por ende la contaminación de las grandes
ciudades.
La nueva tecnología informática
está cambiando nuestras vidas.
Es necesario conocerla
para no quedar inmersos en una
nueva forma de analfabetismo
Se debe adoptar una serie de
normas éticas que regulen la
convivencia pacífica y cordial
entre los millones de personas
que tienen que utilizar estas
avanzadas tecnologías para
realizar su
trabajo, estudio, descanso y
esparcimiento diarios.
Se abre un campo muy amplio para los
futuros abogados, que tendrán que
aprender mucho
acerca de la tecnología informática para
poder legislar y hacer valer las leyes y el
derecho a
la intimidad, que se viola
constantemente al compartir información
mediante Internet, el
correo electrónico y las redes sociales.
Es necesario aprender y utilizar técnicas de
prevención, mantenimiento y seguridad para
los equipos y programas que involucran a las
computadoras. Actualmente se utilizan
esquemas de seguridad basados en claves o
passwords para la protección de accesos a
las computadoras y a las redes. También se han
creado algoritmos de encripción o
encriptamiento que permiten codificar la
información para que sólo el destinatario pueda
recibirla –mediante una clave secreta– en una forma
entendible.
Se han diseñado sistemas físicos de
seguridad como las tarjetas
“inteligentes”, que
incluyen un chip de protección con los
datos del usuario, y firewals, que son una
especie
de compuertas de protección para las
conexiones entre las redes empresariales y
las redes
públicas como Internet.
8. La ergonomía” (ergonomics) se define como “el
estudio de la capacidad y psicología
humanas en relación con el ambiente de trabajo y el
equipo manejados por el trabajador”, o
“el estudio de cómo diseñar el equipo que afecta el
qué tan bien puede realizar la gente su
trabajo”. Prácticamente se puede decir que la
ergonomía se encarga de la relación de
eficiencia y salud entre el hombre, y su ambiente y
herramientas de trabajo.
Muchas empresas fabricantes de equipos y
mobiliario para oficinas computadorizadas
ofrecen un sinnúmero de aditamentos y
sistemas de protección para prevenir los riesgos
y
molestias causados en las largas horas que pasa
un usuario frente a su monitor o debido a
las prolongadas sesiones de trabajo al teclear
una gran cantidad de texto o dibujar en una
misma posición pulsando el ratón durante
muchas horas.
Diversas asociaciones de salud de
todos los países han realizado
estudios sobre los
efectos que causa el trabajo
informático en la salud de los
operadores, capturistas o
programadores que tienen que utilizar
la computadora gran parte de su
tiempo productivo.
Las áreas de trabajo donde se aprecia más
la necesidad de computadoras son: las
ciencias; la administración y la economía; el
diseño, la manufactura y la ingeniería; la
ecología y el medio ambiente; la medicina; la
educación; aplicaciones militares; el arte y la
cultura; la distribución de mejores bienes de
consumo hasta regiones distantes del planeta;
la reducción de los precios de los servicios de
transporte internacional, etcétera.
Grupos y organizaciones de trabajadores de la informática, en los países
avanzados, han
luchado por conseguir que las empresas que los contratan les provean
de: aditamentos
especiales para descansar los brazos y las muñecas al usar el ratón;
teclados con
inclinaciones y posiciones naturales; pantallas protectoras de las
radiaciones de las
computadoras; brazos para colocar los monitores a las alturas adecuadas; luces
y ventanas
colocadas de manera perpendicular a la pantalla para evitar los reflejos, e
incluso, la
eliminación de los sistemas de control de sus actividades, ya sea por
computadora o
mediante cámaras de video, arguyendo que esto les causa problemas
emocionales y de
angustia.
Actualmente casi no podemos encontrar
una rama de la ciencia en donde no se
aplique la
tecnología informática. La computación ha
invadido, para bien, casi todas las
actividades
del ser humano, posibilitando la reducción
de precios de productos que antiguamente
se
realizaban por métodos manuales.