SlideShare una empresa de Scribd logo
1 de 8
La historia de la computación se
remonta a la época de la
aparición del hombre en la faz de
la tierra, y se origina en la
necesidad que tenía éste de
cuantificar a los miembros de su
tribu, los objetos que
poseía, etcétera.
Uno de los primeros artefactos
mecánicos de calcular que se
conoce es el ábaco, que aún
se sigue usando en algunos países
de oriente (Babilonia o China) de
donde es originario.
En los restos de un naufragio cerca de la
isla griega de Anticitera, entre Citera y
Creta, se
descubrió el Mecanismo de Antikythera. Se
calcula que data del año 87 a.C., y se
diseñó
para seguir el movimiento de los
cuerpos celestes; es la computadora
astronómica más
antigua del mundo.
En el siglo XV los Incas de Perú
usaban un sistema para contar y
comunicarse mediante
cuerdas con nudos que hacían las
veces de símbolos
mnemotécnicos, llamado Quipu.
En la India antigua, Pingala, autor del
libro Chhandah-shastra escrito en
sánscrito,
descubrió el número cero, representándolo
como un punto, unos tres siglos antes de
Cristo.
También describió el primer sistema
binario, que es la base de comunicación
de las
computadoras modernas.
El matemático persa Mohammed
ben Musa, padre del álgebra, en
su tratado de álgebra
enseña a resolver problemas de
la vida cotidiana mediante una
serie de pasos lógicos,
conocidos como algoritmo, en los
inicios del siglo IX.
El matemático escocés John Napier, basado en su
teoría de que todas las cifras numéricas
podían expresarse en forma exponencial, inventa
los logaritmos, que permiten reducir a
sumas y restas las operaciones de multiplicación y
división. También inventó unas tablas de
multiplicar movibles hechas con varillas de hueso
o marfil, conocidas como huesos de
Napier, que representan el antecedente de las reglas
de cálculo.
Después del descubrimiento del concepto y las
propiedades de los logaritmos naturales en
1614 por Napier, el matemático inglés Henry
Briggs (1561-1630), realizó su conversión a
la base decimal en 1617 (logaritmos
comunes o brigsianos.). En 1624 publicó en
su
Aritmética Logarítmica, las primeras tablas
logarítmicas naturales, que contenían los
logaritmos de 30,000 números naturales, con
14 decimales
El matemático inglés William Oughtred
utilizó las tablas logarítmicas recién
descubiertas,
para construir la primera regla de cálculo
circular analógica en 1621. La regla consistía
en círculos rotatorios con graduaciones
logarítmicas que permitían realizar cálculos
como
multiplicación, división, extracción de raíz
cuadrada, y trigonométricos.
El matemático inglés Sir Samuel Morland
(1625-1695) no es muy conocido en la historia
de la computación, pero construyó una
máquina de multiplicar mecánica inspirada en
los
huesos de Napier y en la calculadora de Blaise
Pascal, en 1666. El aparato constaba de
una serie de ruedas en donde se representaban
las unidades, decenas, centenas, etcétera
Wilhelm Schickard (1592-1635), científico
alemán, construyó lo que podemos
considerar
como la primera máquina mecánica de
calcular –basada en unas ruedas dentadas–
, que ya
podía efectuar las cuatro operaciones
aritméticas básicas:
suma, resta, multiplicación y
división.
A Blaise Pascal, es a quien se
le atribuye la invención de la
primera calculadora
automática llamada la “Pascalina”
en 1642.
El matemático alemán Gottfried
von Leibniz diseñó una
calculadora mecánica que ya
permitía multiplicar, dividir y
extraer raíz cuadrada mediante
sumas y restas sucesivas.
En 1801 el francés Joseph
Marie Jacquard (1752-1834)
construye su telar mecánico
basado en una lectora automática
de tarjetas perforadas.
Augusta Ada (1815-1853), hija del poeta
Lord Byron está considerada como la
primera
programadora pues escribió secuencias
de instrucciones en tarjetas
perforadas, inventó
métodos de programación como la
subrutina e introdujo en sus programas las
iteraciones y
el salto condicional.
En 1886, el Dr. Herman
Hollerith, estadístico empleado en
la oficina de censos de Estados
Unidos de
Norteamérica, desarrolló un
sistema basado en tarjetas
perforadas para codificar
los datos de la población en el
censo de 1890.
En Inglaterra, Charles Babbage, profesor
de matemáticas de la Universidad de
Cambridge,
diseña la “máquina diferencial”. En 1833
abandona el primer proyecto y se propone
realizar
el verdadero sueño de su vida: la “máquina
analítica”, que sería capaz de realizar
cualquier
tipo de cálculo de manera digital.
En 1854 el matemático inglés George Boole
publicó el libro Investigación de las leyes del
pensamiento, donde describe el álgebra de
Boole, que implica la aplicación de la lógica
simbólica a los procesos del
razonamiento, mediante símbolos
matemáticos que pueden
manipularse según reglas fijas que producen
resultados lógicos.
En 1892, el suizo Otto Steiger patentó
la primera calculadora
automática, basada en el
modelo de Leibniz, que tuvo éxito
comercial. Fue producida en serie entre
1895 y 1935 por
el ingeniero suizo Hans W. Egli, y
vendió unas 4,700 unidades con el
nombre de La
Millonaria.
Leonardo Torres Quevedo, ingeniero
español, inventó gran cantidad de
artefactos en los
campos de la automática y la aeronáutica.
En 1903 construyó el primer aparato de
radio
control llamado telekino, un autómata que
ejecutaba órdenes transmitidas mediante
ondas
hertzianas.
A principios del siglo XX, se dieron los grandes
descubrimientos, que permitieron la
creación de estas primeras computadoras. En esta época se
llevaron a cabo
descubrimientos tan importantes como el tubo de vacío (bulbo) de
tres elementos de Lee
De Forest (1873-1961), en 1906, que hizo posible la transmisión de
la radio en vivo; el flipflop o basculador de W. H. Eccles (1894-
1989) y F. W. Jordan, desarrollado en 1919, un
circuito biestable multivibrador que puede asumir uno de dos
estados en un momento dado,
y se compone de dos transistores o tubos de vacío conectados, de
manera que el circuito
representa una de dos condiciones estables, y muchos otros.
El matemático estadounidense
Claude E. Shannon, creador de
la moderna teoría de la
información, la define de la
siguiente manera: “Información
es todo lo que reduce la
incertidumbre entre diversas
alternativas posibles”.
También se llevan a cabo importantes sucesos como el
inicio de la International Business
Machines Corporation, IBM, en 1924; la creación de la
primera computadora analógica del
Dr. Vannevar Bush , investigador del Instituto Tecnológico
de Massachusetts,
en 1930, denominada como la analizadora
diferencial, porque se utilizaba para resolver
ecuaciones diferenciales; el desarrollo del primer programa
mecánico de Wallace J. Eckert; la creación del primer
modelo general de máquinas lógicas de Alan M.
Turing, denominado La máquina de Turing, y su
decodificadora utilizada para
descifrar las comunicaciones Nazis, conocida como Bomba.
Se comienza la construcción (inconclusa), de la primera
computadora electrónica digital del
Dr. John Vincent Atanasoff conocida como la Atanasoff-Berry
Computer,
ABC, que diseñó con la ayuda del brillante estudiante Clifford
E. Berry la
creación de la primera computadora de propósito general
controlada por programa del Dr.
Konrad Zuse bautizada como Z1 en 1939; la fundación de Hewlett-
Packard
en un garaje, en Palo Alto, California, ese mismo año; el
desarrollo en 1943 de la
computadora Colossus en las universidades de Oxford y
Cambridge, en Inglaterra, y
muchos adelantos más.
El descubrimiento de los nuevos dispositivos
electrónicos, los grandes avances de la
programación y el acelerado desarrollo de
los nuevos sistemas operativos, marcaron
fechas
que permiten identificar y clasificar a las
computadoras de acuerdo con sus
componentes y
con su capacidad de
procesamiento, agrupándolas por
generaciones.
Hay quienes ubican a la primera generación a partir
de 1937 o antes, relacionándola con los
primeros trabajos del Dr. Konrad Zuse y del Dr.
Howard H. Aiken; otros consideran 1951 como
el año de arranque de la computación, por
coincidencia con la aparición de la primera
computadora comercial, la UNIVAC. Por estos
motivos, las fechas en que se dieron los grandes
cambios tecnológicos son los parámetros que
determinan el comienzo y el fin de cada
generación.
Las computadoras de la primera generación (1946-1954)
se caracterizan por estar
constituidas de relevadores (relés) electromecánicos, o de
tubos de vacío, como la Mark I o
Automatic Sequenced Controlled Calculator, basada en la
máquina analítica de Babbage,
pesaba unas cinco toneladas, estaba constituida por 78
máquinas sumadoras conectadas
entre sí mediante 800 km de cable, contenía miles de
relevadores, recibía las instrucciones
por medio de cinta perforada de papel, y multiplicaba dos
números de 10 dígitos en tres
segundos aproximadamente.
La segunda generación de computadoras (1955-
1963) se caracteriza por la inclusión de
transistores. Utilizan tarjetas o cinta perforada
para la entrada de datos. La inclusión de
memorias de ferrita en estas computadoras hizo
posible que se redujeran de tamaño
considerablemente, reduciendo también su
consumo de energía eléctrica. Esto significó
una notable baja de la temperatura en su operación.
La ENIAC, (Electronic Numerical
Integrator and Calculator), incluía
aproximadamente 18
000 tubos de vacío. Fue terminada
hasta 1946, y su velocidad de
procesamiento permitía
efectuar alrededor de 500
multiplicaciones por segundo.
La EDVAC, (Electronic Discrete Variable
Automatic Computer), y la EDSAC (Electronic
Delay Storage Automatic Calculator), ya
incorporan las ideas sobre almacenamiento
de
programas en la memoria de la
computadora del Dr. John von
Neumann, científico
estadounidense originario de Hungría. En
1951 se desarrolla la UNIVAC (Universal
Automatic Computer).
El siguiente paso fue la integración a gran escala de
transistores en microcircuitos llamados
procesadores o circuitos integrados monolíticos LSI
(Large Scale Integration), así como la
proliferación de lenguajes de alto nivel y la
introducción de programas para facilitar el
control y la comunicación entre el usuario y la
computadora, denominados sistemas
operativos, que dieron paso a la tercera generación
(1964-1970).
La aparición del primer
microprocesador en 1971, fabricado
por Intel Corporation, que era
una pequeña compañía fabricante de
semiconductores ubicada en Silicon
Valley, marca el
inicio de la cuarta generación de
computadoras (1971-1981).
Cada vez se hace más difícil la identificación de las generaciones de
computadoras, porque
los grandes avances y nuevos descubrimientos ya no nos
sorprenden como sucedió a
mediados del siglo XX. Con base en los grandes acontecimientos
tecnológicos en materia
de microelectrónica y computación (software) como
CAD, CAM, CAE, CASE, inteligencia
artificial, sistemas expertos, redes neurales, teoría del
caos, algoritmos genéticos, fibras
ópticas, telecomunicaciones, etc., a mediados de la década de
los años ochenta se
establecieron las bases de lo que se puede considerar como la
quinta generación de
computadoras (1982-1995).
El hombre tardó miles de años en desarrollar las bases de las
matemáticas modernas y
miles más para llegar al desarrollo tecnológico que se conoce
en la actualidad, y que
avanza a pasos agigantados. Esto ha llevado a las sociedades
modernas a cambiar por
completo su mentalidad con respecto a la utilización de la
herramienta más difundida en el
mundo: la computadora. A menos de cincuenta años de su
aparición de manera comercial,
las computadoras han invadido la mayoría de las labores del ser
humano. Actualmente no
se puede pensar en casi ninguna actividad en la cual no intervengan
de alguna manera los
procesos de cómputo
Hay que mencionar dos grandes avances
tecnológicos, que quizás sirvan como parámetro
para el inicio de la quinta generación: la creación en
1982 de la primera supercomputadora
con capacidad de proceso paralelo, diseñada por
Seymouy Cray y el anuncio por parte del
gobierno japonés del proyecto “quinta
generación”, que según se estableció en el acuerdo
con seis de las más grandes empresas japonesas
de computación, debería terminar en
1992.
Las computadoras se clasifican de
acuerdo a su tamaño, poder de
cómputo, capacidad de
memoria y almacenamiento, como
macrocomputadoras, minicomputador
as,
supercomputadoras y
microcomputadoras o computadoras
personales.
El mundo está cambiando y usted deberá
aprender todas esas tecnologías modernas
para
poder conseguir un empleo mejor
retribuido y quizás, en poco
tiempo, realizar trabajos
desde la comodidad de su hogar mediante el
teletrabajo, reduciendo el tráfico en las calles
y por ende la contaminación de las grandes
ciudades.
La nueva tecnología informática
está cambiando nuestras vidas.
Es necesario conocerla
para no quedar inmersos en una
nueva forma de analfabetismo
Se debe adoptar una serie de
normas éticas que regulen la
convivencia pacífica y cordial
entre los millones de personas
que tienen que utilizar estas
avanzadas tecnologías para
realizar su
trabajo, estudio, descanso y
esparcimiento diarios.
Se abre un campo muy amplio para los
futuros abogados, que tendrán que
aprender mucho
acerca de la tecnología informática para
poder legislar y hacer valer las leyes y el
derecho a
la intimidad, que se viola
constantemente al compartir información
mediante Internet, el
correo electrónico y las redes sociales.
Es necesario aprender y utilizar técnicas de
prevención, mantenimiento y seguridad para
los equipos y programas que involucran a las
computadoras. Actualmente se utilizan
esquemas de seguridad basados en claves o
passwords para la protección de accesos a
las computadoras y a las redes. También se han
creado algoritmos de encripción o
encriptamiento que permiten codificar la
información para que sólo el destinatario pueda
recibirla –mediante una clave secreta– en una forma
entendible.
Se han diseñado sistemas físicos de
seguridad como las tarjetas
“inteligentes”, que
incluyen un chip de protección con los
datos del usuario, y firewals, que son una
especie
de compuertas de protección para las
conexiones entre las redes empresariales y
las redes
públicas como Internet.
La ergonomía” (ergonomics) se define como “el
estudio de la capacidad y psicología
humanas en relación con el ambiente de trabajo y el
equipo manejados por el trabajador”, o
“el estudio de cómo diseñar el equipo que afecta el
qué tan bien puede realizar la gente su
trabajo”. Prácticamente se puede decir que la
ergonomía se encarga de la relación de
eficiencia y salud entre el hombre, y su ambiente y
herramientas de trabajo.
Muchas empresas fabricantes de equipos y
mobiliario para oficinas computadorizadas
ofrecen un sinnúmero de aditamentos y
sistemas de protección para prevenir los riesgos
y
molestias causados en las largas horas que pasa
un usuario frente a su monitor o debido a
las prolongadas sesiones de trabajo al teclear
una gran cantidad de texto o dibujar en una
misma posición pulsando el ratón durante
muchas horas.
Diversas asociaciones de salud de
todos los países han realizado
estudios sobre los
efectos que causa el trabajo
informático en la salud de los
operadores, capturistas o
programadores que tienen que utilizar
la computadora gran parte de su
tiempo productivo.
Las áreas de trabajo donde se aprecia más
la necesidad de computadoras son: las
ciencias; la administración y la economía; el
diseño, la manufactura y la ingeniería; la
ecología y el medio ambiente; la medicina; la
educación; aplicaciones militares; el arte y la
cultura; la distribución de mejores bienes de
consumo hasta regiones distantes del planeta;
la reducción de los precios de los servicios de
transporte internacional, etcétera.
Grupos y organizaciones de trabajadores de la informática, en los países
avanzados, han
luchado por conseguir que las empresas que los contratan les provean
de: aditamentos
especiales para descansar los brazos y las muñecas al usar el ratón;
teclados con
inclinaciones y posiciones naturales; pantallas protectoras de las
radiaciones de las
computadoras; brazos para colocar los monitores a las alturas adecuadas; luces
y ventanas
colocadas de manera perpendicular a la pantalla para evitar los reflejos, e
incluso, la
eliminación de los sistemas de control de sus actividades, ya sea por
computadora o
mediante cámaras de video, arguyendo que esto les causa problemas
emocionales y de
angustia.
Actualmente casi no podemos encontrar
una rama de la ciencia en donde no se
aplique la
tecnología informática. La computación ha
invadido, para bien, casi todas las
actividades
del ser humano, posibilitando la reducción
de precios de productos que antiguamente
se
realizaban por métodos manuales.

Más contenido relacionado

La actualidad más candente

La actualidad más candente (19)

Presentación1
Presentación1Presentación1
Presentación1
 
Presentación1 111
Presentación1 111Presentación1 111
Presentación1 111
 
Arely jacqueline de luna.doc
Arely jacqueline de luna.docArely jacqueline de luna.doc
Arely jacqueline de luna.doc
 
Linea de tiempo
Linea de tiempoLinea de tiempo
Linea de tiempo
 
Línea del tiempo
Línea del tiempoLínea del tiempo
Línea del tiempo
 
Linea pp
Linea ppLinea pp
Linea pp
 
Evolucion
EvolucionEvolucion
Evolucion
 
linea del tiempo
linea del tiempolinea del tiempo
linea del tiempo
 
Presentación1
Presentación1Presentación1
Presentación1
 
Linea de tiempo1
Linea de tiempo1Linea de tiempo1
Linea de tiempo1
 
tarea de computo
tarea de computotarea de computo
tarea de computo
 
Linea de tiempo1
Linea de tiempo1Linea de tiempo1
Linea de tiempo1
 
Linea de tiempo
Linea de tiempoLinea de tiempo
Linea de tiempo
 
la creacion de computadoras
la creacion de computadorasla creacion de computadoras
la creacion de computadoras
 
Linea del tiempo 1 sem c
Linea del tiempo 1 sem cLinea del tiempo 1 sem c
Linea del tiempo 1 sem c
 
Linea del tiempo
Linea del tiempoLinea del tiempo
Linea del tiempo
 
Historia de-la-informatica
Historia de-la-informaticaHistoria de-la-informatica
Historia de-la-informatica
 
Linea de tiempo
Linea de tiempoLinea de tiempo
Linea de tiempo
 
Manualdearmadodecomputadores
ManualdearmadodecomputadoresManualdearmadodecomputadores
Manualdearmadodecomputadores
 

Similar a Linea del tiempo - Betza

Antecedentes de la informatica
Antecedentes de la informaticaAntecedentes de la informatica
Antecedentes de la informaticapaulinnitta
 
El computador, su evolución y las distintas generaciones.
El computador, su evolución y las distintas generaciones. El computador, su evolución y las distintas generaciones.
El computador, su evolución y las distintas generaciones. lorennys12
 
Antecedentes historicos del computador
Antecedentes historicos del computadorAntecedentes historicos del computador
Antecedentes historicos del computadorJuanVasquezGonzales
 
historia de la computacion
historia de la computacionhistoria de la computacion
historia de la computacionguest60c3e6
 
Historia de la computación
Historia de la computaciónHistoria de la computación
Historia de la computaciónnayely lopez
 
Historia de la computadora
Historia de la computadoraHistoria de la computadora
Historia de la computadoranayely lopez
 
Historia de la computación
Historia de la computaciónHistoria de la computación
Historia de la computaciónnayely lopez
 

Similar a Linea del tiempo - Betza (13)

Antecedentes de la informatica
Antecedentes de la informaticaAntecedentes de la informatica
Antecedentes de la informatica
 
Línea del tiempo
Línea del tiempoLínea del tiempo
Línea del tiempo
 
Martha
MarthaMartha
Martha
 
El computador, su evolución y las distintas generaciones.
El computador, su evolución y las distintas generaciones. El computador, su evolución y las distintas generaciones.
El computador, su evolución y las distintas generaciones.
 
Historia
Historia Historia
Historia
 
Antecedentes historicos del computador
Antecedentes historicos del computadorAntecedentes historicos del computador
Antecedentes historicos del computador
 
Presentación1
Presentación1Presentación1
Presentación1
 
Historia de-la-informatica
Historia de-la-informaticaHistoria de-la-informatica
Historia de-la-informatica
 
Primer
PrimerPrimer
Primer
 
historia de la computacion
historia de la computacionhistoria de la computacion
historia de la computacion
 
Historia de la computación
Historia de la computaciónHistoria de la computación
Historia de la computación
 
Historia de la computadora
Historia de la computadoraHistoria de la computadora
Historia de la computadora
 
Historia de la computación
Historia de la computaciónHistoria de la computación
Historia de la computación
 

Linea del tiempo - Betza

  • 1. La historia de la computación se remonta a la época de la aparición del hombre en la faz de la tierra, y se origina en la necesidad que tenía éste de cuantificar a los miembros de su tribu, los objetos que poseía, etcétera. Uno de los primeros artefactos mecánicos de calcular que se conoce es el ábaco, que aún se sigue usando en algunos países de oriente (Babilonia o China) de donde es originario. En los restos de un naufragio cerca de la isla griega de Anticitera, entre Citera y Creta, se descubrió el Mecanismo de Antikythera. Se calcula que data del año 87 a.C., y se diseñó para seguir el movimiento de los cuerpos celestes; es la computadora astronómica más antigua del mundo. En el siglo XV los Incas de Perú usaban un sistema para contar y comunicarse mediante cuerdas con nudos que hacían las veces de símbolos mnemotécnicos, llamado Quipu. En la India antigua, Pingala, autor del libro Chhandah-shastra escrito en sánscrito, descubrió el número cero, representándolo como un punto, unos tres siglos antes de Cristo. También describió el primer sistema binario, que es la base de comunicación de las computadoras modernas. El matemático persa Mohammed ben Musa, padre del álgebra, en su tratado de álgebra enseña a resolver problemas de la vida cotidiana mediante una serie de pasos lógicos, conocidos como algoritmo, en los inicios del siglo IX.
  • 2. El matemático escocés John Napier, basado en su teoría de que todas las cifras numéricas podían expresarse en forma exponencial, inventa los logaritmos, que permiten reducir a sumas y restas las operaciones de multiplicación y división. También inventó unas tablas de multiplicar movibles hechas con varillas de hueso o marfil, conocidas como huesos de Napier, que representan el antecedente de las reglas de cálculo. Después del descubrimiento del concepto y las propiedades de los logaritmos naturales en 1614 por Napier, el matemático inglés Henry Briggs (1561-1630), realizó su conversión a la base decimal en 1617 (logaritmos comunes o brigsianos.). En 1624 publicó en su Aritmética Logarítmica, las primeras tablas logarítmicas naturales, que contenían los logaritmos de 30,000 números naturales, con 14 decimales El matemático inglés William Oughtred utilizó las tablas logarítmicas recién descubiertas, para construir la primera regla de cálculo circular analógica en 1621. La regla consistía en círculos rotatorios con graduaciones logarítmicas que permitían realizar cálculos como multiplicación, división, extracción de raíz cuadrada, y trigonométricos. El matemático inglés Sir Samuel Morland (1625-1695) no es muy conocido en la historia de la computación, pero construyó una máquina de multiplicar mecánica inspirada en los huesos de Napier y en la calculadora de Blaise Pascal, en 1666. El aparato constaba de una serie de ruedas en donde se representaban las unidades, decenas, centenas, etcétera Wilhelm Schickard (1592-1635), científico alemán, construyó lo que podemos considerar como la primera máquina mecánica de calcular –basada en unas ruedas dentadas– , que ya podía efectuar las cuatro operaciones aritméticas básicas: suma, resta, multiplicación y división. A Blaise Pascal, es a quien se le atribuye la invención de la primera calculadora automática llamada la “Pascalina” en 1642.
  • 3. El matemático alemán Gottfried von Leibniz diseñó una calculadora mecánica que ya permitía multiplicar, dividir y extraer raíz cuadrada mediante sumas y restas sucesivas. En 1801 el francés Joseph Marie Jacquard (1752-1834) construye su telar mecánico basado en una lectora automática de tarjetas perforadas. Augusta Ada (1815-1853), hija del poeta Lord Byron está considerada como la primera programadora pues escribió secuencias de instrucciones en tarjetas perforadas, inventó métodos de programación como la subrutina e introdujo en sus programas las iteraciones y el salto condicional. En 1886, el Dr. Herman Hollerith, estadístico empleado en la oficina de censos de Estados Unidos de Norteamérica, desarrolló un sistema basado en tarjetas perforadas para codificar los datos de la población en el censo de 1890. En Inglaterra, Charles Babbage, profesor de matemáticas de la Universidad de Cambridge, diseña la “máquina diferencial”. En 1833 abandona el primer proyecto y se propone realizar el verdadero sueño de su vida: la “máquina analítica”, que sería capaz de realizar cualquier tipo de cálculo de manera digital. En 1854 el matemático inglés George Boole publicó el libro Investigación de las leyes del pensamiento, donde describe el álgebra de Boole, que implica la aplicación de la lógica simbólica a los procesos del razonamiento, mediante símbolos matemáticos que pueden manipularse según reglas fijas que producen resultados lógicos.
  • 4. En 1892, el suizo Otto Steiger patentó la primera calculadora automática, basada en el modelo de Leibniz, que tuvo éxito comercial. Fue producida en serie entre 1895 y 1935 por el ingeniero suizo Hans W. Egli, y vendió unas 4,700 unidades con el nombre de La Millonaria. Leonardo Torres Quevedo, ingeniero español, inventó gran cantidad de artefactos en los campos de la automática y la aeronáutica. En 1903 construyó el primer aparato de radio control llamado telekino, un autómata que ejecutaba órdenes transmitidas mediante ondas hertzianas. A principios del siglo XX, se dieron los grandes descubrimientos, que permitieron la creación de estas primeras computadoras. En esta época se llevaron a cabo descubrimientos tan importantes como el tubo de vacío (bulbo) de tres elementos de Lee De Forest (1873-1961), en 1906, que hizo posible la transmisión de la radio en vivo; el flipflop o basculador de W. H. Eccles (1894- 1989) y F. W. Jordan, desarrollado en 1919, un circuito biestable multivibrador que puede asumir uno de dos estados en un momento dado, y se compone de dos transistores o tubos de vacío conectados, de manera que el circuito representa una de dos condiciones estables, y muchos otros. El matemático estadounidense Claude E. Shannon, creador de la moderna teoría de la información, la define de la siguiente manera: “Información es todo lo que reduce la incertidumbre entre diversas alternativas posibles”. También se llevan a cabo importantes sucesos como el inicio de la International Business Machines Corporation, IBM, en 1924; la creación de la primera computadora analógica del Dr. Vannevar Bush , investigador del Instituto Tecnológico de Massachusetts, en 1930, denominada como la analizadora diferencial, porque se utilizaba para resolver ecuaciones diferenciales; el desarrollo del primer programa mecánico de Wallace J. Eckert; la creación del primer modelo general de máquinas lógicas de Alan M. Turing, denominado La máquina de Turing, y su decodificadora utilizada para descifrar las comunicaciones Nazis, conocida como Bomba. Se comienza la construcción (inconclusa), de la primera computadora electrónica digital del Dr. John Vincent Atanasoff conocida como la Atanasoff-Berry Computer, ABC, que diseñó con la ayuda del brillante estudiante Clifford E. Berry la creación de la primera computadora de propósito general controlada por programa del Dr. Konrad Zuse bautizada como Z1 en 1939; la fundación de Hewlett- Packard en un garaje, en Palo Alto, California, ese mismo año; el desarrollo en 1943 de la computadora Colossus en las universidades de Oxford y Cambridge, en Inglaterra, y muchos adelantos más.
  • 5. El descubrimiento de los nuevos dispositivos electrónicos, los grandes avances de la programación y el acelerado desarrollo de los nuevos sistemas operativos, marcaron fechas que permiten identificar y clasificar a las computadoras de acuerdo con sus componentes y con su capacidad de procesamiento, agrupándolas por generaciones. Hay quienes ubican a la primera generación a partir de 1937 o antes, relacionándola con los primeros trabajos del Dr. Konrad Zuse y del Dr. Howard H. Aiken; otros consideran 1951 como el año de arranque de la computación, por coincidencia con la aparición de la primera computadora comercial, la UNIVAC. Por estos motivos, las fechas en que se dieron los grandes cambios tecnológicos son los parámetros que determinan el comienzo y el fin de cada generación. Las computadoras de la primera generación (1946-1954) se caracterizan por estar constituidas de relevadores (relés) electromecánicos, o de tubos de vacío, como la Mark I o Automatic Sequenced Controlled Calculator, basada en la máquina analítica de Babbage, pesaba unas cinco toneladas, estaba constituida por 78 máquinas sumadoras conectadas entre sí mediante 800 km de cable, contenía miles de relevadores, recibía las instrucciones por medio de cinta perforada de papel, y multiplicaba dos números de 10 dígitos en tres segundos aproximadamente. La segunda generación de computadoras (1955- 1963) se caracteriza por la inclusión de transistores. Utilizan tarjetas o cinta perforada para la entrada de datos. La inclusión de memorias de ferrita en estas computadoras hizo posible que se redujeran de tamaño considerablemente, reduciendo también su consumo de energía eléctrica. Esto significó una notable baja de la temperatura en su operación. La ENIAC, (Electronic Numerical Integrator and Calculator), incluía aproximadamente 18 000 tubos de vacío. Fue terminada hasta 1946, y su velocidad de procesamiento permitía efectuar alrededor de 500 multiplicaciones por segundo. La EDVAC, (Electronic Discrete Variable Automatic Computer), y la EDSAC (Electronic Delay Storage Automatic Calculator), ya incorporan las ideas sobre almacenamiento de programas en la memoria de la computadora del Dr. John von Neumann, científico estadounidense originario de Hungría. En 1951 se desarrolla la UNIVAC (Universal Automatic Computer).
  • 6. El siguiente paso fue la integración a gran escala de transistores en microcircuitos llamados procesadores o circuitos integrados monolíticos LSI (Large Scale Integration), así como la proliferación de lenguajes de alto nivel y la introducción de programas para facilitar el control y la comunicación entre el usuario y la computadora, denominados sistemas operativos, que dieron paso a la tercera generación (1964-1970). La aparición del primer microprocesador en 1971, fabricado por Intel Corporation, que era una pequeña compañía fabricante de semiconductores ubicada en Silicon Valley, marca el inicio de la cuarta generación de computadoras (1971-1981). Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación (software) como CAD, CAM, CAE, CASE, inteligencia artificial, sistemas expertos, redes neurales, teoría del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a mediados de la década de los años ochenta se establecieron las bases de lo que se puede considerar como la quinta generación de computadoras (1982-1995). El hombre tardó miles de años en desarrollar las bases de las matemáticas modernas y miles más para llegar al desarrollo tecnológico que se conoce en la actualidad, y que avanza a pasos agigantados. Esto ha llevado a las sociedades modernas a cambiar por completo su mentalidad con respecto a la utilización de la herramienta más difundida en el mundo: la computadora. A menos de cincuenta años de su aparición de manera comercial, las computadoras han invadido la mayoría de las labores del ser humano. Actualmente no se puede pensar en casi ninguna actividad en la cual no intervengan de alguna manera los procesos de cómputo Hay que mencionar dos grandes avances tecnológicos, que quizás sirvan como parámetro para el inicio de la quinta generación: la creación en 1982 de la primera supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy Cray y el anuncio por parte del gobierno japonés del proyecto “quinta generación”, que según se estableció en el acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar en 1992. Las computadoras se clasifican de acuerdo a su tamaño, poder de cómputo, capacidad de memoria y almacenamiento, como macrocomputadoras, minicomputador as, supercomputadoras y microcomputadoras o computadoras personales.
  • 7. El mundo está cambiando y usted deberá aprender todas esas tecnologías modernas para poder conseguir un empleo mejor retribuido y quizás, en poco tiempo, realizar trabajos desde la comodidad de su hogar mediante el teletrabajo, reduciendo el tráfico en las calles y por ende la contaminación de las grandes ciudades. La nueva tecnología informática está cambiando nuestras vidas. Es necesario conocerla para no quedar inmersos en una nueva forma de analfabetismo Se debe adoptar una serie de normas éticas que regulen la convivencia pacífica y cordial entre los millones de personas que tienen que utilizar estas avanzadas tecnologías para realizar su trabajo, estudio, descanso y esparcimiento diarios. Se abre un campo muy amplio para los futuros abogados, que tendrán que aprender mucho acerca de la tecnología informática para poder legislar y hacer valer las leyes y el derecho a la intimidad, que se viola constantemente al compartir información mediante Internet, el correo electrónico y las redes sociales. Es necesario aprender y utilizar técnicas de prevención, mantenimiento y seguridad para los equipos y programas que involucran a las computadoras. Actualmente se utilizan esquemas de seguridad basados en claves o passwords para la protección de accesos a las computadoras y a las redes. También se han creado algoritmos de encripción o encriptamiento que permiten codificar la información para que sólo el destinatario pueda recibirla –mediante una clave secreta– en una forma entendible. Se han diseñado sistemas físicos de seguridad como las tarjetas “inteligentes”, que incluyen un chip de protección con los datos del usuario, y firewals, que son una especie de compuertas de protección para las conexiones entre las redes empresariales y las redes públicas como Internet.
  • 8. La ergonomía” (ergonomics) se define como “el estudio de la capacidad y psicología humanas en relación con el ambiente de trabajo y el equipo manejados por el trabajador”, o “el estudio de cómo diseñar el equipo que afecta el qué tan bien puede realizar la gente su trabajo”. Prácticamente se puede decir que la ergonomía se encarga de la relación de eficiencia y salud entre el hombre, y su ambiente y herramientas de trabajo. Muchas empresas fabricantes de equipos y mobiliario para oficinas computadorizadas ofrecen un sinnúmero de aditamentos y sistemas de protección para prevenir los riesgos y molestias causados en las largas horas que pasa un usuario frente a su monitor o debido a las prolongadas sesiones de trabajo al teclear una gran cantidad de texto o dibujar en una misma posición pulsando el ratón durante muchas horas. Diversas asociaciones de salud de todos los países han realizado estudios sobre los efectos que causa el trabajo informático en la salud de los operadores, capturistas o programadores que tienen que utilizar la computadora gran parte de su tiempo productivo. Las áreas de trabajo donde se aprecia más la necesidad de computadoras son: las ciencias; la administración y la economía; el diseño, la manufactura y la ingeniería; la ecología y el medio ambiente; la medicina; la educación; aplicaciones militares; el arte y la cultura; la distribución de mejores bienes de consumo hasta regiones distantes del planeta; la reducción de los precios de los servicios de transporte internacional, etcétera. Grupos y organizaciones de trabajadores de la informática, en los países avanzados, han luchado por conseguir que las empresas que los contratan les provean de: aditamentos especiales para descansar los brazos y las muñecas al usar el ratón; teclados con inclinaciones y posiciones naturales; pantallas protectoras de las radiaciones de las computadoras; brazos para colocar los monitores a las alturas adecuadas; luces y ventanas colocadas de manera perpendicular a la pantalla para evitar los reflejos, e incluso, la eliminación de los sistemas de control de sus actividades, ya sea por computadora o mediante cámaras de video, arguyendo que esto les causa problemas emocionales y de angustia. Actualmente casi no podemos encontrar una rama de la ciencia en donde no se aplique la tecnología informática. La computación ha invadido, para bien, casi todas las actividades del ser humano, posibilitando la reducción de precios de productos que antiguamente se realizaban por métodos manuales.