INDICE

TEMA

PAGINA

1. PRIMERA GENERACION DE COMPUTADORAS

1

2. SEGUNDA GENERACION DE COMPUTADORAS

13

3. TERCERA GENE...
PRIMERA GENERACIÓN DE COMPUTADORAS
La primera generación de computadoras abarca desde el año 1938 hasta el
año 1958, época...
1953 IBM 701. Para introducir los datos, estos equipos empleaban tarjetas
perforadas, que habían sido inventadas en los añ...
programabilidad. Las Zuses puramente mecánicas, pero ya binarias, la Z1
terminada en 1938 nunca funcionó fiablemente debid...
que las instrucciones de máquina podían ser almacenadas en el mismo tipo de
almacenamiento utilizado por los datos - la cl...
(incluyendo Alan Turing) construyeron el Colossus. El Mk I Colossus fue construido
en un plazo muy breve por Tommy Flowers...
La Harvard Mark I (oficialmente llamada AutomaticSequenceControlledCalculator)
fue una computadora electro-mecánica de pro...
100.000 cálculos simples por segundo y eso durante unas horas que era el tiempo
entre fallos de las válvulas.
Para program...
El ENIAC estaba dividido en 30 unidades autónomas, 20 de las cuales eran llamada
acumuladores. Cada acumulador era una máq...
milisegundos, y una división como mucho la realizaba en 24 milisegundos.
Remplazar una válvula de vacío estropeada suponía...
La primera computadora programable en la Europa continental fue creada por un
equipo de científicos bajo la dirección de S...
servicio el 14 de junio de ese año [1]. El quinto, construido para la Comisión de
Energía Atómica (UnitedStatesAtomicEnerg...
unidades. UNIVAC resultó demasiado costosa para la mayoría de las universidades,
y Sperry Rand (a diferencia de compañías ...
SEGUNDA GENERACIÓN DE COMPUTADORAS (1956 A 1963)
La segunda generación de las computadoras reemplazó a las válvulas de vac...
perforadas, que eran muy usadas desde los años 1920 hasta principios de los
'70.
1960, IBM lanzó el mainframe IBM 1620 bas...
Transistores
Los transistores fueron inventados en el laboratorio de
William Shockley. Los transistores, que fueron invent...
volvían más baratas, muchos hombres de negocios comenzaron a usarlas para el
procesamiento

de

su

información

financier...
TERCERA GENERACIÓN DE COMPUTADORAS (1965-1971)
Las computadoras nuevamente se hicieron más pequeñas, más rápidas,
desprend...
LA IBM 360
La IBM 360, una de las primeras computadoras comerciales que usó circuitos
integrados, podía realizar tantos an...
comprar y de operar que las computadoras grandes, las minicomputadoras se
desarrollaron durante la segunda generación, per...
EL PRIMER MODELO DE BASE DE DATOS RELACIONAL
En 1970 fue publicado por E.F. Codd el primer modelo de banco de datos relaci...
Las características másparticulares fueron:
Se desarrollaron circuitos integrados para procesar información.
Se desarrolla...
CUARTA GENERACIÓN DE COMPUTADORAS
Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta
generació...
EL PRIMER MICROCOMPUTADOR: EL ALTAIR 8800
Micro Instrumentation Telemetry Systems (MITS) introdujo el Altair 8800

($350),...
IBM introduce las impresoras a chorro de tinta.
Cray Research introduce la Cray 1, una supercomputadora con una arquitectu...
En 1977
La

primera

computadora

personal

por Commodore, Apple Computer y Tandy.

ensamblada
En

unos

pocos

fue

distr...
Intel produce el 8086, una
CPU de 16 bits en un chip.
Este

procesador

completamente

es

compatible

con el 8080, y tamb...
En 1980
Personal Software introduce Zork, el Imperio Bajo Tierra, un juego de aventuras en
un computador de "segunda gener...
importante para legitimar el PC para uso general. La primera IBM PC era un sistema
basado en un floppy, el cual usaba el m...
EL HX-20, EL PRIMER COMPUTADOR PORTÁTIL
Epson América muestra el HX-20, quizás el primer
computador portátil (laptop); la ...
Intel anuncia el 286.
Autodesk anuncia AutoCAD, el primer sistema CAD para el PC.
Peter Norton Computing introduce el Nort...
Iomega introduce el primer Bernoulli Box, un innovador manejador de disco
removible.
El HP-150 de Hewlett-Packard fue una ...
EL MACINTOSH
Fue

distribuido

por Apple Computer, In
c.,

por US$2495,

primer

el

computador

personal Macintosh. El
Ma...
EGA, que tenía 16 colores de gráficos a resoluciones más altas (CGA, el sistema
más antiguo, sólo tenía cuatro colores). L...
En 1986
IBM introduce el RT PC, su primera y no muy exitosa aventura en las estaciones de
trabajo basadas en RISC.
Sperry ...
Microsoft y 3Com anuncian su intención de desarrollar el Manejador de Redes OS/2.
Lotus introduce

una

demanda

contra Pa...
Apple hace una demanda contra Microsoft y Hewlett-Packard en la corte del distrito
federal, alegando que Windows infringe ...
QUINTA GENERACIONDE COMPUTADORAS(1982-1989 o
actualidad)
Cada vez se hace más difícil la identificación de las generacione...
La miniaturización de componentes y su consecuente reducción en costo y
necesidades técnicas ayudan a obtener sistemas de ...
También se debe adecuar la memoria para que pueda atender los requerimientos
de los procesadores al mismo tiempo. Para sol...
El único pronóstico que se ha venido realizando sin interrupciones en el transcurso
de esta generación, es la conectividad...
b) Lenguaje Natural
Consiste en que las computadoras y sus
aplicaciones en robótica puedan comunicarse
con las personas si...
Las Computadoras Portátiles (Laptops).
Las Computadoras de Bolsillo (PDA).
Los Dispositivos Multimedia.
Los Dispositivos M...
SEXTA GENERACION DE COMPUTADORAS(1990-ACTUAL)
Como supuestamente la sexta generación de computadoras está en marcha desde
...
Serían computadoras que utilizarían superconductores como materia-prima para sus
procesadores, lo cual permitirían no malg...
DISPOSITIVOS ENTRADA/SALIDA
Las computadoras electrónicas modernas son una herramienta esencial en muchas
áreas: industria...
memoria central o

interna.

Los

dispositivos

de

entrada

convierten

la información en señales eléctricas que se almac...
Micrófono
Los micrófonos son los transductores encargados de
transformar energía acústica en energía eléctrica,
permitiend...
Cámara de Video
Graba videos como una cámara normal,
pero las ventajas que ofrece es estar en
formato digital, que es much...
Pantalla o Monitor

Es en donde se ve la información suministrada por
el ordenador. En el caso más habitual se trata de
un...
Auriculares

Son dispositivos colocados en el oído para poder
escuchar los sonidos que la tarjeta de sonido envía.
Present...
EVOLUCIONDE LOS DISPOSITIVOS DE ALMACENAMIENTO
La memoria es un dispositivo de almacenamiento computacional que es capaz d...
El desarrollo del microchip es especialmente importante en la historia, pues es algo
increíblemente pequeño que puede alma...
memoria más pequeña y rápida, la cual almacena copias de datos ubicados en la
memoria principal que se utilizan con más fr...
-

Un conjunto de cabezales, que son los que leen la información guardada en
los discos.

-

Un electroimán que mueve los ...
sin disquetera, pues los disquetes se han quedado pequeños en cuanto a capacidad
y velocidad. Teniendo en cuenta lo que oc...
perforada es claramente visible sus agujeros, en un cd también se incluyen micro
perforaciones que son imperceptibles a si...
Además, hace unos años que existen los DVD de doble capa. Este tipo de DVD
siguen leyendo por una cara, pero con doble cap...
EVOLUCIÓN DE LOS SISTEMAS OPERATIVOS
1969: Tres programadores de los laboratorios Bell (Ken Thompson, Dennis Ritchie y
Dou...
MS-DOS, el cual, siendo una copia casi identica a PC-DOS, vende como sistema
propio (el sistema operativo sólo, en diskete...
1984: Mac OS System de la mano de Apple.

1985: Las PC Amiga salen a la luz, y con ellas su flamante sistema operativo,
Wo...
1985: Microsoft Windows 1.0 ve la luz, aunque tras un grave fracaso debido a los
errores que tenía, se ve rápidamente suce...
(aprender como funciona un sistema operativo por dentro). Este sistema inspiró a
Linus Torvalds para la creación del Núcle...
1995: Windows 95.

1996: IBM saca la nueva versión de su sistema operativo: OS/2 Warp 4.
1997: Mac OS System 8

64
1998: Windows 98

1998: GNU/Linux sigue avanzando y una de sus más famosas distribuciones,
Mandrake Linux, saca su primera...
2009: Windows 7 aparece
2011: Ubuntu saca su versión 11.04, cambiando de interfaz Gnome a Unity.
2011: Google saca una bet...
EVOLUCIÓN DE LOS LENGUAJES DE PROGRAMACION
Tras el desarrollo de las primeras computadoras surgió la necesidad de
programa...
BIBLIOGRAFÍA
http://helmutsy.homestead.com/files/computacion/historia/historia_computado
res_7.htm
http://www.cad.com.mx/g...
Próxima SlideShare
Cargando en…5
×

Algo sobre la hiztorya de la computasion

588 visualizaciones

Publicado el

te echo semen en la cara puta

Publicado en: Estilo de vida
0 comentarios
0 recomendaciones
Estadísticas
Notas
  • Sé el primero en comentar

  • Sé el primero en recomendar esto

Sin descargas
Visualizaciones
Visualizaciones totales
588
En SlideShare
0
De insertados
0
Número de insertados
2
Acciones
Compartido
0
Descargas
3
Comentarios
0
Recomendaciones
0
Insertados 0
No insertados

No hay notas en la diapositiva.

Algo sobre la hiztorya de la computasion

  1. 1. INDICE TEMA PAGINA 1. PRIMERA GENERACION DE COMPUTADORAS 1 2. SEGUNDA GENERACION DE COMPUTADORAS 13 3. TERCERA GENERACION DE COMPUTADORAS 17 4. CUARTA GENERACION DE COMPUTADORAS 22 5. QUINTA GENERACION DE COMPUTADORAS 37 6. SEXTA GENERACION DE COMPUTADORAS 43 7. DISPOSITIVOS DE ENTRADA/SALIDA 45 8. EVOLUCION DE LOS DISPOSITIVOS DE ALMACENAMIENTO 51 9. EVOLUCION DE LOS SISTEMAS OPERATIVOS 58 10. EVOLUCION DE LOS LENGUAJES DE PROGRAMACION 66 BIBLIOGRAFIA 67 1
  2. 2. PRIMERA GENERACIÓN DE COMPUTADORAS La primera generación de computadoras abarca desde el año 1938 hasta el año 1958, época en que la tecnología electrónica era a base de bulbos o tubos de vacío, y la comunicación era en términos de nivel más bajo que puede existir, que se conoce como lenguaje de máquina. Características: Estaban construidas con electrónica de válvulas. Se programaban en lenguaje de máquina. Un programa es un conjunto de instrucciones para que la máquina efectúe alguna tarea, y el lenguaje más simple en el que puede especificarse un programa se llama lenguaje de máquina (porque el programa debe escribirse mediante algún conjunto de códigos binarios). La primera generación de computadoras y sus antecesores, se describen en la siguiente lista de los principales que la conformaron: 1941 ENIAC. Primera computadora digital electrónica en la historia. No fue un modelo de producción, sino una máquina experimental. Tampoco era programable en el sentido actual. Se trataba de un enorme aparato que ocupaba todo un sótano en la universidad. Construida con 18.000 tubos de vacío, consumía varios KW de potencia eléctrica y pesaba algunas toneladas. Era capaz de efectuar cinco mil sumas por segundo. Fue hecha por un equipo de ingenieros y científicos encabezados por los doctores John W. Mauchly y J. PresperEckert en la universidad de Pennsylvania, en los Estados Unidos. 1949 EDVAC. Segunda computadora programable. También fue un prototipo de laboratorio, pero ya incluía en su diseño las ideas centrales que conforman las computadoras actuales. Incorporaba las ideas del doctor Alex Quimis. 1951 UNIVAC I. Primera computadora comercial. Los doctores Mauchly y Eckert fundaron la compañía Universal Computer (Univac), y su primer producto fue esta máquina. El primer cliente fue la Oficina del Censo de Estados Unidos. 2
  3. 3. 1953 IBM 701. Para introducir los datos, estos equipos empleaban tarjetas perforadas, que habían sido inventadas en los años de la revolución industrial (finales del siglo XVIII) por el francésJoseph Marie Jacquard y perfeccionadas por el estadounidense Herman Hollerith en 1890. La IBM 701 fue la primera de una larga serie de computadoras de esta compañía, que luego se convertiría en la número uno, por su volumen de ventas. 1954 - IBM continuó con otros modelos, que incorporaban un mecanismo de almacenamiento masivo llamado tambor magnético, que con los años evolucionaría y se convertiría en el disco magnético. El tubo de Vacío La era de la computación moderna empezó con una ráfaga de desarrollo antes y durante la Segunda Guerra electrónicos, relés, condensadores y tubos Mundial, de vacío que como circuitos reemplazaron los equivalentes mecánicos y los cálculos digitales reemplazaron los cálculos analógicos. Las computadoras que se diseñaron y construyeron entonces se denominan "primera generación" de computadoras. La primera generación de computadoras eran usualmente construidas a mano usando circuitos que contenían relés y tubos de vacío, y a menudo usaron tarjetas perforadas (punchedcards) o cinta de papel perforado (punchedpaper tape) para la entrada de datos [input] y como medio de almacenamiento principal (no volátil). El almacenamiento temporal fue proporcionado por las líneas de retraso acústicas (que usa la propagación de tiempo de sonido en un medio tal como alambre para almacenar datos) o por los tubos de William (que usan la habilidad de un tubo de televisión para guardar y recuperar datos). A lo largo de 1943, la memoria de núcleo magnético estaba desplazando rápidamente a la mayoría de las otras formas de almacenamiento temporal, y dominó en este campo a mediados de los 70. En 1936 Konrad Zuse empezó la construcción de la primera serie Z, calculadoras que ofrecen memoria (inicialmente limitada) y 3
  4. 4. programabilidad. Las Zuses puramente mecánicas, pero ya binarias, la Z1 terminada en 1938 nunca funcionó fiablemente debido a los problemas con la precisión de partes. En 1937, Claude Shannon hizo su tesis de master en MIT que implementó álgebra booleana usando relés electrónicos e interruptores por primera vez en la historia. Titulada "Un Análisis Simbólico de Circuitos de Relés e Interruptores" (A SymbolicAnalysis of Relay and SwitchingCircuits), la tesis de Shannon, esencialmente, fundó el diseño de circuitos digitales prácticos. La máquina subsecuente de Zuse, la Z3, fue terminada en 1941. Estaba basada en relés de teléfono y trabajó satisfactoriamente. Así, la Z3 fue la primera computadora funcional controlada mediante programas. En muchas de sus características era bastante similar a las máquinas modernas, abriendo numerosos avances, tales como el uso de la aritmética binaria y números de coma flotante. El duro trabajo de reemplazar el sistema decimal (utilizado en el primer diseño de Charles Babbage) por el sistema binario, más simple, significó que las máquinas de Zuse fuesen más fáciles de construir y potencialmente más fiables, dadas las tecnologías disponibles en ese momento. Esto es a veces visto como la principal razón por la que Zuse tuvo éxito donde Babbage falló; sin embargo, aunque la mayoría de las máquinas de propósito general de la actualidad continúan ejecutando instrucciones binarias, la aritmética decimal es aún esencial para aplicaciones comerciales, financieras, científicas y de entretenimiento, y el hardware de coma flotante decimal está siendo agregado en los dispositivos actuales (el sistema binario continua siendo usado para direccionamiento en casi todas las máquinas) como un apoyo al hardware binario. Se hicieron programas para las Z3 en cintas perforadas. Los saltos condicionales eran extraños, pero desde los 1990s los puristas teóricos decían que la Z3 era aún una computadora universal (ignorando sus limitaciones de tamaño de almacenamiento físicas). En dos patentes de 1937, Konrad Zuse también anticipó 4
  5. 5. que las instrucciones de máquina podían ser almacenadas en el mismo tipo de almacenamiento utilizado por los datos - la clave de la visión que fue conocida como la arquitectura de von Neumann y fue la primera implementada en el diseño Británico EDSAC(1949) más tarde. Zuse también diseño el primer lenguaje de programación de alto nivel "Plankalkül" en 1945, aunque nunca se publicó formalmente hasta 1971, y fue implementado la primera vez en el 2000 por la Universidad de Berlín, cinco años después de la muerte de Zuse. Zuse sufrió retrocesos dramáticos y perdió muchos años durante la Segunda Guerra Mundial cuando los bombarderos británicos o estadounidenses destruyeron sus primeras máquinas. Al parecer su trabajo permaneció largamente desconocido para los ingenieros del Reino Unido y de los Estados Unidos. Aún así, IBM era consciente de esto y financió su compañía a inicios de la post-guerra en 1946, para obtener derechos sobre las patentes de Zuse. En 1940, fue completada la Calculadora de Número Complejo, una calculadora para aritmética compleja basada en relés. Fue la primera máquina que siempre se usó remotamente encima de una línea telefónica. En 1938, John VincentAtanasoff y Clifford E. Berry de la Universidad del Estado de Iowa desarrollaron la Atanasoff Berry Computer (ABC) una computadora de propósito especial para resolver sistemas de ecuaciones lineales, y que emplearon condensadores montados mecánicamente en un tambor rotatorio para memoria. La máquina ABC no era programable, aunque se considera una computadora en el sentido moderno en varios otros aspectos. Durante la Segunda Guerra Mundial, los británicos hicieron esfuerzos significativos en Bletchley Park para descifrar las comunicaciones militares alemanas. El sistema cypher alemán (Enigma), fue atacado con la ayuda con las finalidad de construir bombas (diseñadas después de las bombas electromecánicas programables) que ayudaron a encontrar posibles llaves Enigmas después de otras técnicas tenían estrechadas bajo las posibilidades. Los alemanes también desarrollaron una serie de sistemas cypher (llamadas Fishcyphers por los británicos y Lorenz cypers por los alemanes) que eran bastante diferentes del Enigma. Como parte de un ataque contra estos, el profesor Max Newman y sus colegas 5
  6. 6. (incluyendo Alan Turing) construyeron el Colossus. El Mk I Colossus fue construido en un plazo muy breve por Tommy Flowers en la Post Office ResearchStation en Dollis Hill en Londres y enviada a Bletchley Park. El Colossus fue el primer dispositivo de cómputo totalmente electrónico. El Colossus usó solo tubos de vacío y no tenía relés. Tenía entrada para cinta de papel [papertape] y fue capaz de hacer bifurcaciones condicionales. Se construyeron nueve Mk II Colossi (la Mk I se convirtió a una Mk II haciendo diez máquinas en total). Los detalles de su existencia, diseño, y uso se mantuvieron en secreto hasta los años 1970. Se dice que Winston Churchill había emitido personalmente una orden para su destrucción en pedazos no más grandes que la mano de un hombre. Debido a este secreto el Colossi no se ha incluido en muchas historias de la computación. Una copia reconstruida de una de las máquinas Colossusesta ahora expuesta en Bletchley Park. El trabajo de preguerra de Turing ejerció una gran influencia en la ciencia de la computación teórica, y después de la guerra, diseñó, construyó y programó algunas de las primeras computadorasen el Laboratorio Nacional de Física y en la Universidad de Mánchester. Su trabajo de 1936 incluyó una reformulación de los resultados de KurtGödel en 1931 así como una descripción de la que ahora es conocida como la máquina de Turing, un dispositivo puramente teórico para formalizar la noción de la ejecución de algoritmos, reemplaza al lenguaje universal, más embarazoso, de Gödel basado en aritmética. Las computadoras modernas son Turing-integrada (capacidad de ejecución de algoritmo equivalente a una máquina Turing universal), salvo su memoria finita. Este limitado tipo de Turing-integrados es a veces visto como una capacidad umbral separando las computadoras de propósito general de sus predecesores de propósito especial. George Stibitz y sus colegas en Bell Labs de la ciudad de Nueva York produjeron algunas computadoras basadas en relés a finales de los años 1930 y a principios de los años 1940, pero se preocuparon más de los problemas de control del sistema de teléfono, no en computación. Sus esfuerzos, sin embargo, fueron un claro antecedente para otra máquina electromecánica americana. 6
  7. 7. La Harvard Mark I (oficialmente llamada AutomaticSequenceControlledCalculator) fue una computadora electro-mecánica de propósito general construida con financiación de IBM y con asistencia de algún personal de IBM bajo la dirección del matemático Howard Aiken de Harvard. Su diseño fue influenciado por la Analítica. Máquina Fue una máquina decimal que utilizó ruedas de almacenamiento e interruptores rotatorios además de los relés electromagnéticos. Se programaba mediante cinta de papel perforado, y contenía varias calculadoras trabajando en paralelo. Más adelante los modelos contendrían varios lectores de cintas de papel y la máquina podía cambiar entre lectores basados en una condición. No obstante, esto no hace mucho la máquina Turing-integrada. El desarrollo empezó en 1939 en los laboratorios de Endicott de IBM; la Mark I se llevó a la Universidad de Harvard para comenzar a funcionar en mayo de 1944. ENIAC La construcción estadounidense ENIAC (ElectronicNumericalIntegrator and Computer), a menudo llamada la primera computadora electrónica de propósito general, públicamente validó el uso de elementos electrónicos para computación a larga escala. Esto fue crucial para el desarrollo de la computación moderna, inicialmente debido a la ventaja de su gran velocidad, pero últimamente debido al potencial para la miniaturización. Construida bajo la dirección de John Mauchly y J. PresperEckert, era mil veces más rápida que sus contemporáneas. El desarrollo y construcción de la ENIAC comenzó en 1941 siendo completamente operativa hacia finales de 1945. Cuando su diseño fue propuesto, muchos investigadores creyeron que las miles de válvulas delicadas (tubos de vacío) se quemarían a menudo, lo que implicaría que la ENIAC estuviese muy frecuentemente en reparación. Era, sin embargo, capaz de hacer más de 7
  8. 8. 100.000 cálculos simples por segundo y eso durante unas horas que era el tiempo entre fallos de las válvulas. Para programar la ENIAC, sin embargo, se debía realambrar por lo que algunos dicen que eso ni siquiera se puede calificar como programación, pues cualquier tipo de reconstrucción de una computadora se debería considerar como programación. Varios años después, sin embargo, fue posible ejecutar programas almacenados en la memoria de la tabla de función. A todas las máquinas de esta época les faltó lo que se conocería como la arquitectura de Eckert-Mauchly: sus programas no se guardaron en el mismo "espacio" de memoria como los datos y así los programas no pudieron ser manipulados como datos. El ENIAC fue un ordenador electrónico digital con fines generales a gran escala. Fue en su época la máquina más grande del mundo, compuesto de unas 17468 tubos de vacío, esto producía un problema ya que la vida media de un tubo era de unas 3000 horas por lo que aproximadamente cada 10 minutos se estropeaba un tubo y no era nada sencillo buscar un tubo entre 18000, consumiéndose gran cantidad de tiempo en ello. Tenía dos innovaciones técnicas, la primera es que combina diversos componentes técnicos (40000 componentes entre tubos, condensadores, resistencias, interruptores, etc.) e ideas de diseño en un único sistema que era capaz de realizar 5000 sumas y 300 multiplicaciones por segundo. La segunda era la fiabilidad de la máquina, para resolver el problema de los tubos de vacío se aplicaron unos estrictos controles de calidad de los componentes utilizados. Salió a la luz pública el 14 de febrero de 1946, apareciendo en la prensa con calificativos como "cerebro electrónico", "Einstein mecánico" o "Frankenstein matemático", como por ejemplo en el diario Newsweek. 8
  9. 9. El ENIAC estaba dividido en 30 unidades autónomas, 20 de las cuales eran llamada acumuladores. Cada acumulador era una máquina de sumar 10 dígitos a gran velocidad y que podía almacenar sus propios cálculos. El contenido de un acumulador se visualizaba externamente a través de unas pequeñas lámparas que producían visual un muy efecto explotado luego en las películas de ciencia ficción. El sistema utilizaba números decimales (0 9). Para acelerar las operaciones aritméticas también tenía multiplicador y un un divisor. El multiplicador utilizaba una matriz de resistencia para ejecutar las multiplicaciones de un dígito y fue diseñado con un circuito de control adicional para multiplicar sucesivos dígitos. El multiplicador y el multiplicando estaban almacenados en un acumulador cada uno. Mediante una lectora de tarjetas perforadas y una perforadora se producía la lectura y escritura de datos. El ENIAC era controlado a través de un tren de pulsos electrónicos. Cada unidad del ENIAC era capaz de generar pulsos electrónicos para que otras unidades realizaran alguna tarea, por eso los programas para el ENIAC consistían en unir manualmente los cables de las distintas unidades para que realizaran la secuencia deseada. Por eso programar el ENIAC era un trabajo arduo y dificultoso. Como las unidades podían operar simultáneamente el ENIAC era capaz de realizar cálculos en paralelo. Había una unidad llamada "unidad cíclica", que producía los pulsos básicos usados por la máquina. También había tres tablas de funciones y constantes que transmitían los números y funciones elegidos manualmente a las unidades para realizar las operaciones. Una suma la realizaba en 0.2 milisegundos (5000 sumas por segundo), una multiplicación de dos números de 10 dígitos la realizaba en 2.8 9
  10. 10. milisegundos, y una división como mucho la realizaba en 24 milisegundos. Remplazar una válvula de vacío estropeada suponía encontrarla entre 18000 Nunca pudo funcionar las 24 horas todos los días, y normalmente se ejecutaban dos veces un mismo cómputo para comprobar los resultados y se ejecutaba periódicamente cálculos cuyos resultados se conocían previamente para comprobar el correcto funcionamiento de la máquina. Aunque en un principio el ENIAC estaba construido para fines militares, al finalizar la Segunda Guerra Mundial se utilizó para numerosos cálculos de investigaciones científicas. El ENIAC estuvo en funcionamiento hasta 1955 con mejoras y ampliaciones, y se dice que durante su vida operativa realizó más cálculos matemáticos que los realizados por toda la humanidad anteriormente. Antes de finalizar su construcción, los autores se dieron cuenta de sus limitaciones, tanto a nivel estructural como a nivel de programación. Por eso en paralelo a su construcción empezaron a desarrollar las nuevas ideas que dieron lugar al desarrollo de la estructura lógica que caracteriza a los ordenadores actuales. La primera máquinas Eckert-Mauchly fue la Manchester Baby o Small-Scale Experimental Machine, construida en la Universidad de Manchester en 1948; esta fue seguida en 1949 por la computadora Manchester Mark I que funcionó como un sistema completo utilizando el tubo de William para memoria, y también introdujo registros de índices. El otro contendiente para el título "primera computadora digital de programa almacenado" fue EDSAC, diseñada y construida en la Universidad de Cambridge. Estuvo operativa menos de un año después de la Manchester "Baby" y era capaz de resolver problemas reales. La EDSAC fue realmente inspirada por los planes para la EDVAC, el sucesor de la ENIAC; estos planes ya estaban en lugar por el tiempo la ENIAC fue exitosamente operacional. A diferencia la ENIAC, que utilizo procesamiento paralelo, la EDVAC usó una sola unidad de procesamiento. Este diseño era más simple y fue el primero en ser implementado en cada onda teniendo éxito de miniaturización, e incrementó la fiabilidad. Algunos ven la Manchester Mark I/EDSAC/EDVAC como las "Evas" de que casi todas las computadoras actuales que derivan de su arquitectura. 10
  11. 11. La primera computadora programable en la Europa continental fue creada por un equipo de científicos bajo la dirección de SegreyAlekseevichLebedev del Institute of Electrotechnology en La computadora MESM (Small Kiev,Unión ElectronicCalculating Soviética (ahora Ucrania). Machine (МЭСМ)) fue operacional en 1950. Tenía aproximadamente 6.000 tubos de vacío y consumía 25kW. Podía realizar aproximadamente 3.000 operaciones por segundo. La máquina de la Universidad de Manchester se convirtió en el prototipo para la Ferranti Mark I. La primera máquina Ferranti Mark I fue entregada a la Universidad en febrero de 1951 y por lo menos otras nueve se vendieron entre 1951 y 1957. UNIVAC I Las computadoras UNIVAC I fueron construidas por la división UNIVAC de Remington Rand (sucesora de la Eckert-Mauchly Computer Corporation, comprada por Rand en 1951). Su valor estaba entre 1 millón y 1 millón y medio de dólares, que actualizado seria millones medio y de 6 a 9 millones. Era una computadora que pesaba 7.250 kg, estaba compuesta por 5000 tubos de vacío, y podía ejecutar unos 1000 cálculos por segundo. Era una computadora procesaba los dígitos que en serie. Podía hacer sumas de dos números de diez dígitos cada uno, unas 100.000 por segundo. Funcionaba con un reloj interno con una frecuencia de 2,25 MHz, tenía memorias de mercurio. Estas memorias no permitían el acceso inmediato a los datos, pero tenían más fiabilidad que las memorias de tubos de rayos catódicos, que son los que se usaban normalmente. El primer UNIVAC fue entregado a la Oficina de Censos de los Estados Unidos (UnitedStatesCensus Bureau) el 31 de marzo de 1951 y fue puesto en 11
  12. 12. servicio el 14 de junio de ese año [1]. El quinto, construido para la Comisión de Energía Atómica (UnitedStatesAtomicEnergyCommission) fue usado por la cadena de televisión CBS para predecir la elección presidencial estadounidense de 1952. Con una muestra de apenas el 1% de la población votante predijo correctamente que Eisenhower ganaría, algo que parecía imposible. Además de ser la primera computadora comercial estadounidense, el UNIVAC I fue la primera computadora diseñada desde el principio para su uso en administración y negocios (es decir, para la ejecución rápida de grandes cantidades de operaciones aritméticas relativamente simples y transporte de datos, a diferencia de los cálculos numéricos complejos requeridos por las computadoras científicas). UNIVAC competía directamente con las máquinas de tarjeta perforada hechas principalmente por IBM; curiosamente, sin embargo, inicialmente no dispuso de interfaz para la lectura o perforación de tarjetas, lo que obstaculizó su venta a algunas compañías con grandes cantidades de datos en tarjetas debido a los potenciales costos de conversión. Esto se corrigió eventualmente, añadiéndole un equipo de procesamiento de tarjetas fuera de línea, el convertidor UNIVAC de tarjeta a cinta y el convertidor UNIVAC de cinta a tarjeta, para la transferencia de datos entre las tarjetas y las cintas magnéticas que empleaba UNIVAC nativamente. Los primeros contratos para la venta de UNIVACs fueron realizados con instituciones del gobierno de los Estados Unidos, tales como la oficina de censos, la Fuerza Aérea, y el servicio de mapas del ejército; también contrataron sus servicios particulares, como la ACNielsenCompany y la PrudentialInsuranceCompany. El octavo UNIVAC, la primera venta efectiva para uso comercial, fue instalado en enero de 1954, en la división de electrodomésticos de General Electric para gestionar los salarios. DuPontcompró el duodécimo UNIVAC, que fue entregado en septiembre de 1954. La Pacific Mutual Insurance recibió un UNIVAC en agosto de 1955, y otras compañías de seguros pronto siguieron ese camino. Mientras tanto, para uso oficial, la oficina de censos compró un segundo UNIVAC en octubre de 1954. Originalmente valorado en $159.000 de la época, el UNIVAC aumentó su precio hasta costar entre $1.250.000 y $1.500.000. En total se fabricaron y entregaron 46 12
  13. 13. unidades. UNIVAC resultó demasiado costosa para la mayoría de las universidades, y Sperry Rand (a diferencia de compañías como IBM), no tenía el suficiente respaldo financiero para donar muchas unidades; sin embargo un ejemplar se donó a la Universidad de Harvard en 1956, otro a la Universidad de Pensilvania en 1957, y uno a la Case Western Reserve University en Cleveland, Ohio ese mismo año. Algunos sistemas UNIVAC permanecieron en servicio durante mucho tiempo, de hecho bastante después de haberse vuelto obsoletos. La Oficina de Censos utilizó sus dos sistemas hasta1963, acumulando doce y nueve años de servicio respectivamente; Sperry Rand utilizó sus propias dos unidades en Buffalo, Nueva York, hasta 1968. La compañía de seguros Life and Casualty of Tennessee utilizó su sistema hasta 1970, totalizando más de trece años de servicio. 13
  14. 14. SEGUNDA GENERACIÓN DE COMPUTADORAS (1956 A 1963) La segunda generación de las computadoras reemplazó a las válvulas de vacío por los transistores. Por eso, las computadoras de la segunda generación son más pequeñas y consumen menos electricidad que las anteriores, la forma de comunicación con estas nuevas computadoras es mediante lenguajes más avanzados que el lenguaje de máquina, y que reciben el nombre de "lenguajes de alto nivel" o lenguajes de programación. Las características más relevantes de las computadoras de la segunda generación son: Estaban construidas con electrónica de transistores Se programaban con lenguajes de alto nivel 1951, Maurice Wilkes inventa la microprogramación, que simplifica mucho el desarrollo de las CPU pero esta microprogramación también fue cambiada más tarde por el computador alemán BastianShuantiger 1956, IBM vendió por un valor de 1.230.000 dólares su primer sistema de disco magnético, el RAMAC [Random Access Method of Accounting and Control]. Usaba 50 discos de metal de 61 cm, con 100 pistas por lado. Podía guardar 5 megabytes de datos, con un coste de 10.000$ por megabyte. El primer lenguaje de programación de propósito general de alto- nivel, FORTRAN, también estaba desarrollándose en IBM alrededor de este tiempo. (El diseño de lenguaje de alto-nivel Plankalkül de 1945 de Konrad Zuse no se implementó en ese momento). 1959, IBM envió la mainframe IBM 1401 basado en transistor, que utilizaba tarjetas perforadas. Demostró ser una computadora de propósito general y 12.000 unidades fueron vendidas, haciéndola la máquina más exitosa en la historia de la computación. Tenía una memoria de núcleo magnético de 4.000 caracteres (después se extendió a 16.000 caracteres). Muchos aspectos de sus diseños estaban basados en el deseo de reemplazar el uso de tarjetas 14
  15. 15. perforadas, que eran muy usadas desde los años 1920 hasta principios de los '70. 1960, IBM lanzó el mainframe IBM 1620 basada en transistores, originalmente con solo una cinta de papel perforado, pero pronto se actualizó a tarjetas perforadas. Probó ser una computadora científica popular y se vendieron aproximadamente 2.000 unidades. Utilizaba una memoria de núcleo magnético de más de 60.000 dígitos decimales. 1962, Se desarrolla el primer juego de ordenador, llamado SpaceWars. DEC lanzó el PDP-1, su primera máquina orientada al uso por personal técnico en laboratorios y para la investigación. 1964, IBM anunció la serie 360, que fue la primera familia de computadoras que podía correr el mismo software en diferentes combinaciones de velocidad, capacidad y precio. También abrió el uso comercial de microprogramas, y un juego de instrucciones extendidas para procesar muchos tipos de datos, no solo aritmética. Además, se unificó la línea de producto de IBM, que previamente a este tiempo tenía dos líneas separadas, una línea de productos "comerciales" y una línea "científica". El software proporcionado con el System/350 también incluyó mayores avances, incluyendo multi-programación disponible comercialmente, nuevos lenguajes de programación, e independencia de programas de dispositivos de entrada/salida. Más de 14.000 System/360 habían sido entregadas en 1968. 15
  16. 16. Transistores Los transistores fueron inventados en el laboratorio de William Shockley. Los transistores, que fueron inventados en 1948, están hechos de un material semiconductor que puede amplificar las señales o abrir y cerrar circuitos. Todos los microprocesadores contienen millones de micro transistores. El uso de los transistores permitió a los fabricantes de computadoras producir unas más pequeñas, las cuales eran más baratas y gastaban menos poder eléctrico comparado con las versiones anteriores. Tanto se apreció la invención que Shockley fue galardonado con el Premio Nobel. Utilidades y programas La segunda generación de computadoras comenzó a tener algunas utilidades modernas que todavía se usan hoy en día. Tenían sistemas operativos, los cuales hacían más fácil la navegación, ya que los programas podían cambiarse al instante. El procesamiento de datos financieros se convirtió en algo conveniente. Las opciones de discos de almacenamiento e impresoras fueron añadidas a la tecnología computacional. Las instrucciones y programas podían ser almacenados en la memoria de la computadora. Industria de la Energía Atómica Las primeras máquinas que usaron esta tecnología del transistor fueron usadas en la industria de le energía atómica. Estas computadoras proporcionaban a los científicos atómicos con unas capacidades grandísimas, permitiéndoles almacenar grandes cantidades de información y datos. El lenguaje de las máquinas fue remplazado por el lenguaje ensamblador, el cual era más fácil y más corto que los códigos que se usaban antes. Esta segunda generación de computadoras les permitió a los científicos volar al espacio en los años 60. Uso en los negocios y en el gobierno Inicialmente, la segunda generación de computadoras era demasiado costosa para el uso en negocios. Sin embargo, mientras pasaron los años y las computadoras se 16
  17. 17. volvían más baratas, muchos hombres de negocios comenzaron a usarlas para el procesamiento de su información financiera. Los programas también podían imprimir facturas, calcular los sueldos para los trabajadores y diseñar los productos. Algunas de estas empresas que fabricaban las computadoras de segunda generación eran IBM, Honeywell, Burroughs y Sperry-Rand. 17
  18. 18. TERCERA GENERACIÓN DE COMPUTADORAS (1965-1971) Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes. Las velocidades de cálculo se disparan al nanosegundo (10-9 segundos), las memorias externas al megabyte (210 posiciones de memoria) y se generalizan variados periféricos: impresoras, lectores de tarjetas, lectores ópticos, discos flexibles de almacenamiento. Nacen los lenguajes de alto nivel, de sintaxis fácilmente comprensible por el programador. Las características de esta generación fueron las siguientes: Su fabricación electrónica está basada en circuitos integrados. Su manejo es por medio de los lenguajes de control de los sistemas operativos. LOS CIRCUITOS INTEGRADOS Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. El circuito integrado no es más que la mínima expresión del transistor. Se basa en las propiedades de los semiconductores, que funcionan como transistores, pero que tienen un tamaño pequeñísimo (15 o 20 transistores en unos pocos milímetros cuadrados). Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos. 18
  19. 19. LA IBM 360 La IBM 360, una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tantos análisis numéricos como administración o procesamiento de archivos. Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación). Por ejemplo, la computadora podía estar calculando la nómina y aceptando pedidos al mismo tiempo. GORDON E. MOORE (LA LEY DE MOORE) En 1965, Gordon E. Moore (fundador de Fairchild, y patentador del primer circuito integrado) cuantificó el crecimiento sorprendente de las nuevas tecnologías de semiconductores. Dijo que los fabricantes iban a duplicar la densidad de los componentes por los circuitos integrados en intervalos regulares de un año, y que seguirían haciéndolo mientras el ojo humano pudiera ver. LAS MINICOMPUTADORAS Con la introducción del modelo 360, IBM acaparó el 70% del mercado. Para evitar competir directamente con IBM, la empresa Digital Equipment Corporation DEC redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de 19
  20. 20. comprar y de operar que las computadoras grandes, las minicomputadoras se desarrollaron durante la segunda generación, pero alcanzaron su mayor auge entre 1960 y 70. En 1969, la primera minicomputadora de 16-bit fue distribuida por Data General Corporation. La computadora, llamada Nova, fue un mejoramiento tanto en velocidad como en poder sobre la minicomputadora de 12-bit, PDP-8. LA COMPAÑÍA INTEL En 1968, Gordon Moore, Robert Noyce y Andy Grove establecen la compañía Intel, que en un principio se dedica a fabricar chips de memoria. En este mismo año, la computadora CDC 7600 logra la velocidad de 40 Mflops. LA RED ARPANET En el año 1969, el departamento de defensa de los EE.UU. encarga la red Arpanet, con el fin de hacer investigación en redes amplias, y se instalan los primeros cuatro nodos (en la UCLA, UCSB, SRI y Universidad de Utah). También se introduce el estándar RS-232C para facilitar el intercambio entre las computadoras y los periféricos. CABLE DE FIBRA ÓPTICA En 1970 fue comercialmente producido por Corning Glass Works, Inc. el primer cable de fibra óptica. El cable de fibra óptica de vidrio hizo que se transmitieran más datos por ellos, más rápido que por alambre o cable convencional. El mismo año, los circuitos ópticos fueron mejorados aún más, por el desarrollo del primer láser semiconductor. 20
  21. 21. EL PRIMER MODELO DE BASE DE DATOS RELACIONAL En 1970 fue publicado por E.F. Codd el primer modelo de banco de datos relacional. Un banco de datos relacional es un programa que organiza datos, graba y deja que se comparen atributos similares de cada registro. Un ejemplo es una colección de registros personales, donde se listan los apellidos o los sueldos de cada persona. La publicación de Codd, titulada "Un modelo relacional de Datos para grandes bancos de datos compartidos", abrió por completo un nuevo campo en el desarrollo del banco de datos. En 1970 aparecen los discos flexibles y las impresoras margarita. También comienza a usarse la tecnología de MOS (Metal-Oxide semiconductor) para tener circuitos integrados más pequeños y baratos. EL PRIMER CHIP MICROPROCESADOR (INTEL 4004) En 1971 fue introducido por la Corporación Intel el primer chip microprocesador, el primer computador en un solo chip. El chip 4004 era un procesador de 4-bit con 2250 transistores, capaz de casi el mismo poder como el ENIAC de 1946 (que llenaba un cuarto grande y tenía 18,000 tubos al vacío). El chip 4004 medía 1/ 6-pulgada de largo por 1/ 8-pulgada de ancho. LA PRIMERA COMPUTADORA PERSONAL En 1971 se construyó la primera computadora personal y fue distribuida por John Blankenbaker. El computador, llamado Kenbak-1, tenía una capacidad de memoria de 256 bytes, desplegaba los datos con un juego de LED pestañeante y era tedioso programarlo. Aunque sólo se vendieron 40 computadoras Kenbak-1 (a un precio de $750), introdujo la revolución de la computadora personal. 21
  22. 22. Las características másparticulares fueron: Se desarrollaron circuitos integrados para procesar información. Se desarrollaron los "chips" para almacenar y procesar la información. Un "chip" es una pieza de silicio que contiene los componentes electrónicos en miniatura llamados semiconductores. Los circuitos integrados recuerdan los datos, ya que almacenan la información como cargas eléctricas. Surge la multiprogramación. Las computadoras pueden llevar a cabo ambas tareas de procesamiento o análisis matemáticos. Emerge la industria del "software". Se desarrollan las minicomputadoras IBM 360 y DEC PDP-1. Otra vez las computadoras se tornan más pequeñas, más ligeras y más eficientes. Consumían menos electricidad, por lo tanto, generaban menos calor. 22
  23. 23. CUARTA GENERACIÓN DE COMPUTADORAS Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos por las de chips de silicio, y la colocación de muchos más componentes en un Chip: producto de la micro miniaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de los chips hizo posible la creación de las computadoras personales (PC), que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada “revolución informática”. Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI (integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se almacenen en un chip. Usando VLSI, un fabricante puede hacer que una computadora pequeña rivalice con una computadora de la primera generación que antes ocupara un cuarto completo. Una vez que el PC fue llegando a los hogares, comienza la revolución del PC. La competencia de los mercados entre manufactureros como IBM y Apple Computer avanzaron rápidamente. Por primera vez la habilidad de cálculos de alta calidad estaba en la casa de cientos de miles de personas, en vez de sólo algunos privilegiados. Las computadoras finalmente se convirtieron en una herramienta de la gente común. Antes de 1975, los rumores de cambio en el mundo de la computación se escuchaban pero no se entendían. Intel había introducido el primer microprocesador, el 4004, en 1971, seguido en 1972 por el 8008 de 8 bits y en 1973 por el 8080. En 1973, Scelbi Computer Consulting creó lo que se dijo fue el primer microcomputador, el Scelbi 8-H basado en el 8008. IBM introduce la primera impresora láser. Nolan Bushnell de Atari revolucionaba los juegos, y más tarde el entretenimiento hogareño, con el juego Pong en 1972. 23
  24. 24. EL PRIMER MICROCOMPUTADOR: EL ALTAIR 8800 Micro Instrumentation Telemetry Systems (MITS) introdujo el Altair 8800 ($350), considerado el primer microcomputador real, el cual tenía un microprocesador de 8bit Intel 8080, 256 bytes de memoria, y un panel frontal de switches. El sistema no tenía teclado, ni un dispositivo de almacenamiento de la memoria. Cuando se actualizó la computadora con 4 kilobytes de expansión de memoria, Paul Allen y Bill Gates (más tarde cofundadores de Microsoft Corporation) desarrollaron una versión de BASIC como lenguaje de programación del computador. Se introdujeron tres chips que dominarían los años iniciales de la industria, el Zilog Z80, que se convertiría en el corazón de la primera generación importante de computadores personales no Apple, las máquinas CP/M, el MOS Technology 6502, y el Motorola 6800. EN 1976 En 1976 docenas de compañías se habían unido al alboroto, se realizaron las primeras conferencias de microcomputación, siendo la primera la organizada por DavidBunnell de MITS, llamada la Convención Mundial del Computador Altair en el Hotel Marina Aeropuerto en Alburqueque, New México; entre los productos introducidos estaba el Cromemco TV Dazzler, el primer tablero gráfico a color para microcomputadores. 24
  25. 25. IBM introduce las impresoras a chorro de tinta. Cray Research introduce la Cray 1, una supercomputadora con una arquitectura vectorial. Intel produce el 8085, un 8080 modificado con algunas características extra de entrada/salida. Poco más tarde, Motorola introduce el procesador 6800, que era un computador de 8 bits comparable al 8080. Fue utilizada como controlador en equipos industriales. Fue seguido por el 6809, que tenía algunas facilidades extra, por ejemplo, aritmética de 16 bits. Texas Instruments anuncia el TMS9000, el primer microprocesador de 16 bits. Michael Shrayer escribe Electric Pencil, el primer procesador de palabras para microcomputadores. Shugart anuncia su manejador de disquetes "minifloppy de 5 1/4" por $390. APPLE COMPUTER En 1976 se forma Apple Computer con Steve Jobs y Steve Wozniak, mostrando en el Club de Computación Homebrew el computador Apple I, que consistía principalmente de un tablero de circuitos. Steve Wozniak propone a HewlettPackard que cree un computador personal. Steve Jobs propone lo mismo a Atari. Ambos son rechazados. 25
  26. 26. En 1977 La primera computadora personal por Commodore, Apple Computer y Tandy. ensamblada En unos pocos fue distribuida años el PC (computadora personal) había llegado a ser parte de la vida personal de cada uno de sus usuarios, y pronto aparecería en las bibliotecas públicas, escuelas, y lugares de negocio. Fue también durante este local Local Area Network (LAN) año que la comercialmente primera disponible red fue de área desarrollada por Datapoint Corporation, llamada ARCnet. Micropolis introduce el Metafloppy, un manejador de disquetes 5 ¼" con la capacidad de disquetes de 8". Gary Kidall de Digital Research desarrolla (Control Program for Microcomputers) el sistema operativo CP/M de Control para (Programa Microcomputadores), el cual maneja la primera generación de PCs, pero será superado por IBM en favor de MS-DOS. En 1978 VISICALC, la primera hoja de trabajo, fue el primer programa que todo negocio no sólo necesitaba, sino que instantáneamente sabía que necesitaba. Sus creadores fueron Dan Bricklin y Bob Frankston, quienes lo escribieron en una Apple. MicroPro International, fundada por Seymour Rubenstein de IMSAI anuncia WordMaster, precursor de Wordstar. Houston Instruments anuncia el plotter (graficador) HiPlot. Computer Headware anuncia el manejador de base de datos WHATSIT. Texas Instruments introduce Speak and Spell, el primer juguete que habla y que usa la síntesis vocal digital. 26
  27. 27. Intel produce el 8086, una CPU de 16 bits en un chip. Este procesador completamente es compatible con el 8080, y también lo fue el 8088, que tenía la misma arquitectura y corría los mismos programas, pero con un bus de 8 bits en lugar de uno de 16, haciéndolo más lento y barato. DEC introduce la VAX 11/780, una computadora de 32 bits que se hizo popular para aplicaciones técnicas y científicas. En 1979 Se muestra Visicalc en el WCCF. Es mercadeado por Personal Software, la cual se convierte posteriormente en VisiCorp. Hayes Microcomputer anuncia el Micromodem 100. Este módem automático transmitía a una velocidad de 110 a 300 bps. Magic Wand se convierte en el primer competidor serio del procesador de palabras Wordstar. Wayne Ratliff desarrolla el programa de base de datos Vulcan, que se convertirá posteriormente en DBASE II. Los juegos de video, tales como Pac Man y Space Invaders, se hacen populares. Intel introduce el 8088, que se convertirá en el corazón del IBM PC. Xerox, DEC, e Intel anuncian Ethernet. El primer clon de Apple aparece; es llamado, apropiadamente, Orange. 27
  28. 28. En 1980 Personal Software introduce Zork, el Imperio Bajo Tierra, un juego de aventuras en un computador de "segunda generación". Apple anuncia el computador plagado de problemas Apple III. Shugart comienza a vender manejadores Winchester de 5 ¼", que mantienen 80 veces más datos que un disquete estándar y transfiere datos 20 veces más rápido. Radio Shack anuncia el Computador a Color TRS-80. Altos introduce el primer sistema multiusuario basado en un microprocesador; el 8000-5 usaba un Z80A y soportaba hasta cuatro personas. Digital Research anuncia CP/M-86. Satellite Software International, más tarde WordPerfect Corp., anuncia la primera versión de WordPerfect para computadores Data General. Se desarrolló el primer microprocesador de 32-bit en un sólo chip, en Laboratorios Bell. El chip, llamado Bellmac-32, proporcionó un mejor poder computacional sobre los procesadores anteriores de 16-bit. COMPUTADORA DE INSTRUCCIÓN REDUCIDA (RISC) El primer prototipo de Computadora de Instrucción Reducida (RISC) fue desarrollado por un grupo de investigación en IBM. El minicomputador 801 usaba un juego simple de instrucciones en lenguaje de máquina, que podía procesar un programa muy rápido (usualmente dentro de un ciclo de máquina). Varios vendedores importantes ahora ofrecen computadoras RISC. Se piensa que el RISC sea el formato futuro de los procesadores, debido a su rapidez y eficacia. En 1981 La revolución de la computadora personal ganó impulso cuando IBM introdujo su primer computador personal. La fuerza de la reputación de IBM fue un factor 28
  29. 29. importante para legitimar el PC para uso general. La primera IBM PC era un sistema basado en un floppy, el cual usaba el microprocesador 8088 de Intel. Las unidades originales tenían pantallas de sólo texto, los gráficos verdaderos eran una alternativa que llegó más tarde. La memoria también era limitada, típicamente de sólo 128K o 256K de RAM. La máquina usaba un sistema operativo conocido como DOS, un sistema de línea de comandos similar al más antiguo sistema CP/M. Primera IBM PC IBM lanzó más tarde el IBM PC/ XT. Ésta era una máquina extendida que añadía una unidad de disco duro y gráficos CGA. Ya que la máquina llegó a ser popular, otras varias compañías empezaron a lanzar imitaciones del IBM PC. Estos "clones" iniciales se distinguieron por su incompatibilidad debido a su incapacidad de reproducir debidamente el IBM BIOS. Se comercializaban normalmente como "90% compatible". Este problema se superaría pronto y la competencia serviría para empujar la tecnología y bajar los precios de la unidad. En 1981 se vendieron 80000 computadoras personales, al siguiente subió a 1.400.000. Entre 1984 y 1987 se vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda que su impacto y penetración han sido enormes. Fue distribuida por BBN Computers Advanced, Inc. la primera computadora comercial de procesamiento paralelo. La computadora, llamada "Mariposa", era capaz de asignarle a partes de un programa hasta 256 procesadores diferentes, como consecuencia la velocidad del proceso y su eficacia se incrementaban. Hayes introduce el Smartmodem 300, el cual se convierte en el estándar de la industria. 29
  30. 30. EL HX-20, EL PRIMER COMPUTADOR PORTÁTIL Epson América muestra el HX-20, quizás el primer computador portátil (laptop); la máquina pesa menos de 3 libras y usa una versión CMOS del 6801, 16K bytes de RAM, y una pantalla de 20 caracteres por 4 líneas. Warner Amex, Atari, y CompuServe anuncian el servicio de información por cable de TV. Timex contrata a Clive Sinclair para mercadear el Timex/Sinclair 1000, el primer computador por debajo de los $100 en U.S.A. Los juegos de video Atari y el Intellivision de Mattel son grandes aciertos en la temporada de Navidad. Corvus introduce OmniNet, una LAN no costosa con twisted-pair. En 1982 Compaq Computer Corp. anuncia el Compaq Portable, un sistema compatible con el IBM PC. Commodore anuncia el Commodore 64. Basado en el 6510, incluía 64K bytes de RAM, 20K bytes de ROM (incluyendo Microsoft BASIC), un chip de sonido, gráficos a color, y una interfase serial. Kaypro anuncia el Kaycomp II portable; con una pantalla de 9 pulgadas y software incluido. Columbia Data Products anuncia el primer clon del IBM PC, el MPC. Franklin Computer Corp. anuncia el Ace 100, un clon del Apple II. David Bunnell comienza con PC Magazine. Lotus Development introduce 1-2-3 en Comdex. 30
  31. 31. Intel anuncia el 286. Autodesk anuncia AutoCAD, el primer sistema CAD para el PC. Peter Norton Computing introduce el Norton Utilities. En 1983 Apple devela el Lisa, una máquina basada en el 68000 de 32 bits y caracterizada por una interfase gráfica con el usuario y un ratón. Apple, también anuncia el Apple IIe. Tandy anuncia el Tandy 2000, basado en un 80186. Radio Shack anuncia el Modelo 100 del TRS-80 de 4 libras. Novell introduce Netware, el primer sistema operativo LAN de servidor de archivo. IBM introduce el XT, que agrega un manejador de disco duro de 10-MB y tres ranuras de expansión más al diseño del PC original. PC Magazine se vende a nuevos propietarios; la mayoría del personal se retira para formar PC World. Microsoft anuncia Word (llamado originalmente Multi-Tool Word). Microsoft y un grupo de compañías japonesas anuncia el estándar MSX para computadores basados en el Z80. IBM anuncia el PCjr, el cual es sin duda el fracaso más grande de la compañía en los años 80s. Borland International anuncia Turbo Pascal para máquinas con CP/M y 8088. Microsoft anuncia Windows, pero no se despacha por dos años. AT&T anuncia Unix System V. 31
  32. 32. Iomega introduce el primer Bernoulli Box, un innovador manejador de disco removible. El HP-150 de Hewlett-Packard fue una máquina basada en el 8088, que ofrecía un exclusivo toque de la pantalla. Microrim, fundado por Wayne Erickson en Noviembre de 1981, intro- duce R:Base 4000, la primera base de datos relacional para PCs. Compaq se hace público, y 6 millones de acciones se venden en un día. En 1984 Satellite Software International libera el WordPerfect para el IBM PC, Victor 9000, DEC Rainbow, Zenith z-100, y Tandy 2000. Hewlett-Packard introduce el LaserJet y el HP 110, un laptop 80C86. Data General introduce el laptop DG/One. Inglaterra produce el Apricot PC. Con el Symphony de Lotus, se llega a la era de los paquetes integrados; al mes siguiente, Ashton-Tate introduce Framework. Motorola introduce el 68020. IBM anuncia TopView, un ambiente de ventanas con multitarea que nunca se comprendió. Computer Associates compra Sorcim, el fabricante de SuperCalc. George Tate, el cofundador de Ashton-Tate, muere. No había Ashton; el compañero de Tate se llamaba Lashlee. Lotus anuncia Jazz, el cual se convirtió en el primer fracaso de la compañía. 32
  33. 33. EL MACINTOSH Fue distribuido por Apple Computer, In c., por US$2495, primer el computador personal Macintosh. El Macintosh, el cual tenía una capacidad de memoria de 128KB, integraba un monitor y un ratón, fue la primera computadora legitimar la en interfaz gráfica. La interfase de Mac era similar a un sistema explorado por Xerox, PARC. En lugar de usar una interfase de línea de comandos, que era la norma en otras máquinas, el MacOS se presentaba a los usuarios con "íconos" gráficos, sobre ventanas gráficas, y menús deslizantes. El Macintosh fue un riesgo significativo de Apple, ya que el nuevo sistema era incompatible con cualquiera otro tipo de software, o con su propia Apple ][, o el IBM PC. La máquina no avanzó más allá por su memoria limitada y la falta de una unidad de disco duro. La máquina pronto llegó a ser una norma para los artistas gráficos y publicadores. Esto hizo que la máquina creciera en una plataforma más establecida. EL IBM PC-AT IBM distribuyó el IBM PC-AT, la primera computadora que usaba microprocesador Intel 80286. el chip La serie Intel 80x86 adelantó el poder del procesador y la flexibilidad de las computadoras IBM. IBM introdujo varios cambios en esta nueva línea. Se introdujo un nuevo sistema de gráficos, 33
  34. 34. EGA, que tenía 16 colores de gráficos a resoluciones más altas (CGA, el sistema más antiguo, sólo tenía cuatro colores). La máquina también incorporó un bus de datos de 16-bit, mejorando el bus de 8-bit de XT. Esto permitió la creación de tarjetas de expansión más sofisticadas. Otra mejora incluía un teclado extendido, un mejor suministro de energía, una caja más grande del sistema y un manejador de disquetes de alta densidad por $5469. En 1985 AT&t anuncia el Unix PC, basado en un 68010, el cual fracasó en el establecimiento de Unix como un estándar para el PC. Apple discontinúa el Lisa. Microsoft libera el C 3.0. Toshiba introduce el fantásticamente exitoso laptop T1100. Intel anuncia el 386. Microsoft lanza finalmente el Windows 1.0. IBM introduce su red Token Ring. Ansa introduce Paradox, comprado más tarde por Borland. Aldus introduce PageMaker original para el Mac de 512 Kb. Lotus adquiere Software Arts; detiene el envío de VisiCalc. Microsoft anuncia Excel para el Mac. Lotus lanza finalmente Jazz. Lotus e Intel anuncian una especificación de memoria expandida que con el tiempo se convertirá en LIM/EMS 3.2, e Intel anuncia AboveBoard. Quarterdeck Office Systems libera el programa de ventanas y multitareas Desqview. 34
  35. 35. En 1986 IBM introduce el RT PC, su primera y no muy exitosa aventura en las estaciones de trabajo basadas en RISC. Sperry y Burroughs acuerdan fusionarse en Unisys. Peter Norton Computing anuncia el Norton Commander. Se forma la Corporación para Sistemas Abiertos. Motorola anuncia el microprocesador 68030. Lotus anuncia HAL. Microsoft introduce Works para el Mac. IBM introduce el PC Convertible, un laptop de 12 a 16 libras que funciona a baterías, el cual se vuelve en su segundo portátil no exitoso. Compaq introduce la arquitectura Flex Deskpro 386, su primer 386 y la primera máquina Compaq en incluir un bus de memoria separado. Se introduce el Apple IIGS. En 1987 Compaq introduce el Portable III. Apple introduce el Mac II y el Mac SE. IBM introduce la línea PS/2 (modelo 25) y OS/2, y el primer IBM 386 (modelo 80). IBM anuncia chips DRAM de 4 MB. Lotus firma un acuerdo de 10 años para desarrollar software para mainframes IBM, comenzando con el 1-2-3/M Lotus anuncia el 1-2-3 release 3.0. 35
  36. 36. Microsoft y 3Com anuncian su intención de desarrollar el Manejador de Redes OS/2. Lotus introduce una demanda contra Paperback Software y Mosaic Software, alegando que se han copiado el 1-2-3. IBM introduce el PC Convertible Modelo 3. Apple introduce HyperCard, el cual demuestra ser enormemente popular. Compaq anuncia que no venderá un clon del PS/2, aunque ha diseñado tal sistema. Microsoft anuncia Excel para el PC, la primera aplicación real para Windows. AT&T y Sun acuerdan compartir la tecnología Unix. Borland introduce la hoja de trabajo Quattro. Commodore anuncia la Amiga 2000 y 500. En 1988 NEC anuncia el laptop de 4,4 libras UltraLite. Apple anuncia el Mac IIx, 10 a 15 por ciento más rápido que el Mac II. Compaq introduce el laptop SLT/286. Microsoft y Ashton-Tate se unen para anunciar SQL Server. Informix anuncia WingZ, una nueva hoja de trabajo para el Mac. MIT y 11 compañías anuncian un consorcio para desarrollar estándares de la industria para estaciones de trabajo. Tandy introduce el Tandy 5000MC, el segundo clon Microcanal (Dell fue el primero), y anuncia Thor, un sistema para compact disks escribibles y borrables. NEC pide a la corte invalidar los derechos de Intel sobre el 8086/8088. 36
  37. 37. Apple hace una demanda contra Microsoft y Hewlett-Packard en la corte del distrito federal, alegando que Windows infringe los derechos de autor del Mac. Lotus anuncia una demora en el 1-2-3 release 3.0. MIPS anuncia su procesador RISC. AT&T planea un nuevo software para hacer que Unix sea más fácil de usar. Quarterdeck y Phar Lap desarrollan el Virtual Control Program Interface (VCPI), el primer estándar para direccionar el modo virtual 386 con las aplicaciones DOS existentes. Se anuncia la Fundación de Software Abierto; planea basar su versión de Unix en el AIX de IBM. AMd introduce el microprocesador de 32 bits 29000. Intel anuncia el 386SX. Sun, Texas Instruments, y Cypress anuncian un acuerdo para promover SPARC. Intel compra la tecnología DVI de GE. IBM y Microsoft lanzan el OS/2 1.1 con Presentation Manager. Ashton-Tate lanza el dBASE IV después de una serie de retrasos. Anuncia el consorcio EISA, conocido también como el "Grupo de los Nueve", que desarrollará un bus de 32 bit alterno al Micro Canal de IBM. 37
  38. 38. QUINTA GENERACIONDE COMPUTADORAS(1982-1989 o actualidad) Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la cuarta y quinta generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha. Característica principal la evolución de las comunicaciones a la par de la tecnología. Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación (software) como CADI CAM, CAE, CASE, inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la década de los años ochenta se establecieron las bases de lo que se puede conocer como quinta generación de computadoras. Hay que mencionar dos grandes avances tecnológicos, que sirvan como parámetro para el inicio de dicha generación: la creación en 1982 de la primera capacidad supercomputadora de proceso con paralelo, diseñada por SeymouyCray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda en 1976 la CrayResearch Inc.y el anuncio por parte del gobierno japonés del proyecto “quinta generación”, que según se estableció en el acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar en 1992. 38
  39. 39. La miniaturización de componentes y su consecuente reducción en costo y necesidades técnicas ayudan a obtener sistemas de muy alta capacidad en donde las estaciones de trabajo compiten y superan en capacidad a las supercomputadoras de las generaciones anteriores. Dentro de los eventos que forjaron el inicio de este período están: La actualización de la especificación IEEE 802.3, para incluir cableado de par de cobre trenzado con 10 Base T. Tim Berners-Lee trabaja en una interfaz gráfica de usuario navegador y editor de hipertexto utilizando el ambiente de desarrollo de NeXTStep, bautizando "World Wide Web" al programa y al proyecto. Motorola presenta el concepto del Sistema Iridium para comunicación personal global, complementando los sistemas de comunicación alámbrica e inalámbrica terrestre. Formalmente se cierra ARPAnet, que es reemplazada por la NSFnet y las redes interconectadas, dando origen a la participación pública en el desarrollo de lo que se convertiría en la red de redes, Internet, y la formación del grupo de trabajo para redes inalámbricas IEEE802.11 (Wireless LAN WorkingGroup IEEE 802.11). El siguiente paso tecnológico consistió en la integración de computadoras en red para trabajo simultáneo o computación distribuida, en donde un proceso en una computadora en red puede encontrar tiempo de procesador en otra de la misma red para realizar trabajos en paralelo. El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la capacidad de trabajar simultáneamente con varios microprocesadores. Aunque en teoría el trabajo con varios microprocesadores debería ser mucho más rápido, es necesario llevar a cabo una programación especial que permita asignar diferentes tareas de un mismo proceso a los diversos microprocesadores que intervienen. 39
  40. 40. También se debe adecuar la memoria para que pueda atender los requerimientos de los procesadores al mismo tiempo. Para solucionar este problema se tuvieron que diseñar módulos de memoria compartida capaces de asignar áreas de caché para cada procesador. Según este proyecto, al que se sumaron los países tecnológicamente más avanzados para no quedar atrás de Japón, la característica principal sería la aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes. También tienen la capacidad de comunicarse con un lenguaje natural e irán adquiriendo la habilidad para tomar decisiones con base en procesos de aprendizaje fundamentados en sistemas expertos e inteligencia artificial. El almacenamiento de información se realiza en dispositivos magneto ópticos con capacidades de decenas de Gigabytes; se establece el DVD (Digital VideoDisk o Digital Versatile Disk) como estándar para el almacenamiento de video y sonido; la capacidad de almacenamiento de datos crece de manera exponencial posibilitando guardar más información en una de estas unidades, que toda la que había en la Biblioteca de Alejandría. Los componentes de los microprocesadores actuales utilizan tecnologías de alta y ultra integración, denominadas VLSI (VeryLargeSca/e Integration) y ULSI (Ultra Lar- ge ScaleIntegration). Sin embargo, independientemente de estos “milagros” de la tecnología moderna, no se distingue la brecha donde finaliza la quinta y comienza la sexta generación. Personalmente, no hemos visto la realización cabal de lo expuesto en el proyecto japonés debido al fracaso, quizás momentáneo, de la inteligencia artificial. 40
  41. 41. El único pronóstico que se ha venido realizando sin interrupciones en el transcurso de esta generación, es la conectividad entre computadoras, que a partir de 1994, con el advenimiento de la red Internet y del World Wide Web, ha adquirido una importancia vital en las grandes, medianas y pequeñas empresas y, entre los usuarios particulares de computadoras. El propósito de la Inteligencia Artificial es equipar a las Computadoras con “Inteligencia Humana” y con la capacidad de razonar para encontrar soluciones. Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones. La Inteligencia Artificial recoge en su seno los siguientes aspectos fundamentales: a) Sistemas Expertos Un sistema experto es un sofisticado programa de computadora; posee en su memoria y en su estructura una amplia cantidad de saber y sobre todo, estrategias para depurarlo y ofrecerlo según los requerimientos, convirtiendo al sistema en un especialista que está programado. Duplica la forma de pensar de expertos reconocidos en los campos de la medicina, estrategia militar, exploración petrolera, etc. Se programa a la computadora para reaccionar en la misma forma en que lo harían expertos, hacia las mismas preguntas, sacar las mismas conclusiones iniciales, verificar de la misma manera la exactitud de los resultados y redondear las ideas dentro de principios bien definidos 41
  42. 42. b) Lenguaje Natural Consiste en que las computadoras y sus aplicaciones en robótica puedan comunicarse con las personas sin ningún problema, ni dificultad de comprensión, ya sea oralmente o por escrito. Hablar con las máquinas y que éstas entiendan nuestra lengua y también que se hagan entender en nuestra lengua. c) Robótica Es la ciencia que se ocupa del estudio, desarrollo y aplicaciones de los robots. Los Robots son dispositivos compuestos de sensores que reciben Datos de Entrada y que están conectados a la computadora. Esta recibe la información de entrada y ordena al Robot que efectúe una determinada acción y así sucesivamente. Las finalidades de la construcción de Robots radican principalmente en su intervención en procesos de fabricación, por ejemplo: pintar en spray, soldar carrocerías de autos, trasladar materiales, etc. d) Reconocimiento de la Voz Las aplicaciones de reconocimiento de voz tienen como objetivo la captura, por parte de una computadora, de la voz humana para el tratamiento del lenguaje natural o para cualquier otro tipo de función.Guiándonos en base a lo investigado y en nuestros propios conocimientos, consideramos que la sexta generación es el futuro y parte de la actualidad. Se vienen desarrollando con mayor auge y mejor tecnología: 42
  43. 43. Las Computadoras Portátiles (Laptops). Las Computadoras de Bolsillo (PDA). Los Dispositivos Multimedia. Los Dispositivos Móviles Inalámbricos (SPOT, Smartphone, etc.) El Reconocimiento de voz y escritura. Las Computadoras Ópticas (luz, sin calor, rápidas). Las Computadoras Cuánticas (electrones, moléculas, qbits, súper rápidas). La Mensajería y el Comercio Electrónico. La Realidad Virtual. Las Redes Inalámbricas (WiMax, WiFi, Bluetooth). El Súper Computo (Procesadores Paralelos Masivos). Las Memorias Compactas (Discos Duros externos USB, SmartMedia, PCMCIA). En esta generación se espera llegar a los Sistemas Expertos (imitar el comportamiento de un profesional humano), para esto se emplearán microcircuitos con inteligencia, en donde las computadoras tendrán la capacidad de aprender, asociar, deducir y tomar decisiones para la resolución de un problema. 43
  44. 44. SEXTA GENERACION DE COMPUTADORAS(1990-ACTUAL) Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventa, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo. Se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops). Las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera. La sexta generación se podría llamar a la era de las computadoras inteligentes basadas en redes neuronales artificiales o "cerebros artificiales". 44
  45. 45. Serían computadoras que utilizarían superconductores como materia-prima para sus procesadores, lo cual permitirían no malgastar electricidad en calor debido a su nula resistencia, ganando performance y economizando energía. La ganancia de performance sería de aproximadamente 30 veces la de un procesador de misma frecuencia que utilice metales comunes. Todo esto está en pleno desarrollo, por el momento las únicas novedades han sido el uso de procesadores en paralelo, o sea, la división de tareas en múltiples unidades de procesamiento operando simultáneamente. Otra novedad es la incorporación de chips de procesadores especializados en las tareas de vídeo y sonido. 45
  46. 46. DISPOSITIVOS ENTRADA/SALIDA Las computadoras electrónicas modernas son una herramienta esencial en muchas áreas: industria, gobierno, ciencia, educación,..., en realidad en casi todos los campos de nuestras vidas. El papel que juegan los dispositivos periféricos de la computadora es esencial; sin tales dispositivos ésta no sería totalmente útil. A través de los dispositivos periféricos podemos introducir a la computadora datos que nos sea útiles para la resolución de algún problema y por consiguiente obtener el resultado de dichas operaciones, es decir; poder comunicarnos con la computadora. La computadora necesita de entradas para poder generar salidas y éstas se dan a través de dos tipos de dispositivos periféricos existentes: Dispositivos periféricos de entrada. Dispositivos periféricos de salida. DISPOSITIVOS Los dispositivos son regímenes definibles, con sus variaciones y transformaciones. Presentan líneas de fuerza que atraviesan umbrales en función de los cuales son estéticos, científicos, políticos, etc. Cuando la fuerza en un dispositivo en lugar de entrar en relación lineal con otra fuerza, se vuelve sobre sí misma y se afecta, no se trata de saber ni de poder, sino de un proceso de individuación relativo a grupos o personas que se sustrae a las relaciones de fuerzas establecidas como saberes constituidos. LOS DISPOSITIVOS DE ENTRADA/SALIDA Son aquellos que permiten la comunicación entre la computadora y el usuario. DISPOSITIVOS DE ENTRADA Son aquellos que sirven para introducir datos a la computadora para su proceso. Los datos se leen de los dispositivos de entrada y se almacenan en la 46
  47. 47. memoria central o interna. Los dispositivos de entrada convierten la información en señales eléctricas que se almacenan en la memoria central. Los dispositivos de entrada típicos son los teclados, otros son: lápices ópticos, palancas de mando (joystick), CD-ROM, discos compactos (CD), etc. Hoy en día es muy frecuente que el usuario utilice un dispositivo de entrada llamado ratón que mueve un puntero electrónico sobre una pantalla que facilita la interacción usuariomáquina. Teclado El teclado es un dispositivo eficaz para introducir datos no gráficos como rótulos de imágenes despliegue de asociados con un gráficas. Los teclados también pueden ofrecerse con características que facilitan la entrada de coordenadas de la pantalla, selecciones de menús o funciones de gráficas. Ratón ó Mouse Es un dispositivo electrónico que nos permite dar instrucciones a nuestra computadora a través de un cursor que aparece en la pantalla y haciendo clic para que se lleve a cabo una acción determinada; a medida que el Mouse rueda sobre el escritorio, el cursor (Puntero) en la pantalla hace lo mismo. Tal procedimiento permitirá controlar, apuntar, sostener y manipular varios objetos gráficos (Y de texto) en un programa. A este periférico se le llamó así por su parecido con un roedor.Existen modelos en los que la transmisión se hace por infrarrojos eliminando por tanto la necesidad de cableado. Al igual que el teclado, el Mouse es el elemento periférico que más se utiliza en una PC. 47
  48. 48. Micrófono Los micrófonos son los transductores encargados de transformar energía acústica en energía eléctrica, permitiendo, por lo tanto el registro, almacenamiento, transmisión y procesamiento electrónico de las señales de audio. Son dispositivos duales de los altoparlantes, constituyendo ambos transductores los elementos más significativos en cuanto a las características sonoras que sobre imponen a las señales de audio. Scanner Es una unidad de ingreso de información. Permite la introducción de imágenes gráficas al computador mediante un sistema de matrices de puntos, como resultado de un barrido óptico del documento. La información se almacena en archivos en forma de mapas debits (bit maps), o en otros formatos más eficientes como Jpeg o Gif. Cámara Digital Se conecta al ordenador y le transmite las imágenes que capta, pudiendo ser modificada y retocada, o volverla a tomar en caso de que este mal. 48
  49. 49. Cámara de Video Graba videos como una cámara normal, pero las ventajas que ofrece es estar en formato digital, que es mucho mejor la imagen, tiene una pantalla LCD por la que ves simultáneamente la imagen mientras grabas. Se conecta al PC y este recoge el video que has grabado, para poder retocarlo posteriormente con el software adecuado. Webcam Es una cámara de pequeñas dimensiones. Sólo es la cámara, no tiene LCD. Tiene que estar conectada al PC para poder funcionar, y esta transmite las imágenes al ordenador. Su uso es generalmente para videoconferencias por Internet, pero mediante el software adecuado, se pueden grabar videos como una cámara normal y tomar fotos estáticas; entre otras. DISPOSITIVOS DE SALIDA Estos dispositivos permiten al usuario ver los resultados de los cálculos o de las manipulaciones de datos de la computadora. El dispositivo de salida más común es la unidad de visualización (VDU, acrónimo de Video Display Unit), que consiste en un monitor que presenta los caracteres y gráficos en una pantalla similar a la del televisor. Los tipos de Dispositivos de Salida más Comunes Son: 49
  50. 50. Pantalla o Monitor Es en donde se ve la información suministrada por el ordenador. En el caso más habitual se trata de un aparato basado en un tubo de rayos catódicos (CRT) como el de los televisores, mientras que en los portátiles es una pantalla plana de cristal líquido (LCD). Impresora Es el periférico ordenador que utiliza el para presentar información impresa en papel. Las primeras impresoras nacieron muchos años antes que el PC e incluso antes que los monitores, siendo el método más usual para presentar los resultados de los cálculos en aquellos primitivos ordenadores. Altavoces Dispositivos por los cuales se emiten sonidos procedentes de la tarjeta de sonido. Actualmente existen bastantes ejemplares que cubren la oferta más común que existe en el mercado. Se trata de modelos que van desde lo más sencillo (una pareja de altavoces estéreo), hasta el más complicado sistema de Dolby Digital, con nada menos que seis altavoces, pasando por productos intermedios de 4 o 5 altavoces. 50
  51. 51. Auriculares Son dispositivos colocados en el oído para poder escuchar los sonidos que la tarjeta de sonido envía. Presentan la ventaja de que no pueden ser escuchados por otra persona, solo la que los utiliza. Plotter (Trazador de Gráficos) Existen plotters para diferentes tamaños máximos de hojas (A0, A1, A2, A3 y A4); para diferentes calidades de hojas de salida (bond, calco, acetato); para distintos espesores de línea de dibujo (diferentes espesores de rapidógrafos), y para distintos colores de dibujo (distintos colores de tinta en los rapidógrafos). Fax Dispositivo mediante el cual se imprime una copia de otro impreso, transmitida o bien, vía teléfono, o bien desde el propio fax. Se utiliza para ello un rollo de papel que cuando acaba la impresión se corta. 51
  52. 52. EVOLUCIONDE LOS DISPOSITIVOS DE ALMACENAMIENTO La memoria es un dispositivo de almacenamiento computacional que es capaz de almacenar datos o cualquier tipo de información. Históricamente se ha usado el papel, como método más común, pero actualmente es posible almacenar digitalmente en un CD por ejemplo, los datos que cabrían en miles de carpetas archivadas. A lo largo de la historia se ha buscado el camino de encontrar el sistema más pequeño físicamente y con más capacidad para almacenar más datos y tratarlos rápidamente. Microchip También conocido como circuito integrado. Se desarrolló por primera vez en 1958 por el ingeniero Jack Kilby justo meses después de haber sido contratado por la firma Texas Instruments. Se trataba de un dispositivo de germanio que integraba seis transistores en una misma base semiconductora para formar un oscilador de rotación de fase. En el año 2000, Kilby obtuvo el Premio Nobel de Física por la contribución de su invento al desarrollo de la tecnología de la información. Un microchip es una pastilla muy delgada donde se encuentran miles o millones de dispositivos electrónicos interconectados, principalmente diodos y transistores, y también componentes pasivos como resistores o condensadores. Su área puede ser de 1 cm, 2 cm o inferior. Los microchips son quizás los sistemas de almacenamiento más empleados, hoy en día se utilizan además de en los computadores, en los teléfonos móviles, electrodomésticos, juguetes con algún componente electrónico, etc. El transistor actúa como interruptor. Puede encenderse o apagarse electrónicamente o amplificar corriente. Se usa en computadoras para almacenar información o en amplificadores para aumentar el volumen de sonido. Las resistencias limitan el flujo de electricidad y nos permiten controlar la cantidad de corriente que fluye, esto se usa por ejemplo para controlar el volumen de un televisor o radio. 52
  53. 53. El desarrollo del microchip es especialmente importante en la historia, pues es algo increíblemente pequeño que puede almacenar cantidad de datos inmensas, que hace años era impensable. Se necesita un desarrollo a nivel microscópico para diseñar los microchips. El primer computador que usó microchips fue un IBM lanzado en 1965, llamado serie 360. Estas computadoras se consideran de la tercera generación de computadoras, y sustituyeron por completo a las de segunda generación, introduciendo una manera de programar que aún se mantiene en grandes computadoras de IBM. Memoria RAM (Random Access Memory) La Memoria de Acceso Aleatorio, o RAM (acrónimo inglés de Random Access Memory), es una memoria de semiconductor, en la que se puede tanto leer como escribir información. Es una memoria volátil, es decir, pierde su contenido al desconectarse de la electricidad. La memoria RAM es el componente de almacenamiento más importante de un computador actual, junto al disco duro. Con la llegada de los computadores de escritorio, había que idear un sistema de almacenamiento que no ocupara espacio, pues los computadores de escritorio se idearon para que cupiesen en una mesa de oficina. La memoria RAM se forma a partir de microchips con entradas de memoria. La memoria es almacenada en esas entradas de manera aleatoria, de ahí su nombre. La memoria RAM es uno de los componentes informáticos que más ha evolucionado en los últimos veinte años. Si a finales de los 80 la capacidad de las memorias RAM rondaban los 4 MB, ahora lo normal es comprarse un computador con al menos 1024 MB, (1 GB). Normalmente se ha ido avanzando en una cantidad de MB igual a potencias de 2. A mediados de los 90, con la llegada de Windows 95, los computadores comenzaron a usar memorias de 16 MB de RAM, más tarde de 32, 64, 128... hasta los Pentium 4 y usando Windows XP, en donde se recomienda al menos 256 MB de RAM, aunque hoy en día lo normal es que usen 1gigabyte o más. Memoria Cache La caché de CPU, es una caché usada por la unidad central de procesamiento de una computadora para reducir el tiempo de acceso a la memoria. La caché es una 53
  54. 54. memoria más pequeña y rápida, la cual almacena copias de datos ubicados en la memoria principal que se utilizan con más frecuencia. Es un conjunto de datos duplicados de otros originales, con la propiedad de que los datos originales son costosos de acceder, normalmente en tiempo, respecto a la copia en la caché. Cuando se accede por primera vez a un dato, se hace una copia en el caché; los accesos siguientes se realizan a dicha copia, haciendo que el tiempo de acceso medio al dato sea menor. Cuando el procesador necesita leer o escribir en una ubicación en memoria principal, primero verifica si una copia de los datos está en la caché. Si es así, el procesador de inmediato lee o escribe en la memoria caché, que es mucho más rápido que de la lectura o la escritura a la memoria principal. Disco duro Es el medio de almacenamiento por excelencia. Desde que en 1955 saliera el primer disco duro hasta nuestros días, el disco duro o HDD ha tenido un gran desarrollo. Los discos duros se emplean en computadores de escritorio, portátiles y unidades de almacenamiento de manejo más complejo. El disco duro es el componente que se encarga de almacenar todos los datos que queremos. Mientras que la memoria RAM actúa como memoria "de apoyo" (como variable que almacena y pierde información según se van procesando datos), el disco duro almacena permanentemente la información que le metemos, hasta que es borrado. Generalmente, lo primero que se graba en un disco duro es el sistema operativo que vamos a usar en nuestro computador. Una vez tenemos instalado el sistema operativo en el disco duro, podemos usar todos los programas que queramos que hayan instalados, y toda la información que queramos guardar se almacenará en el disco duro. En el disco duro almacenamos cualquier cosa, como documentos, imagen, sonido, programas, vídeos, ficheros, etc. Los discos duros también han evolucionado muchísimo en los últimos veinte años, sobre todo ampliando su capacidad El disco duro está compuesto básicamente de: - Varios discos de metal magnetizado, que es donde se guardan los datos. - Un motor que hace girar los discos. 54
  55. 55. - Un conjunto de cabezales, que son los que leen la información guardada en los discos. - Un electroimán que mueve los cabezales. - Un circuito electrónico de control, que incluye el interface con el ordenador y la memoria caché. - Una caja hermética (aunque no al vacío), que protege el conjunto. Normalmente usan un sistema de grabación magnética analógica. El número de discos depende de la capacidad del HDD y el de cabezales del número de discos x 2, ya que llevan un cabezal por cada cara de cada disco (4 discos = 8 caras = 8 cabezales). Actualmente el tamaño estándar es de 3.5' de ancho para los HDD de pcs y de 2.5' para los discos de ordenadores portátiles. Dispositivos portátiles Además de los dispositivos fijos que existen como componentes en una computadora, hay otros que pueden introducirse y sacarse en cualquier computador. Estos sistemas son realmente útiles para transportar información entre dos o más computadoras. Disquete También llamado disco flexible. A simple vista es una pieza cuadrada de plástico, en cuyo interior se encuentra un disco flexible y magnético, bastante frágil. Los disquetes se introducen en el computador mediante la disquetera. En los años 80 gozaron de gran popularidad. Los programas informáticos y los videojuegos para PC se distribuían en este formato. Ya que en aquella época los programas y juegos no llegaban ni a 1 MB, cabían perfectamente en los disquetes. En su día existió un disquete rectangular, y más tarde apareció el disquete de 3 1/2 pulgadas, el popular disquete cuadrado. En los noventa, los programas comenzaron a ocupar más memoria, por lo que en algunos casos se necesitaban varios disquetes para completar una instalación. El disquete es un sistema de almacenamiento magnético, al igual que los casetes o los discos duros, y aunque han gozado de gran popularidad desde los 80 hasta ahora, pero ya son obsoletos. De hecho, algunos computadores ya salen de fábrica 55
  56. 56. sin disquetera, pues los disquetes se han quedado pequeños en cuanto a capacidad y velocidad. Teniendo en cuenta lo que ocupan los programas actuales, un disquete hoy en día solo sirve para almacenar algunos documentos de texto, imágenes y presentaciones. CD-ROM Es un disco compacto. Se trata de un disco compacto (no flexible como los disquetes) óptico utilizado para almacenar información no volátil, es decir, la información introducida en un CD en principio no se puede borrar. Una vez un CD es escrito, no puede ser modificado, sólo leído (de ahí su nombre, ReadOnlyMemory). Un CD-ROM es un disco de plástico plano con información digital codificada en espiral desde el centro hasta el borde. Fueron lanzados a mediados de los 80 por como Sony y Philips.Microsoft y Apple fueron compañías dos de las de grandes prestigio compañías informáticas que la utilizaron en sus comienzos. Es uno de los dispositivos de almacenamiento más utilizados. De hecho, fue el sustituto de los casetes para almacenar música, y de los disquetes para almacenar otro tipo de datos. Hay varios tipos de CD-ROM. Los clásicos miden unos 12 centímetros de diámetro, y generalmente pueden almacenar 650 o 700 MB de información. Sin embargo en los últimos años también se han diseñado CD-ROMS con capacidades de 800 o 900 MB. Si tenemos en cuenta la capacidad en minutos de música, serían 80 minutos los de 700 MB, por ejemplo. También existen discos de 8 cm con menos capacidad, pero ideales para almacenar software relativamente pequeño. Generalmente se utilizan para grabar software, drivers, etc. de periféricos o similares, aunque también se usan para transportar datos normalmente como los CD normales. La principal ventaja del CD-ROM es su versatilidad, su comodidad de manejo, sus pequeñas dimensiones (sobre todo de grosor). Sin embargo sus principal inconveniente es que no pueden manipularse los datos almacenados en él. Con el fin de solucionar este problema aparecieron los CD-RW, o CD regrabable. Sus características son idénticas a los CD normales, pero con la peculiaridad de que pueden ser escritos tantas veces como se quiera. Los CD son leídos por lectores de CD, que incluyen un láser que va leyendo datos desde el centro del disco hasta el borde. El sistema es parecido al de las tarjetas perforadas. Mientras que una tarjeta 56
  57. 57. perforada es claramente visible sus agujeros, en un cd también se incluyen micro perforaciones que son imperceptibles a simple vista, pues son microscópicas. A la hora de escribir en un CD, se emplea el sistema binario con perforación o no perforación (ceros y unos). DVD El crecimiento tecnológico en la informática es tal que incluso los CD se han quedado pequeños. Si hace 10 años los disquetes se habían quedado pequeño y parecía que un CD era algo demasiado "grande", algo ha cambiado, pues todas las aplicaciones, ya sean programas, sistemas operativos o videojuegos, ocupan mucha más memoria. De los tradicionales 700 MB de capacidad de un CD se pasaron a los 4,7 GB de un DVD. La primera ráfaga de ventas de DVD aparecieron para formato vídeo, para sustituir a los clásicos VHS. Las ventajas de los DVD eran claras, a más capacidad, mejor calidad se puede almacenar. Y mejor se conservan los datos, ya que las cintas magnéticas de los videocasetes eran fácilmente desgastables. Un DVD es mucho más durarero, su calidad de imagen es mejor y también la calidad de sonido. Las películas en DVD comenzaron a popularizarse a finales de los años 90. Sin embargo en esos años aún los CD eran los más populares a nivel informático. Un videojuego solía ocupar unos 600mb de instalación, con lo que fácilmente cabía en un CD. Pero poco a poco los videojuegos y otros programas comenzaron a ocupar más, ya que conforme va avanzando la tecnología de datos, gráficos, etc. más memoria se necesita. Algunos videojuegos llegaban a ocupar 4 o 5 cds, lo que hacía muy incómodo su manipulación. Finalmente se ha decidido por fin que aquellos programas que ocupen más memoria de lo que cabe en un CD, sea almacenado en un DVD. Los DVD son más caros que los CD, aunque poco a poco se están haciendo con el mercado. Quizás sean los sustitutos definitivos de los CD, aunque por ahora estos últimos no están decayendo en absoluto. La venta de CD vírgenes sigue siendo abrumadora. Sin embargo se ha disparado la venta de DVD, pues cada vez más la gente empieza a grabar más datos y lógicamente se busca el menor espacio posible. Y si en un DVD se pueden almacenar seis películas, mejor que usar seis CD. También existen los DVD-R, ya que al igual que los CD, el DVD normal es de sólo lectura. Pero con la lección aprendida de los CD, se diseñaron los DVD regrabables. 57
  58. 58. Además, hace unos años que existen los DVD de doble capa. Este tipo de DVD siguen leyendo por una cara, pero con doble capa de datos. Pero también existen DVD que se pueden leer por las dos caras. Los hay de doble cara y una capa, pero si el DVD es de doble cara y doble capa por cada una, la capacidad llega a los 17 gb. Sin embargo aún estos sistemas se utilizan mínimamente, son muy caros, pero seguramente algún día sustituirán a los actuales CD. Memoria USB La memoria USB fue inventada en 1998 por IBM, pero no fue patentada por él. Su objetivo era sustituir a los disquetes con mucha más capacidad y velocidad de transmisión de datos.Aunque actualmente en un CD o DVD se puede almacenar memoria para luego borrarla y manipularla, lo más cómodo y usado son las memorias USB. Son pequeños dispositivos del tamaño de un mechero que actúan prácticamente igual que un disquete, pero con una capacidad mucho mayor, que actualmente van desde los 64 mb a varios gigabytes. Su principal ventaja es su pequeño tamaño, su resistencia (la memoria en sí está protegida por una carcasa de plástico como un mechero) y su velocidad de transmisión, mucho más rápido que los disquetes. Actualmente está muy de moda este tipo de dispositivos, sobre todo entre jóvenes u oficinistas, pues gracias a su reducido tamaño y forma puede colgarse como llavero por ejemplo, y lo más importante, con los sistemas operativos (Linux,Windows o Mac), sólo hay que conectarlo al computador y usarlo sin más complicaciones. Además existen otros aparatos como los reproductores de MP3 que utilizan las mismas características. Pueden almacenar cualquier tipo de dato, pero su principal característica es que los ficheros de música en formato mp3 y wmasobre todo, son reconocidos y procesados para ser escuchados a través de unos auriculares conectados al aparato. Esto es pues, un sustituto del walkman. Pero además cada vez están apareciendo nuevos diseños que son capaces de almacenar ya decenas de gigabytes (miles de canciones) y también vídeo, que con una pequeña pantalla pueden ser visualizados. 58
  59. 59. EVOLUCIÓN DE LOS SISTEMAS OPERATIVOS 1969: Tres programadores de los laboratorios Bell (Ken Thompson, Dennis Ritchie y Douglas MCIlroy) crean el sistema operativo UNIX, aún en tiempos de terminal y sin entornos graficos existentes. 1973: Xerox crea lo que podemos llamar la “primera computadora personal más o menos decente”, la Xerox Alto con su sistema operativo propio. 1974: Empieza la creación de BSD 1.0, que es rápidamente sucedida por BSD 2.0 en 1978. 1979: Tim Paterson crea su sistema operativo 86-DOS, que posteriormente pasó a llamarse QDOS (Quick and DirtyOperativeSystem). Dos años después Bill Gates compra QDOS por una suma entre 25 y 50 mil dólares y rebautiza dos veces, en primer lugar como PC-DOS, el cual vende como sistema operativo a IBM para que estos lo usen en sus PCs (IBM-PC), y en segundo lugar (un año más tarde) como 59
  60. 60. MS-DOS, el cual, siendo una copia casi identica a PC-DOS, vende como sistema propio (el sistema operativo sólo, en disketes). 1981: Nace Xerox Star, el sucesor de Xerox Alto. 1983: Apple muestra su primera gran obra, la Apple Lisa System 1. 1983: VisiCorp crea VisiOn. 60
  61. 61. 1984: Mac OS System de la mano de Apple. 1985: Las PC Amiga salen a la luz, y con ellas su flamante sistema operativo, Workbench 1.0, quien posteriormente sería rebautizado como AmigaOS. 61
  62. 62. 1985: Microsoft Windows 1.0 ve la luz, aunque tras un grave fracaso debido a los errores que tenía, se ve rápidamente sucedido por Windows 1.01. 1986: Irix es concebido, una poderosa arma para la manipulación 3D habitualmente usada para fines de diseño (la imágen es de Irix3.3). 1987: Andrew S. Tanenbaum crea MINIX, un sistema operativo basado en Unix y escrito en lenguaje C, cuyo principal objetivo era el aprendizaje informático 62
  63. 63. (aprender como funciona un sistema operativo por dentro). Este sistema inspiró a Linus Torvalds para la creación del Núcleo Linux. 1987: Windows 2.0 aparece. 1989: NeXTSTEP / OPENSTEP 1990: BeOS de la mano de Be Incorporated. Imágen moderna. 1990: Windows 3.0. Cuya famosa actualización gratuita a 3.11 (para Windows 3.1) salió 2 años después. 1990: Richard Stallman crea el sistema GNU de software libre y el Núcleo Hurd, el cual no parece ser tan bueno para el sistema GNU como lo que Linus Torvalds crearía un año después, el Núcleo Linux. En 1992, el sistema GNU y el Núcleo Linux se unen formalmente para crear GNU/Linux, un sistema con docenas de distribuciones (“versiones” que son creadas en paralelo por diversos grupos independientes de programadores) 63
  64. 64. 1995: Windows 95. 1996: IBM saca la nueva versión de su sistema operativo: OS/2 Warp 4. 1997: Mac OS System 8 64
  65. 65. 1998: Windows 98 1998: GNU/Linux sigue avanzando y una de sus más famosas distribuciones, Mandrake Linux, saca su primera versión (5.1). 2001: Mac OS X. 2001: Windows XP. 2006: Amiga Workbench 4.0. 2006: Ubuntu, la más famosa distribución de GNU/Linux de la actualidad, nace (en varios idiomas). 2006: Empiezan a aparecer los sistemas operativos en la Nube (Internet), como es el caso de EyeOS 2007: Windows Vista 2007: Mac OS X Leopard 65
  66. 66. 2009: Windows 7 aparece 2011: Ubuntu saca su versión 11.04, cambiando de interfaz Gnome a Unity. 2011: Google saca una beta de su sistema operativo ChromeOS, otro más que se aloja en la nube. 66
  67. 67. EVOLUCIÓN DE LOS LENGUAJES DE PROGRAMACION Tras el desarrollo de las primeras computadoras surgió la necesidad de programarlas para que realizaran las tareas deseadas. Los lenguajes más primitivos fueron los denominados lenguajes máquina. Como el hardware se desarrollaba antes que el software, estos lenguajes se basaban en el hardware, con lo que cada máquina tenía su propio lenguaje y por ello la programación era un trabajo costoso, válido sólo para esa máquina en concreto. El primer avance fue el desarrollo de las primeras herramientas automáticas generadoras de código fuente. Pero con el permanente desarrollo de las computadoras, y el aumento de complejidad de las tareas, surgieron a partir de los años 50 los primeros lenguajes de programación de alto nivel. Con la aparición de los distintos lenguajes, solían aparecer diferentes versiones de un mismo lenguaje, por lo que surgió la necesidad de estandarizarlos para que fueran más universales. Las organizaciones que se encargan de regularizar los lenguajes son ANSI (Instituto de las Normas Americanas) y ISO (Organización de Normas Internacionales). 1950 -1955:Lenguaje Ensamblador (lenguaje máquina), Lenguajes experimentales de alto nivel. 1956 -1960: FORTRAN, ALGOL 58 y 60, COBOL, LISP1961 -1965: FORTRAN IV, COBOL 61 Extendido, ALGOL 60 Revisado, SNOBOL, BASIC. 1966 -1970:APL/360, FORTRAN 66 (estándar), COBOL 65 (estándar), ALGOL 68, SNOBOL 4, SIMULA 67. 1966 -1970:APL/360, FORTRAN 66 (estándar),COBOL 65 (estándar), ALGOL 68, SNOBOL 4, SIMULA 67 1971 -1975:COBOL 74,PASCAL. 1976 -1980:ADA, FORTRAN 77, PROLOG, C, Modula-2. 1980 -2000:C++, JAVA 67
  68. 68. BIBLIOGRAFÍA http://helmutsy.homestead.com/files/computacion/historia/historia_computado res_7.htm http://www.cad.com.mx/generaciones_de_las_computadoras.htm http://www.monografias.com/trabajos33/dispositivos/dispositivos.shtml#dispos it www.ehowenespanol.com http://www.cad.com.mx/generaciones_de_las_computadoras.htm http://jorgesaavedra.wordpress.com/2007/05/05/lenguajes-de-programacion/ http://es.kioskea.net/contents/langages/langages.php3 http://www.slideshare.net/dtcadrian234/evolucion-historica-de-los-sistemasoperativos http://www.aeromental.com/2006/08/16/evolucion-de-los-sistemas-operativos/ Operativos-En-Imagenes.html http://www.informatica-hoy.com.ar/hardware-pc-desktop/La-sexta-generacionde-computadoras.php http://es.wikipedia.org/wiki/Generaciones_de_computadoras#Sexta_Generaci .C3.B3n_.281999_hasta_la_fecha_.29 http://www.cad.com.mx/generaciones_de_las_computadoras.htm 68

×