Las máquinas Colossus fueron los primeros dispositivos calculadores electrónicos usados por los británicos para descifrar comunicaciones alemanas en la Segunda Guerra Mundial. Colossus comparaba dos flujos de datos para encontrar coincidencias basadas en funciones booleanas programables y descifrar mensajes interceptados. La computadora Z3 de Konrad Zuse en 1941 fue la primera máquina programable y automática. En la década de 1950 se introdujeron los transistores y circuitos integrados, permitiendo computadoras más confiables y el surgimiento de los mainframes para uso
2. 1940 1950 1960 1970 1980 1990 2000 2010
COLOSSUS 1944
PRIMERA
GENERACION
1945
PRIMERA
COMPUTADORA
DIGITAL 1946
COMPUTADORA
Z3 1946
TARJETA
PERFORADA
1950
SEGUNDA
GENERACION
1955
MAINFRAMES
1956
PROCESAMIENTO
POR LOTES 1956
ENSAMBLADOR
1957
TERCERA
GENERACION
1965
SYSTEM 360
1964
SPOOLING
1967
CTSS 1969
MULTICS 1970
CUARTA
GENERACION
1980
CHIPS DE SILICIO Y CI 1981
IBM DOS 1982
S.O DE RED 1985
QUINTA
GENERACION
1986
UNIX 1993
WINDOWS
98
1995
WINDOWS ME
2000
WINDOWS
XP
2001
WINDOWS
VISTA
2007
WINDOWS 7
2009
WINDOWS 10
2015
3. Las máquinas Colossus fueron los primeros dispositivos calculadores
electrónicos usados por los británicos para leer las comunicaciones cifradas
alemanas durante la Segunda Guerra Mundial. Colossus fue uno de los
primeros computadores digitales.
Las máquinas Colossus se usaron para descifrar los mensajes cifrados, que
se interceptaban de las comunicaciones de la Alemania Nazi, usando la
máquina Lorenz SZ40/42. Colossus comparaba dos flujos de datos,
contando cada coincidencia basada en una función programable booleana.
El mensaje cifrado se leía a gran velocidad a través de una cinta de papel. El
otro flujo de datos era generado internamente, y era una simulación
electrónica de la máquina de Lorenz en varias combinaciones. Si el número
de coincidencias para una combinación era superior a una cierta cantidad,
la salida era escrita en una máquina de escribir eléctrica.
4. Esta generación se identifica por el hecho que la tecnología electrónica estaba
basada en "tubos de vacío", más conocidos como bulbos electrónicos, del tamaño de
un foco de luz casero. Los sistemas de bulbos podían multiplicar dos números de diez
dígitos en un cuarentavo de segundo.
Almacén
Primario
Necesidad de
aire
acondicionad
o
Memoria
Principal
Lenguaje
Maquina
Características
5. Creación:
El proyecto ENIAC ( Electronic Numerical
Integrator And Computer) se creó en el
año 1943 por los estadounidenses John
William Mauchly y John Presper Eckert,
con el propósito de resolver los
problemas de balística del ejército de
Estados Unidos; sin embargo no se
terminó de construir la maquina hasta el
1946. Estuvo muy relacionado con el
proyecto Colossus, que se utilizó para
descifrar el código alemán durante la
Segunda Guerra Mundial.
Tamaño:
Ocupaba una habitación de 6m x
12m , pesaba 27 toneladas y se
tardó en construir 30 meses.
Estaba compuesto por tubos de
vacío o también llamados válvulas
termoiónicas, en total unos 17468
tubos.
Además constaba de 7.200 de
diodos de cristal, 1.500 relés,
70.000 resistencias, 10.000
condensadores y alrededor de 5
millones de soldaduras todas
hechas a mano.
Inconveniente:
El principal inconveniente de los tubos
de vacío, era su corta vida, ya que
aproximadamente cada 10 minutos se
estropeaba uno de ellos y era una labor
tediosa (unos 15 min) encontrar el que
había fallado. La mayor parte de los fallos
se producían al encender o apagar la
máquina, ya que los filamentos de las
válvulas y sus cátodos se encontraban
bajo estrés térmico.
6. La computadora Z3, creada por Konrad Zuse en 1941, fue la primera máquina
programable y completamente automática, características usadas para
definir a un computador.
El Z3, de tecnología electromecánica, estaba construido con 2300 relés, tenía
una frecuencia de reloj de ~5 Hz, y una longitud de palabra de 22 bits. Los
cálculos eran realizados con aritmética en coma flotante puramente binaria.
La máquina fue completada en 1941 (el 12 de mayo de ese mismo año fue
presentada a una audiencia de científicos en Berlín).
7. La tarjeta perforada o simplemente tarjeta es una lámina hecha de
cartulina que contiene información en forma de perforaciones
según un código binario. Estos fueron los primeros medios
utilizados para ingresar información e instrucciones a una
computadora en los años 1960 y 1970. Las tarjetas perforadas
fueron usadas con anterioridad por Joseph Marie Jacquard en los
telares de su invención, de donde pasó a las primeras
computadoras electrónicas. Con la misma lógica se utilizaron las
cintas perforadas..
Actualmente las tarjetas perforadas han sido
reemplazadas por medios magnéticos y
ópticos de ingreso de información. Sin
embargo, muchos de los dispositivos de
almacenamiento ópticos, como por ejemplo el
CD-ROM también se basan en un método
similar al usado por las tarjetas perforadas,
aunque por supuesto los tamaños, velocidades
de acceso y capacidad de los medios actuales
no admiten comparación con los antiguos
medios
8. La introducción del transistor a mediados de la década de 1950 alteró el
panorama radicalmente. Las computadoras se hicieron lo bastante
confiables como para poderse fabricar y vender a clientes comerciales
con la expectativa de que seguirían funcionando el tiempo suficiente para
realizar algo de trabajo útil. Por primera vez, había una separación clara entre
diseñadores, constructores, operadores, programadores y personal de
mantenimiento.
Estas máquinas se encerraban en cuartos de computadora con
acondicionamiento de aire especial, con equipos de operadores
profesionales para operarias. Sólo las grandes empresas, o las principales
dependencias del gobierno o universidades, podían solventar el costo de
muchos millones de dólares. Para ejecutar un trabajo (es decir, un programa
o serie de programas), un programador escribía primero el programa en
papel (en FORTRAN o ensamblador) y luego lo perforaba en tarjetas.
Después, llevaba el grupo de tarjetas al cuarto de entrada y lo entregaba a
uno de los operadores.
9. Una unidad central (en inglés mainframe) es una
computadora grande, potente y costosa, usada
principalmente por una gran compañía para el
procesamiento de una gran cantidad de datos, como
por ejemplo, para el procesamiento de transacciones
bancarias.
La capacidad de una unidad central se define tanto por
la velocidad de su CPU como por su gran memoria
interna, su alta y gran capacidad de almacenamiento
externo, sus resultados en los dispositivos E/S rápidos
y considerables, la alta calidad de su ingeniería interna
que tiene como consecuencia una alta fiabilidad y
soporte técnico costoso, pero de alta calidad. Una
unidad central puede funcionar durante años sin
problemas ni interrupciones y las reparaciones de la
misma pueden ser realizadas mientras está
funcionando.
10. Procesamiento Por Lotes 1956
Se conoce como sistema por lotes (en inglés batch processing), o modo
batch, a la ejecución de un programa sin el control o supervisión directa del
usuario (que se denomina procesamiento interactivo). Este tipo de
programas se caracterizan porque su ejecución no precisa ningún tipo de
interacción con el usuario.
Generalmente, este tipo de ejecución se utiliza en tareas repetitivas sobre
grandes conjuntos de información, ya que sería tedioso y propenso a
errores realizarlo manualmente. Un ejemplo sería el renderizado de los
fotogramas de una película.
Los programas que ejecutan por lotes suelen especificar su funcionamiento
mediante scripts o guiones (procedimientos) en los que se indica qué se
quiere ejecutar y, posiblemente, qué tipo de recursos necesita reservar.
11. El lenguaje ensamblador, o assembler (en inglés assembly language y la
abreviación asm), es un lenguaje de programación de bajo nivel. Consiste
en un conjunto de mnemónicos que representan instrucciones básicas
para los computadores, microprocesadores, microcontroladores y otros
circuitos integrados programables. Implementa una representación
simbólica de los códigos de máquina binarios y otras constantes necesarias
para programar una arquitectura de procesador y constituye la
representación más directa del código máquina específico para cada
arquitectura legible por un programador. Cada arquitectura de procesador
tiene su propio lenguaje ensamblador que usualmente es definida por el
fabricante de hardware, y está basada en los mnemónicos que simbolizan
los pasos de procesamiento (las instrucciones), los registros del
procesador, las posiciones de memoria y otras características del lenguaje.
Un lenguaje ensamblador es por lo tanto específico de cierta arquitectura
de computador física (o virtual). Esto está en contraste con la mayoría de
los lenguajes de programación de alto nivel, que idealmente son portables.
12. A finales de la década de 1950 se produjo la invención del circuito
integrado o chip, por parte de Jack S. Kilby y Robert Noyce. Después
llevó a Ted Hoff a la invención del microprocesador, en Intel. A finales
de 1960, investigadores como George Gamow en el ADN formaban un
código, otra forma de codificar o programar.12
A partir de esta fecha, empezaron a empaquetarse varios transistores
diminutos y otros componentes electrónicos en un solo chip o
encapsulado, que contenía en su interior un circuito completo: un
amplificador, un oscilador, o una puerta lógica. Naturalmente, con
estos chips (circuitos integrados) era mucho más fácil montar aparatos
complicados: receptores de radio o televisión y computadoras.
Se denomina multiprogramación a una técnica por la que dos o más
procesos pueden alojarse en la memoria principal y ser ejecutados
concurrentemente por el procesador o CPU.
Con la multiprogramación, la ejecución de los procesos (o hilos) se va
solapando en el tiempo a tal velocidad, que causa la impresión de
realizarse en paralelo (simultáneamente). Se trata de un paralelismo
simulado, dado que la CPU sólo puede trabajar con un proceso cada
vez (el proceso activo). De ahí que, en rigor, se diga que la CPU ejecuta
«concurrentemente» (no simultáneamente) varios procesos; en un
lapso de tiempo determinado, se ejecutarán alternativamente partes
de múltiples procesos cargados en la memoria principal.
13. En el campo de la Informática, el spooling (verbo en inglés
derivado de las siglas de simultaneous peripheral operations on-
line) se refiere al proceso mediante el cual la computadora
introduce trabajos en un buffer (un área especial en memoria o
en un disco), de manera que un dispositivo pueda acceder a
ellos cuando esté listo.
El spooling es útil en caso de dispositivos que acceden a los
datos a distintas velocidades. El buffer proporciona un lugar de
espera donde los datos pueden estar hasta que el dispositivo
(generalmente más lento) los procesa. Esto permite que la CPU
pueda trabajar en otras tareas mientras que espera que el
dispositivo más lento acabe de procesar el trabajo.
La aplicación más común del spooling es la impresión.
14. En computación, el uso del tiempo compartido se refiere a
compartir de forma concurrente un recurso computacional
(tiempo de ejecución en la CPU, uso de la memoria, etc.) entre
muchos usuarios por medio de las tecnologías de
multiprogramación y la inclusión de interrupciones de reloj por
parte del sistema operativo, permitiendo a este último acotar el
tiempo de respuesta del computador y limitar el uso de la CPU
por parte de un proceso dado.
Su introducción en los años 1960, y su asentamiento
como modelo típico de la computación en los años
1970, representa un cambio importante en la
historia de la computación. Al permitir que un gran
número de usuarios interactuara y ejecutara
diversos programas de forma simultánea en una sola
computadora, el coste del servicio de computación
bajó drásticamente, mientras que al mismo tiempo
hacía la experiencia computacional mucho más
interactiva.
15. Multics (Multiplexed Information and Computing Service) fue uno
de los primeros sistemas operativos de tiempo compartido y tuvo
una gran influencia en el desarrollo de los posteriores sistemas
operativos.
Los planes iniciales y el desarrollo de Multics comenzaron en 1964.
Originalmente, era un proyecto cooperativo liderado por el
científico estadounidense Fernando J. Corbató del MIT, con la
participación de la corporación General Electric y los laboratorios
Bell. Los laboratorios Bell abandonaron el proyecto en el año 1969,
y en 1970 el negocio de computación de General Electric,
incluyendo Multics, fue adquirido por Honeywell.
Multics fue concebido como un producto comercial por General
Electric, y alcanzó este logro para Honeywell, pero no tuvo un gran
éxito. Sin embargo, tuvo un gran impacto en el campo de la
computación gracias a sus muchas ideas nuevas y valiosas. Aunque
en su época recibió muchas críticas , la historia ha demostrado que
eran infundadas.
16. La denominada Cuarta Generación es el
producto del microprocesador de los circuitos
electrónicos. El tamaño reducido del
microprocesador de chips hizo posible la
creación de las computadoras personales (PC).
Hoy en día las tecnologías LSI (integración a
gran escala) y VLSI (integración a muy gran
escala) permiten que cientos de miles de
componentes electrónicos se almacenen en un
microchip. Usando VLs, un fabricante puede
hacer que una computadora pequeña rivalice
con una computadora de la primera generación
que ocupaba un cuarto completo. Hicieron su
gran debut las microcomputadoras.
Hizo que sea una computadora ideal para uso
“personal”, de ahí que el término “PC” se
estandarizara y los clones que sacaron
posteriormente otras empresas fueron
llamados “PC y compatibles”, usando
procesadores del mismo tipo que las IBM , pero
a un costo menor y pudiendo ejecutar el mismo
tipo de programas.
17. Un circuito integrado (CI), también conocido como chip o microchip, es una estructura de pequeñas dimensiones de
material semiconductor, normalmente silicio, de algunos milímetros cuadrados de superficie (área), sobre la que se fabrican
circuitos electrónicos generalmente mediante fotolitografía y que está protegida dentro de un encapsulado de plástico o de
cerámica.1 El encapsulado posee conductores metálicos apropiados para hacer conexión entre el circuito integrado y un
circuito impreso.
Los CI se hicieron posibles gracias a descubrimientos experimentales que mostraban que artefactos semiconductores
podían realizar las funciones de los tubos de vacío, así como a los avances científicos de la fabricación de semiconductores a
mediados del siglo XX. La integración de grandes cantidades de pequeños transistores dentro de un pequeño espacio fue un
gran avance en la elaboración manual de circuitos utilizando componentes electrónicos discretos. La capacidad de
producción masiva de los circuitos integrados, así como la fiabilidad y acercamiento a la construcción de un diagrama a
bloques en circuitos, aseguraba la rápida adopción de los circuitos integrados estandarizados en lugar de diseños utilizando
transistores discretos.
18. El IBM PC DOS (nombre completo: The IBM Personal
Computer Disk Operating System) es un Sistema
operativo de disco (DOS) para el IBM Personal
Computer y los sistemas compatibles. Fue uno de los
sistemas operativos que dominó el mercado de los
computadores personales entre 1985 y 1995.
Manufacturado y vendido por IBM desde el año 1981
al 2000.
Tiene las mismas raíces que el MS-DOS. De hecho, el
MS DOS y el PC DOS son dos variantes del mismo
sistema operativo con algunas diferencias. Mientras
que el PC DOS fue hecho originalmente para los
computadores personales de IBM, el MS DOS apuntaba
al mercado de los clones.
19. Son aquellos que te permiten instalar programas en el disco duro
para compartir recursos entre varios equipos(cliente). Existen
diferentes sistemas operativos de red los cuales se clasifican por
las siguiente características:
•Medios de transmisión.
•Tipos de usuario(Permisos).
•Cantidad de programas que proporcione a nivel corporativo.
El primer Sistema Operativo de red estaba enfocado a equipos con
un procesador Motorola 68000, pasando posteriormente a
procesadores Intel como Novell Netware.
Los Sistemas Operativos de red mas ampliamente usados son:
Novell Netware, Personal Netware, LAN Manager, Windows NT
Server, UNIX, LANtastic, Li.
La mayoria, de los sistemas actualmente,j&b utilizan el Sistema
Operativo Linux, debido a su elevada seguridad, y estabilidad, Mac
es una buena opcion si se disponen de los recursos necesarios, la
diferencia entre ambos radica en la licencia, el primero es libre y la
segunda es propietario.
20. La quinta generación de computadoras, también
conocida por sus siglas en inglés, FGCS (de Fifth
Generation Computer Systems), fue un proyecto
hecho por Japón que comenzó en 1982. Su objetivo
era el desarrollo de una nueva clase de
computadoras que utilizarían técnicas y tecnologías
de inteligencia artificial tanto en el plano del
hardware como del software,1 usando el lenguaje
PROLOG234 al nivel del lenguaje de máquina y
serían capaces de resolver problemas complejos,
como la traducción automática de una lengua
natural a otra (del japonés al inglés, por ejemplo).
Como unidad de medida del rendimiento y
prestaciones de estas computadoras se empleaba
la cantidad de LIPS (Logical Inferences Per Second)
capaz de realizar durante la ejecución de las
distintas tareas programadas. Para su desarrollo se
emplearon diferentes tipos de arquitecturas VLSI
(Very Large Scale Integration).
21. Unix es un sistema operativo portable,
multitarea y multiusuario; desarrollado
en 1969 por un grupo de empleados de
los laboratorios Bell de AT&T, entre los
que figuran Dennis Ritchie, Ken
Thompson y Douglas McIlroy.12
El sistema, junto con todos los derechos
fueron vendidos por AT&T a Novell, Inc.
Ésta vendió posteriormente el software a
Santa Cruz Operation en 1995, y esta, a
su vez, lo revendió a Caldera Software en
2001, empresa que después se convirtió
en el grupo SCO. Sin embargo, Novell
siempre argumentó que solo vendió los
derechos de uso del software, pero que
retuvo el copyright sobre "UNIX®«.
22. Windows 98 (cuyo nombre en clave es
Memphis) es un sistema operativo gráfico
publicado el 25 de junio de 1998 por
Microsoft y el sucesor de Windows 95.
Como su predecesor, es un producto
monolítico híbrido de 16 y 32 bits.
La primera edición de Windows 98 fue
designada por los números de versión
internos 4.10.1998, o 4.10.1998A si había
sido actualizado con el CD de seguridad de
Microsoft. Windows 98 Segunda Edición
está designado por los números de versión
internos 4.10.2222A ó 4.10.2222B si había
sido actualizado con el CD de seguridad de
Microsoft.
23. Microsoft Windows ME (Windows
Millenium Edition), comercialmente
(que se pronuncia como una
abreviatura, "ME"), es un sistema
operativo gráfico híbrido de 16-bit/32-
bit, lanzado el 14 de septiembre de
2000 diseñado por Microsoft
Corporation para el mayoritario
mercado de usuarios de PC. Tras la
madurez ya alcanzada por sus
predecesores, Windows 95 y Windows
98.
24. XP
Windows XP fue una versión de Microsoft
Windows, basado en Windows 2000 y con
importantes mejoras. Las letras "XP"
provinieron de la palabra eXPeriencia
(eXPerience en inglés). En 1999 su nombre
clave inicial fue Whistler.
Fue lanzado al mercado el 25 de octubre de
2001. En agosto de 2012 tuvo una cuota de
mercado de 46,33 %, y fue superado solo
por Windows 7 al alcanzar un 46,6 % de la
cuota de mercado.
VISTA
Windows Vista es una versión de Microsoft Windows, línea de
sistemas operativos desarrollada por Microsoft. Esta versión se
enfoca a la utilización en equipos de escritorio en hogares y
oficinas, equipos portátiles, tabletas y equipos media center.
El proceso de desarrollo terminó el 8 de noviembre de 2006 y
en los tres meses siguientes fue entregado a los fabricantes de
hardware y software, clientes de negocios y canales de
distribución. El 30 de enero de 2007 fue su lanzamiento mundial
y quedó a disposición para su compra y descarga desde el sitio
web de Microsoft Windows.
25. WINDOWS 7
Windows 7 es una versión de Microsoft Windows, línea
de sistemas operativos producida por Microsoft
Corporation. Esta versión está diseñada para uso en PC,
incluyendo equipos de escritorio en hogares y oficinas,
equipos portátiles, tabletas, netbooks y equipos
multimedia.2 El desarrollo de Windows 7 se completó el
22 de julio de 2009, siendo entonces confirmada su
fecha de venta oficial para el 22 de octubre de 2009
junto a su equivalente para servidores Windows Server
2008 R2.3 En febrero de 2018, tenía una cuota de
mercado de 41,51 %, y fue superado por Windows 10
que ya tenía un 43,95 % de la cuota de mercado.
WINDOWS 10
Windows 10 es el vigente sistema operativo desarrollado por
Microsoft como parte de la familia de sistemas operativos
Windows NT.8 Fue dado a conocer oficialmente en
septiembre de 2014, seguido por una breve presentación de
demostración en la conferencia Build 2014. Entró en fase beta
de prueba en octubre de 2014 y fue lanzado al público en
general el 29 de julio de 2015.