SlideShare una empresa de Scribd logo
1 de 42
Descargar para leer sin conexión
HISTORIA DEL HARDWARE(GENERACIONES 1,2,3,4)
La clasificación evolutiva del hardware del computador
electrónico está dividida en generaciones, donde cada
una supone un cambio tecnológico muy notable
El origen de las primeras es sencillo de establecer, ya
que en ellas el hardware a sufrido cambios
radicales.
Los componentes esenciales que constituyen la
electrónica del computador fueron totalmente
reemplazados en las primeras tres generaciones,
originando cambios que resultaron trascendentales.
En las últimas décadas es más difícil distinguir las
nuevas generaciones, ya que los cambios han sido
graduales y existe cierta continuidad en las tecnologías
usadas, a continuación se separan en:
1ª Generación (1951-1958): TUBOS AL VACÍO
TUBOS AL VACÍO:
Fue creado por Lee De Forest en el año 1907
Esta generación se identifica por el hecho que la
tecnología electrónica estaba basada en "tubos de vacío",
más conocidos como bulbos electrónicos, del tamaño
de un foco de luz casero. Los sistemas de bulbos podían
multiplicar dos números de diez dígitos en un
cuarentavo de segundo.
El inicio de esta generación lo marca la entrega, al cliente.
De la primera UNIVAC. que también es la
primera computadora construida para aplicaciones
comerciales, más que para uso miliar, científico o
de ingeniería.
En aquel entonces las computadoras ya
manejaban información alfabética con la misma facilidad
que la numérica y utilizaban el principio de separación
entre los dispositivos de entrada-salida y la
computadora misma.
Lo revolucionario, con respecto a
las máquinas de cálculo anteriores, consiste en que ahora
el procesador electrónico puede tomar decisiones lógicas
y, aplicándolas, podrá realizar o bien una operación u
otra. Esto es posible, lógicamente, si el hombre a
comunicado previamente a la máquina cómo de
comportarse en los diferentes casos posibles.
Las características generales de estas máquinas
incluyen:
- Memoria principal de tambor magnético, consistente de
pequeños anillos (del tamaño de una cabeza de un
alfiler), engarzada como cuentas en las intersecciones de
una malla de alambres delgados.
- El almacén primario se basaba en tarjetas perforadas, pero
en 1957 se introduce la cinta magnética
como método más rápido y compacto de almacenamiento.
- Necesitaban, por la gran cantidad de calor que
generaban, de costosas instalaciones
de aire acondicionado.
- Tiempos de operación (ejecución de instrucciones)
del rango de milésimas de segundo.
El lenguaje utilizado para programarlas era el
Lenguaje Máquina, basado únicamente en número
binarios (los lenguajes actuales se asemejan mucho al
lenguaje natural), lo que hacia difícil y tardado el
proceso de programar la computadora.
. CARACTERISTICAS PRINCIPALES:
1. Válvula electrónica (tubos al vacío.)
2. Se construye el ordenador ENIAC de grandes
dimensiones (30 toneladas.)
3. Alto consumo de energía. El voltaje de los tubos era de
300 v y la posibilidad de fundirse era grande.
4. Almacenamiento de la información en tambor
magnético interior. Un tambor magnético disponía de
su interior del ordenador, recogía y memorizaba
los datos y los programas que se le suministraban mediante
tarjetas.
5. Lenguaje de máquina. La programación se codifica
en un lenguaje muy rudimentario denominado lenguaje
de máquina. Consistía en la yuxtaposición de largo bits
o cadenas de cero y unos.
6. Fabricación industrial. La iniciativa se aventuro a
entrar en este campo e inició la fabricación de
computadoras en serie. Aplicaciones comerciales. La
gran novedad fue el uso de la computadora en
actividades comerciales.
2ª Generación (1958-1964):TRANSISTORES
Esta generación nace con el uso del "transistor", que
sustituyó a los bulbos electrónicos. El invento del
transistor, en 1948, les valió el Premio Nóbel a los
estadounidenses Walter H. Brattain, John Bardeen y
William B. Shockley. Con esto se da un paso decisivo,
no sólo en la computación, sino en toda la electrónica.
El transistor es un pequeño dispositivo que
transfiere señales eléctricas a través de una resistencia.
Entre las ventajas de los transistores sobre los bulbos se
encuentran: su menor tamaño, no necesitan tiempo de
calentamiento, consumen menos energía y son más
rápidos y confiables.
Las características más relevantes de las
computadoras de esta época son:
- Memoria principal mejorada constituida por núcleos
magnéticos.
- Instalación de sistemas de teleproceso.
- Tiempo de operación del rango de microsegundos
(realizan 100 000 instrucciones por segundo)
- Aparece el primer paquete de discos magnéticos
removibles como medio de almacenaje (1962)
En cuanto a programación, se pasa de lenguajes
máquina a lenguajes ensambladores, también
llamados lenguajes simbólicos. Estos usan
abreviaciones para las instrucciones, como ADD
(sumar), en lugar de números. Con esto la
programación se hizo menos engorrosa.
Después de los lenguajes ensambladores se
empezaron a desarrollar los lenguajes de alto nivel,
como FORTRAN (1954) y COBOL (1959), que se
acercan más a la lengua inglesa que el ensamblador. Esto
permitió a los programadores otorgar más atención a la
resolución de problemas que a la codificación de
programas. Se inicia así el desarrollo de los llamados
sistemas de cómputo.
El avance en el software de esta generación provocó
reducción en los costos de operación de las
computadoras que, en este periodo, se usaban
principalmente en empresas, universidades y organismos
de gobierno.
A partir de 1950 las computadoras se hacen
ampliamente conocidas; algunos pioneros de este
campo habían pensado que las computadoras habían
sido diseñadas por matemáticos para el uso de los
matemáticos, pero ahora se hacía evidente su
potencial de uso en actividades comerciales.
. CARACTERISTICAS PRINCIPALES
1.
2. Transistor. El componente principal es un pequeño
trozo de semiconductor, y se expone en los
llamados circuitos transistorizados.
3. Disminución del tamaño.
4. Disminución del consumo y de la producción del calor.
5. Su fiabilidad alcanza metas imaginables con los
efímeros tubos al vacío.
6. Mayor rapidez ala velocidades de datos.
7. Memoria interna de núcleos de ferrita.
8. Instrumentos de almacenamiento.
9. Mejora de los dispositivos de entrada y salida.
10.Introducción de elementos modulares.
11.Lenguaje de programación más
potente.
3ª
Generación (1964-1971):CIRCUITOS IMPRESOS O
INTEGRADOS
El primer
circuito integrado fue creado en 1959 por el
ingeniero Jack Kilby .En esta época se desarrollan
los circuitos integrados -un circuito electrónico
completo sobre una pastilla (chip) de silicio-, que
constaban inicialmente de la agrupación de unos
cuantos transistores. Hechos de uno de los
elementos más abundantes en la corteza terrestre,
el silicio, una sustancia no metálica que se
encuentra en la arena común de las playas y en
prácticamente en todas las rocas y arcilla. Cada
pastilla, de menos de 1/8 de pulgada cuadrada,
contiene miles o millones de componentes
electrónicos entre transistores, diodos y resistencias. El
silicio es un semiconductor sustancia que conducirá
la corriente eléctrica cuando ha sido "contaminada"
con impurezas químicas.Los chips de circuitos
integrados tienen la ventaja, respecto de los
transistores, de ser más confiables, compactos y de
menor costo. Las técnicas de producción masiva han
hecho posible la manufactura de circuitos integrados de
bajo costo. Las características principales de estas
computadoras son: -Se sigue utilizando la memoria de
núcleos magnéticos.-Los tiempos de operación son
del orden de nanosegundos (una mil millonésima
parte de
segundo)
-Aparece el disco magnético
como medio de almacenamiento.
12.-Compatibilidad de información entre diferentes tipos
de computadoras.
El siguiente desarrollo mayor se da con la Integración a
gran escala (LSI de Large Scale Integration), que hizo
posible aglutinar miles de transistores y dispositivos
relacionados en un solo circuito integrado. Se
producen dos dispositivos que revolucionan la
tecnología computacional: el primero el microprocesador,
un circuito integrado que incluye todas las unidades
necesarias para funcionar como Unidad de
Procesamiento Central y que conllevan la aparición
de las microcomputadoras o computadoras
personales, en 1968, y a la producción de terminales
remotas "inteligentes". El otro dispositivo es la
memoria de acceso aleatorio (RAM) por sus siglas
en inglés.
Hasta 1970 las computadoras mejoraron
dramáticamente en velocidad, confiabilidad y capacidad
de almacenamiento. La llegada de la cuarta
generación sería más una evolución que una revolución;
al pasar del chip especializado para uso en la
memoria y procesos lógicos del inicio de la tercera
generación, al procesador de propósito general en
un chip o microprocesador.
CARACTERISTICAS PRINCIPALES:
1.
2. Circuito integrado, miniaturización y reunión de
centenares de elementos en una placa de silicio o
(chip)
3. Menor consumo.
4. Apreciable reducción de espacio.
5. Aumento de fiabilidad.
6. Teleproceso.
7. Multiprogramación.
8. Renovación de periféricos.
9. Instrumentación del sistema.
10.Compatibilidad.
11.Ampliación de las aplicaciones.
12.La mini computadora.
2. La época se refiere principalmente a las
computadoras de 1980 y continúa hasta la fecha.
Los elementos principales de las computadoras de
esta generación son los microprocesadores, que son
dispositivos de estado sólido, de forma autónoma
efectúan las funciones de acceso, operación y mando
del computador.
También se hace posible la integración a gran
escala muy grande (VLSI Very Large Scale
Integration), incrementando en forma vasta
la densidad de los circuitos del microprocesador, la
memoria y los chips de apoyo aquellos que sirven
de interfase entre los microprocesadores y
los dispositivos de entrada / salida.
A principios de los 90 se producen nuevos paradigmas en
el campo. Las computadoras personales y las
estaciones de trabajo ya eran computadoras
potentes; de alguna manera alcanzaron la
capacidad de las mini computadoras de diez años
antes. Pero lo más importante es que se
empezaron a diseñar para usarse como partes
de redes de computadoras. Surgieron los conceptos
de "computación distribuida" -hacer uso del poder de
cómputo y almacenamiento en cualquier parte de
la red- y "computación cliente-servidor" -una
combinación de computadoras pequeñas y
grandes, conectadas en conjunto, en donde cada
una se usa para lo que es mejor. Otro proceso,
llamado downsizing, se manifestó unas diversas
instancias, donde las computadoras mayores
(mainframes) con terminales dieron cabida a un
sistema de redes con microcomputadoras y
estaciones de trabajo.
4ª Generación (197-1988) CIRCUITOS
ALTAMENTE INTEGRADOS
CUARTA GENERACIÓN: (1971-
PRESENTE)QUINTA GENERACIÓN: (PRESENTE-
FUTURO)
El termino quinta generación fue acuñado por los
japoneses para describir las potentes e "inteligentes"
computadoras que deseaban producir a mediados de
los noventa. La meta es organizar sistemas de
computación que produzcan inferencias y no
solamente realicen cálculos. En el proceso se han
incorporado muchos campos de investigación en la
industria de la computación, como lainteligencia artificial
(IA), los sistemas expertos y el lenguaje natural.
Se distingue normalmente dos clases de entorno:
 ENTORNO DE PROGRAMACION.- orientado a
la construcción de sistemas, están formados por un
conjunto de herramientas que asisten al programador
en las distintas fases del ciclo de construcción
del programa (edición, verificación, ejecución, corrección de
errores, etc.)
 ENTORNO DE UTILIZACIÓN.- orientado a facilitar
la comunicación del usuario con el sistema. Este sistema
esta compuesto por herramientas que facilitan la
comunicación hombre-máquina, sistemas de
adquisición de datos, sistemas gráficos, etc.
1. Ejemplos concretos y explicación de la generación
actual y las tendencias futuras.
1. Las características de los computadores de la
generación actual quedan recibidas en el numero de
procesador (Pentium 4) el cual tiene una velocidad de
procesamiento de 2.8 a 3.6 Giga hertz y los
accesorios periféricos (de entrada y salida) tienen la
características de ser de mas fácil y mas rápida
instalación.
2. GENERACIONES ACTUALES:
3. TENDENCIAS FUTURAS:
Una tendencia constante en el desarrollo de los
ordenadores es la micro miniaturización, iniciativa que
tiende a comprimir más elementos de circuitos en un
espacio de chip cada vez más pequeño. Además, los
investigadores intentan agilizar el funcionamiento de
los circuitos mediante el uso de la superconductividad,
un fenómeno de disminución de la resistencia eléctrica
que se observa cuando se enfrían los objetos a
temperaturas muy bajas.
Las redes informáticas se han vuelto cada vez más
importantes en el desarrollo de la tecnología de
computadoras. Las redes son grupos de computadoras
interconectados mediante sistemas de comunicación.
La red pública Internet es un ejemplo de
red informática planetaria. Las redes permiten que las
computadoras conectadas intercambien rápidamente
información y, en algunos casos, compartan una carga
de trabajo, con lo que muchas computadoras pueden
cooperar en la realización de una tarea. Se están
desarrollando nuevas tecnologías de equipo físico y
soporte lógico que acelerarán los dos procesos
mencionados.
Otra tendencia en el desarrollo de computadoras es el
esfuerzo para crear computadoras de quinta
generación, capaces de resolver problemas complejos
en formas que pudieran llegar a considerarse
creativas. Una vía que se está explorando activamente
es el ordenador de proceso paralelo, que emplea
muchos chips para realizar varias tareas diferentes al
mismo tiempo. El proceso paralelo podría llegar a
reproducir hasta cierto punto las complejas funciones
de realimentación, aproximación y evaluación que
caracterizan al pensamiento humano.
Otra forma de proceso paralelo que se está
investigando es el uso de computadoras moleculares.
En estas computadoras, los símbolos lógicos se expresan
por unidades químicas de ADN en vez de por el flujo de
electrones habitual en las computadoras corrientes.
Las computadoras moleculares podrían llegar a
resolver problemas complicados mucho más
rápidamente que las actuales supercomputadoras y
consumir mucha menos energía.
Ejemplo: Micro miniaturización: este circuito integrado,
un microprocesador F-100, tiene sólo 0,6 cm2, y es lo
bastante pequeño para pasar por el ojo de una aguja.
 1. Generaciones del hardware
 2.  La clasificación evolutiva del hardware del computador
electrónico, esta dividida en generaciones, donde cada una supone un
cambio tecnológico muy notable. Los componentes esenciales que
constituyen la electrónica del computador fueron totalmente
reemplazados en las primeras 3 generaciones, originando cambios que
resultaron trascendentales.  En las ultimas decadas es mas difícil
establecer las nuevas generaciones, ya que los cambios han sido
graduales y existe cierta continuidad en las tecnologías usadas .
 3. 1ra generación(1945-1956)  Electrónica implementada: Los tubos
de vacío  El término tubo de vacío puede hacer referencia a: Una
válvula de vacío o Válvula termoiónica; un componente electrónico. 
Los tubos de vacío que conforman un tipo de colector solar.  Las
computadoras aparato electrónico que sirve para almacenar
información.
 4. 2da generación(1957-1963)  Electrónica desarrollada: Los
transistores  El transistor es un dispositivo electrónico semiconductor
que cumple funciones de amplificador, oscilador, conmutador o
rectificador.  El término "transistor" es la contracción en inglés de
transfer resistor ("resistencia de transferencia").  Actualmente se los
encuentra prácticamente en todos los aparatos domésticos de uso diario:
radios, televisores, grabadoras, reproductores de audio y video, hornos
de microondas, reproductores mp3, teléfonos móviles, etc.
 5. 3ra generación(1964-2000)  Electrónica desarrollada: Circuitos
Integrados (IC)  Un circuito integrado (CI o IC por su nombre en
inglés), también conocido como chip o microchip, es una pastilla
pequeña de material semiconductor, de algunos milímetros cuadrados
de área, sobre la que se fabrican circuitos electrónicos generalmente
mediante fotolitografía y que está protegida dentro de un encapsulado
de plástico o cerámica. El encapsulado posee conductores metálicos
apropiados para hacer conexión entre la pastilla y un circuito impreso.
Gracias a este también se produjo el desarrollo del microprocesador.
 6. 4ta generación(2001-futuro)  Electrónica desarrollada: Robótica 
La robótica es la ciencia y la tecnología de los robots. Se ocupa del
diseño, manufactura y aplicaciones de los robots.  La robótica
combina diversas disciplinas como son: la mecánica, la electrónica, la
informática, la inteligencia artificial y la ingeniería de control.  Otras
áreas importantes en robótica son el álgebra, los autómatas
programables y las máquinas de estados.  El término robot se
popularizó con el éxito de la obra RUR (Robots Universales Rossum),
escrita por Karel Capek en 1920. En la traducción al inglés de dicha
obra, la palabra checa robota, que significa trabajos forzados, fue
traducida al inglés como robot.
Que es hardware
El término hardware (pronunciación AFI: [ˈhɑːdˌwɛə] o [ˈhɑɹdˌwɛɚ]) se refiere a
todas las partes físicas de un sistema informático; sus componentes son:
eléctricos, electrónicos, electromecánicos y mecánicos.1
Son cables, gabinetes o
cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado;
contrariamente, el soporte lógico es intangible y es llamado software. El término es
propio del idioma inglés (literalmente traducido: partes duras), su traducción al
español no tiene un significado acorde, por tal motivo se la ha adoptado tal cual es
y suena; la Real Academia Española lo define como «Conjunto de los
componentes que integran la parte material de una computadora».2
El término,
aunque sea lo más común, no solamente se aplica a las computadoras; del mismo
modo, también un robot, un teléfono móvil, una cámara fotográfica, un reproductor
multimedia o cualquier otro electrónico que procese datos poseen hardware (y
software).3 4
La historia del hardware de computador se puede clasificar en cuatro
generaciones, cada una caracterizada por un cambio tecnológico de importancia.
Una primera delimitación podría hacerse entre hardware básico, el estrictamente
necesario para el funcionamiento normal del equipo, y complementario, el que
realiza funciones específicas.
Un sistema informático se compone de una unidad central de procesamiento (UCP
o CPU), encargada de procesar los datos, uno o varios periféricos de entrada, los
que permiten el ingreso de la información y uno o varios periféricos de salida, los
que posibilitan dar salida (normalmente en forma visual o auditiva) a los datos
procesados. Su abreviatura es Hw.
Historias del hardware
La clasificación evolutiva del hardware del computador electrónico está
dividida en generaciones, donde cada una supone un cambio
tecnológico muy notable. El origen de las primeras es sencillo de
establecer, ya que en ellas el hardware fue sufriendo cambios
radicales.5
Los componentes esenciales que constituyen la electrónica
del computador fueron totalmente reemplazados en las primeras tres
generaciones, originando cambios que resultaron trascendentales. En
las últimas décadas es más difícil distinguir las nuevas generaciones,
ya que los cambios han sido graduales y existe cierta continuidad en
las tecnologías usadas. En principio, se pueden distinguir:
 1.ª Generación (1945-1956): electrónica implementada con tubos
de vacío. Fueron las primeras máquinas que desplazaron los
componentes electromecánicos (relés).
 2.ª Generación (1957-1963): electrónica desarrollada con
transistores. La lógica discreta era muy parecida a la anterior,
pero la implementación resultó mucho más pequeña,
reduciendo, entre otros factores, el tamaño de un computador en
notable escala.
 3.ª Generación (1964-hoy): electrónica basada en circuitos
integrados. Esta tecnología permitió integrar cientos de
transistores y otros componentes electrónicos en un único
circuito integrado impreso en una pastilla de silicio. Las
computadoras redujeron así considerablemente su costo,
consumo y tamaño, incrementándose su capacidad, velocidad y
fiabilidad, hasta producir máquinas como las que existen en la
actualidad.
 4.ª Generación (futuro): probablemente se originará cuando los
circuitos de silicio, integrados a alta escala, sean reemplazados
por un nuevo tipo de material o tecnología.6
La aparición del microprocesador marca un hito de relevancia, y para
muchos autores constituye el inicio de la cuarta generación.7
A
diferencia de los cambios tecnológicos anteriores, su invención no
supuso la desaparición radical de los computadores que no lo
utilizaban. Así, aunque el microprocesador 4004 fue lanzado al
mercado en 1971, todavía a comienzo de los 80's había
computadores, como el PDP-11/44,8
con lógica carente de
microprocesador que continuaban exitosamente en el mercado; es
decir, en este caso el desplazamiento ha sido muy gradual.
Otro hito tecnológico usado con frecuencia para definir el inicio de la
cuarta generación es la aparición de los circuitos integrados VLSI (very
large scale integration), a principios de los ochenta. Al igual que el
microprocesador, no supuso el cambio inmediato y la rápida
desaparición de los computadores basados en circuitos integrados en
más bajas escalas de integración. Muchos equipos implementados
con tecnologías VLSI y MSI (medium scale integration) aún coexistían
exitosamente hasta bien entrados los 90.
Clasificaciones
Clasificación del hardware
Microcontrolador Motorola 68HC11 y chips de soporte que podrían
constituir el hardware de un equipo electrónico industrial.
Una de las formas de clasificar el hardware es en dos categorías: por
un lado, el básico, que abarca el conjunto de componentes
indispensables necesarios para otorgar la funcionalidad mínima a una
computadora; y por otro lado, el hardware complementario, que,
como su nombre indica, es el utilizado para realizar funciones
específicas (más allá de las básicas), no estrictamente necesarias
para el funcionamiento de la computadora.
Necesita un medio de entrada de datos, la unidad central de
procesamiento, la memoria RAM, un medio de salida de datos y un
medio de almacenamiento constituyen el hardware básico.
Los medios de entrada y salida de datos estrictamente indispensables
dependen de la aplicación: desde el punto de vista de un usuario
común, se debería disponer, al menos, de un teclado y un monitor
para entrada y salida de información, respectivamente; pero ello no
implica que no pueda haber una computadora (por ejemplo
controlando un proceso) en la que no sea necesario teclado ni monitor;
bien puede ingresar información y sacar sus datos procesados, por
ejemplo, a través de una placa de adquisición/salida de datos.
Las computadoras son aparatos electrónicos capaces de interpretar y
ejecutar instrucciones programadas y almacenadas en su memoria;
consisten básicamente en operaciones aritmético-lógicas y de
entrada/salida.9
Se reciben las entradas (datos), se las procesa y
almacena (procesamiento), y finalmente se producen las salidas
(resultados del procesamiento). Por ende todo sistema informático
tiene, al menos, componentes y dispositivos hardware dedicados a
alguna de las funciones antedichas;10
a saber:
1. Procesamiento: unidad central de procesamiento
2. Almacenamiento: Memorias
3. Entrada: Periféricos de entrada (E)
4. Salida: Periféricos de salida (S)
5. Entrada/Salida: Periféricos mixtos (E/S)
Desde un punto de vista básico y general, un dispositivo de entrada es
el que provee el medio para permitir el ingreso de información, datos y
programas (lectura); un dispositivo de salida brinda el medio para
registrar la información y datos de salida (escritura); la memoria otorga
la capacidad de almacenamiento, temporal o permanente
(almacenamiento); y la CPU provee la capacidad de cálculo y
procesamiento de la información ingresada (transformación).11
Un periférico mixto es aquél que puede cumplir funciones tanto de
entrada como de salida; el ejemplo más típico es el disco rígido (ya
que en él se lee y se graba información y datos).
Unidad central de procesamiento
Artículo principal: CPU
Microprocesador de 64 bits doble núcleo, el AMD Athlon 64 X2 3600.
La Unidad Central de Procesamiento, conocida por las siglas en inglés
CPU, es el componente fundamental de la computadora, encargado
de interpretar y ejecutar instrucciones y de procesar datos.12
En
computadores modernos, la función de la CPU la realiza uno o más
microprocesadores. Se conoce como microprocesador a una CPU que
es manufacturada como un único circuito integrado.
Un servidor de red o una máquina de cálculo de alto rendimiento
(supercomputación), puede tener varios, incluso miles de
microprocesadores trabajando simultáneamente o en paralelo
(multiprocesamiento); en este caso, todo ese conjunto conforma la
CPU de la máquina.
Las unidades centrales de proceso (CPU) en la forma de un único
microprocesador no sólo están presentes en las computadoras
personales (PC), sino también en otros tipos de dispositivos que
incorporan una cierta capacidad de proceso o "inteligencia
electrónica", como pueden ser: controladores de procesos industriales,
televisores, automóviles, calculadores, aviones, teléfonos móviles,
electrodomésticos, juguetes y muchos más. Actualmente los
diseñadores y fabricantes más populares de microprocesadores de PC
son Intel y AMD; y para el mercado de dispositivos móviles y de bajo
consumo, los principales son Samsung, Qualcomm, Texas
Instruments, MediaTek, NVIDIA e Intel.
Placa base de una computadora, formato µATX.
Placa base del teléfono móvil Samsung Galaxy Spica, se pueden
distinguir varios "System-on-a-Chip" soldados en ella.
El microprocesador se monta en la llamada placa base, sobre un
zócalo conocido como zócalo de CPU, que permite las conexiones
eléctricas entre los circuitos de la placa y el procesador. Sobre el
procesador ajustado a la placa base se fija un disipador térmico de un
material con elevada conductividad térmica, que por lo general es de
aluminio, y en algunos casos de cobre. Éste es indispensable en los
microprocesadores que consumen bastante energía, la cual, en gran
parte, es emitida en forma de calor: en algunos casos pueden
consumir tanta energía como una lámpara incandescente (de 40 a 130
vatios).
Adicionalmente, sobre el disipador se acopla uno o dos ventiladores
(raramente más), destinados a forzar la circulación de aire para extraer
más rápidamente el calor acumulado por el disipador y originado en el
microprocesador. Complementariamente, para evitar daños por
efectos térmicos, también se suelen instalar sensores de temperatura
del microprocesador y sensores de revoluciones del ventilador, así
como sistemas automáticos que controlan la cantidad de revoluciones
por unidad de tiempo de estos últimos.
La gran mayoría de los circuitos electrónicos e integrados que
componen el hardware del computador van montados en la placa
madre.
Placa principal, placa madre o placa base
Artículo principal: Placa base
La placa base, también conocida como placa madre o principal o con
los anglicismos motherboard o mainboard,13
es un gran circuito
impreso sobre el que se suelda el chipset, las ranuras de expansión
(slots), los zócalos, conectores, diversos integrados, etc. Es el soporte
fundamental que aloja y comunica a todos los demás componentes:
Procesador, módulos de memoria RAM, tarjetas gráficas, tarjetas de
expansión, periféricos de entrada y salida. Para comunicar esos
componentes, la placa base posee una serie de buses mediante los
cuales se trasmiten los datos dentro y hacia afuera del sistema.
La tendencia de integración ha hecho que la placa base se convierta
en un elemento que incluye a la mayoría de las funciones básicas
(vídeo, audio, red, puertos de varios tipos), funciones que antes se
realizaban con tarjetas de expansión. Aunque ello no excluye la
capacidad de instalar otras tarjetas adicionales específicas, tales como
capturadoras de vídeo, tarjetas de adquisición de datos, etc.
También, la tendencia en los últimos años es eliminar elementos
separados en la placa base e integrarlos al microprocesador. En ese
sentido actualmente se encuentran sistemas denominados System on
a Chip que consiste en un único circuito integrado que integra varios
módulos electrónicos en su interior, tales como un procesador, un
controlador de memoria, una GPU, Wi-Fi, Bluetooth, etc. La mejora
más notable en esto está en la reducción de tamaño frente a igual
funcionalidad con módulos electrónicos separados. La figura muestra
una aplicación típica, en la placa principal de un teléfono móvil.
Las principales funciones que presenta un placa base son:
 Conexión física
 Administración, control y distribución de energía eléctrica
 Comunicación de datos
 Temporización
 Sincronismo
 Control y monitoreo
Memoria RAM
Módulos de memoria RAM instalados.
Artículo principal: Memoria RAM
La sigla RAM, del inglés Random Access Memory, literalmente
significa memoria de acceso aleatorio. El término tiene relación con
la característica de presentar iguales tiempos de acceso a cualquiera
de sus posiciones (ya sea para lectura o para escritura). Esta
particularidad también se conoce como "acceso directo", en
contraposición al Acceso secuencial.
La RAM es la memoria utilizada en una computadora para el
almacenamiento transitorio y de trabajo (no masivo). En la RAM se
almacena temporalmente la información, datos y programas que la
Unidad de Procesamiento (CPU) lee, procesa y ejecuta. La memoria
RAM es conocida como Memoria principal de la computadora, también
como "Central o de Trabajo";14
a diferencia de las llamadas memorias
auxiliares, secundarias o de almacenamiento masivo (como discos
duros, unidades de estado sólido, cintas magnéticas u otras
memorias).
Las memorias RAM son, comúnmente, volátiles; lo cual significa que
pierden rápidamente su contenido al interrumpir su alimentación
eléctrica.
Las más comunes y utilizadas como memoria central son "dinámicas"
(DRAM), lo cual significa que tienden a perder sus datos almacenados
en breve tiempo (por descarga, aún estando con alimentación
eléctrica), por ello necesitan un circuito electrónico específico que se
encarga de proveerle el llamado "refresco" (de energía) para mantener
su información.
La memoria RAM de un computador se provee de fábrica e instala en
lo que se conoce como “módulos”. Ellos albergan varios circuitos
integrados de memoria DRAM que, conjuntamente, conforman toda la
memoria principal.
Memoria RAM dinámica
Es la presentación más común en computadores modernos
(computador personal, servidor); son tarjetas de circuito impreso que
tienen soldados circuitos integrados de memoria por una o ambas
caras, además de otros elementos, tales como resistores y
condensadores. Esta tarjeta posee una serie de contactos metálicos
(con un recubrimiento de oro) que permite hacer la conexión eléctrica
con el bus de memoria del controlador de memoria en la placa base.
Los integrados son de tipo DRAM, memoria denominada "dinámica",
en la cual las celdas de memoria son muy sencillas (un transistor y un
condensador), permitiendo la fabricación de memorias con gran
capacidad (algunos cientos de Megabytes) a un costo relativamente
bajo.
Las posiciones de memoria o celdas, están organizadas en matrices y
almacenan cada una un bit. Para acceder a ellas se han ideado varios
métodos y protocolos cada uno mejorado con el objetivo de acceder a
las celdas requeridas de la manera más eficiente posible.
Memorias RAM con tecnologías usadas en la actualidad.
Entre las tecnologías recientes para integrados de memoria DRAM
usados en los módulos RAM se encuentran:
 SDR SDRAM: Memoria con un ciclo sencillo de acceso por ciclo
de reloj. Actualmente en desuso, fue popular en los equipos
basados en el Pentium III y los primeros Pentium 4.
 DDR SDRAM: Memoria con un ciclo doble y acceso anticipado a
dos posiciones de memoria consecutivas. Fue popular en
equipos basados en los procesadores Pentium 4 y Athlon 64.
 DDR2 SDRAM: Memoria con un ciclo doble y acceso anticipado
a cuatro posiciones de memoria consecutivas.
 DDR3 SDRAM: Memoria con un ciclo doble y acceso anticipado
a ocho posiciones de memoria consecutivas. Es el tipo de
memoria más actual, está reemplazando rápidamente a su
predecesora, la DDR2.
 DDR4 SDRAM: Los módulos de memoria DDR4 SDRAM tienen
un total de 288 pines DIMM. La velocidad de datos por pin, va de
un mínimo de 1,6 GT/s hasta un objetivo máximo inicial de 3,2
GT/s. Las memorias DDR4 SDRAM tienen un mayor rendimiento
y menor consumo que las memorias DDR predecesoras. Tienen
un gran ancho de banda en comparación con sus versiones
anteriores.
Los estándares JEDEC, establecen las características eléctricas y las
físicas de los módulos, incluyendo las dimensiones del circuito
impreso.
Los estándares usados actualmente son:
 DIMM Con presentaciones de 168 pines (usadas con SDR y
otras tecnologías antiguas), 184 pines (usadas con DDR y el
obsoleto SIMM) y 240 (para las tecnologías de memoria DDR2 y
DDR3).
 SO-DIMM Para computadores portátiles, es una miniaturización
de la versión DIMM en cada tecnología. Existen de 144 pines
(usadas con SDR), 200 pines (usadas con DDR y DDR2) y 240
pines (para DDR3).
Memorias RAM especiales
Hay memorias RAM con características que las hacen particulares, y
que normalmente no se utilizan como memoria central de la
computadora; entre ellas se puede mencionar:
 SRAM: Siglas de Static Random Access Memory. Es un tipo de
memoria más rápida que la DRAM (Dynamic RAM). El término
"estática" deriva del hecho que no necesita el refresco de sus
datos. Si bien esta RAM no requiere circuito de refresco, ocupa
más espacio y utiliza más energía que la DRAM. Este tipo de
memoria, debido a su alta velocidad, es usada como memoria
caché.
 NVRAM: Siglas de Non-Volatile Random Access Memory.
Memoria RAM no volátil (mantiene la información en ausencia de
alimentación eléctrica). Hoy en día, la mayoría de memorias
NVRAM son memorias flash, muy usadas para teléfonos móviles
y reproductores portátiles de MP3.
 VRAM: Siglas de Video Random Access Memory. Es un tipo de
memoria RAM que se utiliza en las tarjetas gráficas del
computador. La característica particular de esta clase de
memoria es que es accesible de forma simultánea por dos
dispositivos. Así, es posible que la CPU grabe información en
ella, al tiempo que se leen los datos que serán visualizados en el
Monitor de computadora.
De las anteriores a su vez, hay otros subtipos más.
Periféricos
Artículo principal: Periféricos
Se entiende por periférico a las unidades o dispositivos que permiten a
la computadora comunicarse con el exterior, esto es, tanto ingresar
como exteriorizar información y datos.10
Los periféricos son los que
permiten realizar las operaciones conocidas como de entrada/salida
(E/S).11
Aunque son estrictamente considerados “accesorios” o no esenciales,
muchos de ellos son fundamentales para el funcionamiento adecuado
de la computadora moderna; por ejemplo, el teclado, el disco duro y el
monitor son elementos actualmente imprescindibles; pero no lo son un
escáner o un plóter. Para ilustrar este punto: en los años 80, muchas
de las primeras computadoras personales no utilizaban disco duro ni
mouse (o ratón), tenían sólo una o dos disqueteras, el teclado y el
monitor como únicos periféricos.
Dispositivos de entrada de información (E)
Teclado para PC inalámbrico.
Ratón (Mouse) común alámbrico.
De esta categoría son aquellos que permiten el ingreso de
información, en general desde alguna fuente externa o por parte del
usuario. Los dispositivos de entrada proveen el medio fundamental
para transferir hacia la computadora (más propiamente al procesador)
información desde alguna fuente, sea local o remota. También
permiten cumplir la esencial tarea de leer y cargar en memoria el
sistema operativo y las aplicaciones o programas informáticos, los que
a su vez ponen operativa la computadora y hacen posible realizar las
más diversas tareas.11
Entre los periféricos de entrada se puede mencionar:10
teclado, mouse
o ratón, escáner, micrófono, cámara web, lectores ópticos de código
de barras, Joystick, lectora de CD, DVD o BluRay (solo lectoras),
placas de adquisición/conversión de datos, etc.
Pueden considerarse como imprescindibles para el funcionamiento,
(de manera como hoy se concibe la informática) al teclado, al ratón y
algún dispositivo lector de discos; ya que tan sólo con ellos el
hardware puede ponerse operativo para un usuario. Los otros son más
bien accesorios, aunque en la actualidad pueden resultar de tanta
necesidad que son considerados parte esencial de todo el sistema.
Impresora de inyección de tinta.
Dispositivos de salida de información (S)
Son aquellos que permiten emitir o dar salida a la información
resultante de las operaciones realizadas por la CPU (procesamiento).
Los dispositivos de salida aportan el medio fundamental para
exteriorizar y comunicar la información y datos procesados; ya sea al
usuario o bien a otra fuente externa, local o remota.11
Los dispositivos más comunes de este grupo son los monitores
clásicos (no de pantalla táctil), las impresoras, y los altavoces.10
Entre los periféricos de salida puede considerarse como
imprescindible para el funcionamiento del sistema, al monitor. Otros,
aunque accesorios, son sumamente necesarios para un usuario que
opere un computador moderno.
Dispositivos mixtos (E/S de información)
Piezas de un Disco duro.
Son aquellos dispositivos que pueden operar de ambas formas: tanto
de entrada como de salida.11
Típicamente, se puede mencionar como
periféricos mixtos o de entrada/salida a: discos rígidos, disquetes,
unidades de cinta magnética, lecto-grabadoras de CD/DVD, discos
ZIP, etc. También entran en este rango, con sutil diferencia, otras
unidades, tales como: Tarjetas de Memoria flash o unidad de estado
sólido, tarjetas de red, módems, tarjetas de captura/salida de vídeo,
etc.10
Si bien se puede clasificar al pendrive (lápiz de memoria), memoria
flash o memoria USB o unidades de estado sólido en la categoría de
memorias, normalmente se los utiliza como dispositivos de
almacenamiento masivo; siendo todos de categoría Entrada/Salida.15
Los dispositivos de almacenamiento masivo10
también son conocidos
como "Memorias Secundarias o Auxiliares". Entre ellos, sin duda, el
disco duro ocupa un lugar especial, ya que es el de mayor importancia
en la actualidad, en el que se aloja el sistema operativo, todas las
aplicaciones, utilitarios, etc. que utiliza el usuario; además de tener la
suficiente capacidad para albergar información y datos en grandes
volúmenes por tiempo prácticamente indefinido. Los servidores Web,
de correo electrónico y de redes con bases de datos, utilizan discos
rígidos de grandes capacidades y con una tecnología que les permite
trabajar a altas velocidades como SCSI incluyendo también,
normalmente, capacidad de redundancia de datos RAID; incluso
utilizan tecnologías híbridas: disco rígido y unidad de estado sólido, lo
que incrementa notablemente su eficiencia. Las interfaces actuales
más usadas en discos duros son: IDE, SATA, SCSI y SAS; y en las
unidades de estado sólido son SATA y PCI-Express ya que necesitan
grandes anchos de banda.
La pantalla táctil (no el monitor clásico) es un dispositivo que se
considera mixto, ya que además de mostrar información y datos
(salida) puede actuar como un dispositivo de entrada, reemplazando,
por ejemplo, a algunas funciones del ratón o del teclado.
Hardware gráfico
GPU de Nvidia GeForce.
Artículo principal: Tarjeta gráfica
El hardware gráfico lo constituyen básicamente las tarjetas gráficas.
Dichos componentes disponen de su propia memoria y unidad de
procesamiento, esta última llamada unidad de procesamiento gráfico
(o GPU, siglas en inglés de Graphics Processing Unit). El objetivo
básico de la GPU es realizar los cálculos asociados a operaciones
gráficas, fundamentalmente en coma flotante,16
liberando así al
procesador principal (CPU) de esa costosa tarea (en tiempo) para que
éste pueda efectuar otras funciones en forma más eficiente. Antes de
esas tarjetas de vídeo con aceleradores por hardware, era el
procesador principal el encargado de construir la imagen mientras la
sección de vídeo (sea tarjeta o de la placa base) era simplemente un
traductor de las señales binarias a las señales requeridas por el
monitor; y buena parte de la memoria principal (RAM) de la
computadora también era utilizada para estos fines.
Dentro de ésta categoría no se deben omitir los sistemas gráficos
integrados (IGP), presentes mayoritariamente en equipos portátiles o
en equipos prefabricados (OEM), los cuales generalmente, a
diferencia de las tarjetas gráficas, no disponen de una memoria
dedicada, utilizando para su función la memoria principal del sistema.
La tendencia en los últimos años es integrar los sistemas gráficos
dentro del propio procesador central. Los procesadores gráficos
integrados (IGP) generalmente son de un rendimiento y consumo
notablemente más bajo que las GPU de las tarjetas gráficas
dedicadas, no obstante, son más que suficiente para cubrir las
necesidades de la mayoría de los usuarios de un PC.
Actualmente se están empezando a utilizar las tarjetas gráficas con
propósitos no exclusivamente gráficos, ya que en potencia de cálculo
la GPU es superior, más rápida y eficiente que el procesador para
operaciones en coma flotante, por ello se está tratando de
aprovecharla para propósitos generales, al concepto, relativamente
reciente, se le denomina GPGPU (General-Purpose Computing on
Graphics Processing Units).
La Ley de Moore establece que cada 18 a 24 meses la cantidad de
transistores que puede contener un circuito integrado se logra duplicar;
en el caso de los GPU esta tendencia es bastante más notable,
duplicando, o aún más, lo indicado en la ley de Moore.17
Desde la década de 1990, la evolución en el procesamiento gráfico ha
tenido un crecimiento vertiginoso; las actuales animaciones por
computadoras y videojuegos eran impensables veinte años atrás.
Historia del hardware
La máquina analítica de Charles Babbage, en el Science Museum de Londres.
El hardware ha sido un componente importante del proceso de cálculo y
almacenamiento de datos desde que se volvió útil para que los valores numéricos
fueran procesados y compartidos. El hardware de computador más primitivo fue
probablemente el palillo de cuenta;1
después grabado permitía recordar cierta
cantidad de elementos, probablemente ganado o granos, en contenedores. Algo
similar se puede encontrar cerca de las excavaciones de Minoan. Estos elementos
parecen haber sido usadas por los comerciantes, contadores y los oficiales del
gobierno de la época.
Los dispositivos de ayuda provenientes de la computación han cambiado de
simples dispositivos de grabación y conteo al ábaco, la regla de cálculo, la
computadora analógica y los más recientes, la computadora u ordenador. Hasta
hoy, un usuario experimentado del ábaco usando un dispositivo que tiene más de
100 años puede a veces completar operaciones básicas más rápidamente que
una persona inexperta en el uso de las calculadoras electrónicas, aunque en el
caso de los cálculos más complejos, los computadores son más efectivos que el
humano más experimentado.
Primeros computadores digitales
La era del computador moderno comenzó con un explosivo desarrollo antes y
durante la Segunda Guerra Mundial, a medida que los circuitos electrónicos, los
relés, los condensadores, y los tubos de vacío reemplazaron los equivalentes
mecánicos y los cálculos digitales reemplazaron los cálculos análogos. Las
máquinas como el Atanasoff–Berry Computer, Z3, Colossus, y el ENIAC fueron
construidas a mano usando circuitos que contenían relés o válvulas (tubos de
vacío), y a menudo usaron tarjetas perforadas o cintas perforadas para la entrada
y como el medio de almacenamiento principal (no volátil).
En esta era, un número de diferentes máquinas fueron producidas con
capacidades que constantemente avanzaban. Al principio de este período, no
existió nada que se asemejara remotamente a una computadora moderna,
excepto en los planes perdidos por largo tiempo de Charles Babbage y las
visiones matemáticas de Alan Turing y otros. Al final de la era, habían sido
construidos dispositivos como el EDSAC, y son considerados universalmente
como computadores digitales. Definir un solo punto en la serie, como la "primera
computadora", pierde muchos sutiles detalles.
El texto escrito por Alan Turing en 1936 probó ser enormemente influyente en la
computación y ciencias de la computación de dos maneras. Su principal propósito
era probar que había problemas (nombrados el problema de la parada) que no
podían ser solucionados por ningún proceso secuencial. Al hacer eso, Turing
proporcionó una definición de una computadora universal, una construcción que
vino a ser llamada máquina de Turing, un dispositivo puramente teórico que
formaliza el concepto de ejecución de algoritmo, reemplazando el engorroso
lenguaje universal basado en en aritmética de Kurt Gödel. Excepto por las
limitaciones impuestas por sus almacenamientos de memoria finitos, se dice que
las computadoras modernas son Turing completo, que es como decir que tienen la
capacidad de ejecución de algoritmo equivalente a una máquina universal de
Turing. Este tipo limitado de la cualidad de Turing completo es algunas veces visto
como la capacidad umbral que separa las computadoras de uso general de sus
precursores de propósito específico.
Para que una máquina de computación sea una computadora de propósito general
práctica, debe haber algún mecanismo de lectura/escritura conveniente, como por
ejemplo la cinta perforada. Para la completa versatilidad, la arquitectura de von
Neumann usa la misma memoria para almacenar tanto los programas como los
datos; virtualmente todas las computadoras contemporáneas usan esta
arquitectura (o alguna variante). Mientras que es teóricamente posible
implementar una computadora completa mecánicamente (como demostró el
diseño de Babbage), la electrónica hizo posible la velocidad y más adelante la
miniaturización que caracterizan las computadoras modernas.
En la era de la Segunda Guerra Mundial había tres corrientes paralelas en el
desarrollo de la computadora, y dos fueron ignoradas en gran parte o
deliberadamente mantenidas en secreto. La primera fue el trabajo alemán de
Konrad Zuse. La segunda fue el desarrollo secreto de la computadora Colossus en
el Reino Unido. Ninguna de éstas tuvieron mucha influencia en los varios
proyectos de computación en los Estados Unidos. La tercera corriente de
desarrollo de la computadora, el ENIAC y el EDVAC de Eckert y Mauchly, fue
publicada extensamente.
La serie Z de Konrad Zuse: Las primeras computadoras controladas
por programa
Una reproducción de la computadora Z1 de Zuse.
Trabajando aisladamente en Alemania, en 1936 Konrad Zuse comenzó la
construcción de sus primeras calculadoras de la serie Z que ofrecían memoria y
programabilidad (limitada inicialmente). La Z1 de Zuse, que aunque puramente
mecánica ya era binaria, fue finalizada en 1938. Nunca trabajó confiablemente
debido a problemas con la precisión de las piezas.
La subsecuente máquina de Zuse, el Z3, fue finalizada en 1941. Estaba basada en
relés telefónicos y trabajó satisfactoriamente. El Z3 se convirtió así en la primera
computadora funcional, de todo propósito, controlada por programa. De muchas
maneras era muy similar a las máquinas modernas, siendo pionera en numerosos
avances, tales como números de coma flotante. El reemplazo del difícil de
implementar sistema decimal, usado en el diseño temprano de Charles Babbage,
por el más simple sistema binario, significó que las máquinas de Zuse eran más
fáciles de construir y potencialmente más confiables, dadas las tecnologías
disponibles en aquel tiempo. Esto a veces es visto como la razón principal por la
que Zuse tuvo éxito donde Babbage falló.
Los programas fueron alimentados en el Z3 por medio de películas perforadas.
Faltaban los saltos condicionales, pero desde los años 1990 se ha probado
teóricamente que el Z3 seguía siendo un computador universal (ignorando sus
limitaciones de tamaño físico de almacenamiento). En dos aplicaciones de patente
de 1936, Konrad Zuse también anticipó que las instrucciones de máquina podían
ser almacenadas en el mismo almacenamiento usado para los datos - la idea
clave de lo que sería conocido como la arquitectura de von Neumann y fue
implementada por primera vez en el posterior diseño del EDSAC británico (1949).
Zuse también decía haber diseñado el primer lenguaje de programación de alto
nivel, (Plankalkül), en 1945 (que fue publicado en 1948) aunque fue implementado
por primera vez en 2000 por un equipo dirigido por Raúl Rojas en la Universidad
Libre de Berlín, cinco años después de la muerte de Zuse.
Zuse sufrió reveses durante la Segunda Guerra Mundial cuando algunas de sus
máquinas fueron destruidas en el curso de las campañas aliadas de bombardeos.
Aparentemente su trabajo en gran parte siguió siendo desconocido a los
ingenieros en el Reino Unido y los E.E.U.U. hasta mucho más tarde, aunque al
menos la IBM estaba enterada de ellos pues financiaron a su compañía de
lanzamiento de posguerra en 1946, a cambio de una opción sobre las patentes de
Zuse.
Colossus
El colossus fue usado para romper cifrados alemanes durante la Segunda Guerra
Mundial.
Artículo principal: Colossus
Durante la Segunda Guerra Mundial, los británicos en Bletchley Park alcanzaron
un número de éxitos al romper las comunicaciones militares alemanas cifradas. La
máquina de cifrado alemana, Enigma, fue atacada con la ayuda de máquinas
electromecánicas llamadas bombes. La bombe, diseñada por Alan Turing y
Gordon Welchman, después de la bomba criptográfica polaca (1938), eliminaba
ajustes posibles del Enigma al realizar cadenas deducciones lógicas
implementadas eléctricamente. La mayoría de las posibilidades conducían a una
contradicción, y las pocas restantes se podían probar a mano.
Los alemanes también desarrollaron una serie de sistemas de cifrado de
teleimpresora, muy diferentes del Enigma. La máquina Lorenz SZ 40/42 fue usada
para las comunicaciones de alto nivel del ejército, llamada "Tunny" por los
británicos. Las primeras intercepciones de los mensajes Lorenz comenzaron en
1941. Como parte de un ataque contra los Tunny, el profesor Max Newman y sus
colegas ayudaron a especificar el colossus. El Mk I colossus fue construido entre
marzo y diciembre de 1943 por Tommy Flowers y sus colegas en el Post Office
Research Station en Dollis Hill en Londres y después enviado a Bletchley Park.
El colossus fue el primer dispositivo de computación totalmente electrónico. El
colossus usó una gran cantidad de válvulas (tubos de vacío). Tenía entrada de
cinta de papel y era capaz de ser configurado para realizar una variedad de
operaciones de lógica booleana en sus datos, pero no era Turing completo.
Fueron construidos nueve Mk II Colossi (el Mk I fue convertido en un Mk II
haciendo diez máquinas en total). Los detalles de su existencia, diseño, y uso
fueron mantenidos secretos bien entrados los años 1970. Winston Churchill
personalmente publicó una orden para su destrucción en piezas no más grandes
que la mano de un hombre. debido a este secreto los Colossi no fueron incluidos
en muchas historias de la computación. Una copia reconstruida de una de las
máquinas Colossus está ahora en exhibición en Bletchley Park.
Desarrollos norteamericanos
En 1937, Claude Shannon produjo su tesis magistral en el MIT que por primera
vez en la historia implicaba el álgebra booleana usando relés y conmutadores
electrónicos. La tesis de Shannon, intitulada A Symbolic Analysis of Relay and
Switching Circuits (Un análisis simbólico de circuitos de conmutación y relés),
esencialmente funda el diseño de circuitos digitales prácticos.
En noviembre de 1937, George Stibitz, entonces trabajando en los Laboratorios
Bell, terminó una computadora basada en relés que calculaba con la adición
binaria y apodó con el nombre de "Modelo K" (por "kitchen" (cocina), donde él la
había ensamblado). A finales de 1938, los Laboratorios Bell autorizaron un
programa de investigación completo con Stibitz al timón. Su Complex Number
Calculator, terminado el 8 de enero de 1940, podía calcular números complejos.
En una demostración del 11 de septiembre de 1940 en la conferencia de la
American Mathematical Society en el Dartmouth College, Stibitz pudo enviar, al
Complex Number Calculator, comandos remotos sobre líneas telefónicas por un
teletipo. Fue la primera máquina de computación usada remotamente, en este
caso sobre una línea telefónica. Algunos participantes en la conferencia que
atestiguaron la demostración eran John von Neumann, John Mauchly, y Norbert
Wiener, quien escribió sobre ello en sus memorias.
En 1939, John Vincent Atanasoff y Clifford E. Berry de Iowa State University
desarrollaron el Atanasoff Berry Computer (ABC), una calculadora electrónica
digital de propósito especial para solucionar sistemas de ecuaciones lineares. La
meta original era solucionar 29 ecuaciones simultáneas de 29 incógnitas cada
una, pero debido a errores en el mecanismo del perforador de tarjetas la máquina
terminada solamente podía solucionar algunas ecuaciones. El diseño usaba más
de 300 tubos de vacío para alta velocidad y empleaba para la memoria
condensadores fijados en un tambor que rotaba mecánicamente. Aunque la
máquina ABC no era programable, fue la primera en usar circuitos electrónicos. El
co-inventor del ENIAC, John Mauchly, examinó el ABC en junio de 1941, y su
influencia en el diseño de la posterior máquina ENIAC es una cuestión de
controversia entre los historiadores del computador. El ABC fue en gran parte
olvidado hasta que se convirtió en el foco del pleito legal Honeywell vs. Sperry
Rand, la decisión invalidó la patente de ENIAC (y varias otras), entre muchas
razones por haber sido anticipado por el trabajo de Atanasoff.
En 1939, en los laboratorios Endicott de la IBM comenzó el desarrollo del Harvard
Mark I. Conocido oficialmente como el Automatic Sequence Controlled Calculator,
el Mark I fue una computadora electromecánica de propósitos generales
construida con el financiamiento de la IBM y con la asistencia del personal de la
IBM, bajo dirección del matemático de Harvard, Howard Aiken. Su diseño fue
influenciado por la Máquina Analítica de Babbage, usando ruedas de aritmética y
almacenamiento decimal e interruptores rotatorios además de relés
electromagnéticos. Era programable vía una cinta de papel perforado, y contenía
varias unidades de cálculo trabajando en paralelo. Versiones posteriores
contuvieron varios lectores de cinta de papel y la máquina podía cambiar entre los
lectores basados en una condición. Sin embargo, la máquina no era
absolutamente Turing completa. El Mark I fue trasladado a la universidad de
Harvard y comenzó la operación en mayo de 1944.
ENIAC
Artículo principal: ENIAC
El ENIAC realizó cálculos de la trayectoria balística usando 160 kilovatios de
energía.
El ENIAC (Electronic Numerical Integrator and Computer), construido en los
Estados Unidos, fue el primer computador electrónico de propósitos generales.
Construido bajo la dirección de John Mauchly y John Presper Eckert en la
universidad de Pennsylvania, era 1.000 veces más rápido que sus
contemporáneos. El desarrollo y la construcción del ENIAC duró desde 1943 hasta
estar operativo completamente al final de 1945.
Cuando su diseño fue propuesto, muchos investigadores creyeron que los millares
de delicadas válvulas (es decir tubos de vacío) se quemarían tan frecuentemente
que el ENIAC estaría con tanta frecuencia inactivo por reparaciones que sería
inútil. Sin embargo, era capaz de miles de operaciones por segundo por horas
enteras entre las fallas de válvulas. Validó abiertamente el uso de la electrónica
para la computación en gran escala. Esto fue crucial para el desarrollo del
computador moderno.
El ENIAC era inequívocamente un dispositivo Turing completo. Sin embargo, un
"programa" en el ENIAC era definido por el cableado mismo, enchufes e
interruptores, una decepcionante disparidad con las máquinas electrónicas de
programa almacenado que se desarrollaron a partir del ENIAC. Programarlo
significaba recablearlo. Las mejoras completadas en 1948 hicieron posible
ejecutar programas almacenados en la "memoria" fija de la tabla de funciones (un
gran panel portátil de interruptores decimales), que hizo de la programación un
esfuerzo más sencillo y sistemático.
La máquina de von Neumann de primera
generación y otros trabajos
Incluso antes de que el ENIAC estuviera terminado, Eckert y Mauchly
reconocieron sus limitaciones y comenzaron el diseño de una nueva computadora,
el EDVAC, que debía tener programa almacenado. John von Neumann escribió un
reporte de amplia circulación que describía el diseño del EDVAC en el que tanto
los programas como los datos de trabajo estaban almacenados en un solo espacio
de almacenamiento unificado. Este diseño básico, que sería conocido como la
arquitectura de von Neumann, serviría como la base para el desarrollo de las
primeras computadoras digitales de propósito general realmente flexibles.
En esta generación, el almacenamiento temporal o de trabajo fue proporcionado
por líneas de retardo acústico, que usaban el tiempo de propagación del sonido a
través de un medio como el mercurio líquido (o a través de un alambre) para
almacenar datos brevemente. Una serie de pulsos acústicos eran enviados a lo
largo de un tubo; después de un tiempo, en lo que el pulso alcanzaba el extremo
del tubo, el circuito detectaba si el pulso representaba un 1 ó un 0 y causaba al
oscilador volver a reenviar el pulso. Otros usaron los tubos de Williams, que
utilizan la capacidad de un tubo de imagen de televisión para almacenar y de
recuperar datos. Por 1954, la memoria de núcleo magnético rápidamente desplazó
la mayoría de las otras formas de almacenamiento temporal, y dominó el campo
hasta mediados de los años 1970.
El "Bebé" en el Museo de Ciencia e Industria (MSIM), de Mánchester (Inglaterra).
La primera máquina funcional de von Neumann fue el "Baby" ("Bebé") de
Mánchester o Small-Scale Experimental Machine, construida en la universidad de
Mánchester en 1948; fue seguida en 1949 por el computador Manchester Mark I
que funcionó como un sistema completo usando el tubo Williams y el tambor
magnético para la memoria, y también introdujo los registros de índice. El otro
competidor para el título de "primer computador digital de programa almacenado"
había sido el EDSAC, diseñado y construido en la Universidad de Cambridge.
Operacional en menos de un año después de la Manchester "Baby", también era
capaz de abordar problemas reales. EDSAC fue inspirado de hecho por los planes
para el EDVAC (Electronic Discrete Variable Automatic Computer), el sucesor del
ENIAC; estos planes ya estaban en el lugar correcto para el tiempo en que el
ENIAC fue operacional exitosamente. A diferencia del ENIAC, que usaba el
procesamiento paralelo, el EDVAC usó una sola unidad de procesamiento. Este
diseño era más simple y fue el primero en ser implementado en cada exitosa onda
de miniaturización, y creciente confiabilidad. Algunos ven al Manchester Mark
I/EDSAC/EDVAC como las "Evas" de la cuales casi todas las computadoras
actuales derivan su arquitectura.
La primera computadora programable universal en la Unión Soviética fue creada
por un equipo de científicos bajo dirección de Sergei Alekseyevich Lebedev del
Instituto Kiev de Electrotecnología, Unión Soviética (ahora Ucrania). El
computador MESM (МЭСМ, Small Electronic Calculating Machine) estuvo
operacional en 1950. Tenía cerca de 6.000 tubos de vacío y consumida 25 kW de
energía. Podía realizar aproximadamente 3.000 operaciones por segundo. Otra
máquina temprana fue el CSIRAC, un diseño australiano que corrió su primer
programa de prueba en 1949. CSIRAC es el computador más viejo todavía en
existencia y el primero en haber sido usado para ejecutar música digital.4
En octubre de 1947, los directores de J. Lyons & Company, una compañía
británica del famosa por sus tiendas de té (pequeños restaurantes) pero con
fuertes intereses en las nuevas técnicas de gerencia de oficinas, decidido a tomar
un papel activo en promover el desarrollo comercial de los computadores. Por
1951 el computador LEO I estuvo operacional y corrió el primer job de computador
de oficina rutinario regular del mundo.
La máquina de la universidad de Mánchester se convirtió en el prototipo para la
Ferranti Mark I. La primera máquina Ferranti Mark I fue entregada a la Universidad
en febrero de 1951 y por lo menos otras nueve fueron vendidas entre 1951 y 1957.
En junio de 1951, el UNIVAC I (Universal Automatic Computer) fue entregado a la
Oficina del Censo de los Estados Unidos. Aunque fue fabricada por Remington
Rand, la máquina con frecuencia fue referida equivocadamente como la "IBM
UNIVAC". Eventualmente Remington Rand vendió 46 máquinas en más de $1
millón por cada una. El UNIVAC era el primer computador 'producido en masa';
todos los predecesores habían sido unidades 'únicas en su tipo'. Usó 5.200 tubos
de vacío y consumía 125 kW de energía. Usó para la memoria una línea de
retardo de mercurio capaz de almacenar 1.000 palabras de 11 dígitos decimales
más el signo (palabras de 72 bits). A diferencia de las máquinas de la IBM no fue
equipado de un lector de tarjetas perforadas sino con una entrada de cinta
magnética de metal al estilo de los años 1930, haciéndola incompatible con
algunos almacenamientos de datos comerciales existentes. La cinta de papel
perforado de alta velocidad y las cintas magnéticas del estilo moderno fueron
usados para entrada/salida por otras computadoras de la era.
En noviembre de 1951, la compañía J. Lyons comenzó la operación semanal de
un Job de valuaciones de panadería en el LEO (Lyons Electronic Office). Éste fue
la primera aplicación de negocio en tener vida en un computador de programa
almacenado.
En 1952, la IBM anunció público el IBM 701 Electronic Data Processing Machine,
la primera en su excitosa 700/7000 series y su primer computador IBM mainframe.
El IBM 704, introducido en 1954, usó la memoria de núcleo magnético, que se
convirtió en el estándar para las máquinas grandes. El primer lenguaje de
programación de propósitos generales de alto nivel implementado, FORTRAN,
también fue desarrollado en la IBM para los 704 durante 1955 y 1956 y lanzado a
principios de 1957. (El diseño en 1945 del leguaje de alto nivel Plankalkül, de
Konrad Zuse, no fue implementado en aquel tiempo).
En 1954 la IBM introdujo un computador más pequeño y más económico que
probó ser muy popular. El IBM 650 pesaba más de 900 kg, la fuente de
alimentación pesada alrededor 1.350 kg y ambos fueron contenidos en gabinetes
separados de más o menos 1,5 x 0,9 x 1,8 metros. Costaba $500.000 o podía ser
arrendada por $3.500 al mes. Su memoria de tambor tenía originalmente
solamente 2.000 palabras de diez dígitos, y requería una programación arcana
para una eficiente computación. Las limitaciones de la memoria tales como ésta
iban a dominar la programación por décadas posteriores, hasta la evolución de las
capacidades del hardware y un modelo de programación que eran más benévolos
al desarrollo del software.
En 1955, Maurice Wilkes inventó la microprogramación, que fue posteriormente
ampliamente usada en los CPUs y las unidades de punto flotante de los
mainframes y de otras computadoras, tales como las series del IBM 360. La
microprogramación permite al conjunto de instrucciones base ser definido o
extendido por programas incorporados en el hardware (ahora a veces llamado
como firmware, microcódigo, o milicódigo).
En 1956, la IBM vendió su primer sistema de disco magnético, RAMAC (Random
Access Method of Accounting and Control). Usó 50 discos de metal de 24
pulgadas (610 mm), con 100 pistas por lado. Podía almacenar 5 megabytes de
datos y costaba $10.000 por megabyte. (En 2006, el almacenamiento magnético,
en la forma de discos duros, costaba menos de un décimo de un centavo por
megabyte).
Computadoras analógicas avanzadas
Analizador diferencial de Cambridge, 1938.
Artículo principal: Computador analógico
Antes de la Segunda Guerra Mundial, las computadoras analógicas mecánicas y
eléctricas eran consideradas el "estado del arte", y muchos pensaban que eran el
futuro de la computación.
Las computadoras analógicas toman ventaja de las fuertes similitudes entre las
matemáticas de propiedades de pequeña escala -- la posición y el movimiento de
ruedas o el voltaje y la corriente de componentes electrónicos -- y las matemáticas
de otros fenómenos físicos, ej. trayectorias balísticas, inercia, resonancia,
transferencia de energía, momento, etc.
Modelar los fenómenos físicos con las propiedades eléctricas rinde una gran
ventaja sobre usar modelos físicos:
1. los componentes eléctricos son más pequeños y baratos; son más
fácilmente construidos y ejercitados.
2. Aunque de otra manera similar, los fenómenos eléctricos se pueden hacer
que ocurran en marcos de tiempo convenientemente cortos.
Estos sistemas trabajan creando análogos eléctricos de otros sistemas,
permitiendo a los usuarios predecir el comportamiento de los sistemas de interés
al observar los análogos eléctricos. La más útil de las analogías fue la manera en
que el comportamiento en pequeña escala podía ser representado con ecuaciones
diferenciales e integrales, y por lo tanto podía ser usado para solucionar esas
ecuaciones. Un ingenioso ejemplo de tal máquina fue el integrador de agua
construido en 1928; un ejemplo eléctrico es la máquina de Mallock construida en
1941.
A diferencia de las computadoras digitales modernas, las computadoras
analógicas no eran muy flexibles, y necesitan ser reconfiguradas (es decir
reprogramadas) manualmente para cambiar de un problema a otro. Las
computadoras analógicas tenían una ventaja sobre los primeros computadores
digitales en que podían ser usadas para solucionar problemas complejos usando
comportamientos análogos, mientras que las primeras tentativas con
computadoras digitales fueron muy limitadas. Pero a medida que las
computadoras digitales han venido siendo más rápidas y usaban memorias más
grandes (ej, RAM o almacenamiento interno), han desplazado casi completamente
a las computadoras analógicas, y la programación de computadores, o
codificación ha surgido como otra profesión humana.
Puesto que las computadoras eran raras en esta era, las soluciones eran a
menudo manuales en formas como gráficas en papel y nomogramas, que
entonces podían producir soluciones analógicas a esos problemas, tales como la
distribución de presiones y temperaturas en un sistema de calefacción.
Algunas de las computadoras analógicas más extensamente desplegadas
incluyeron dispositivos para apuntar armas, tales como los sistemas de
lanzamiento de torpedos o el Norden bombsight y Fire-control system para
embarcaciones navales. Algunos de éstos permanecieron en uso por décadas
después de la segunda guerra mundial. Un ejemplo es el Mark I Fire Control
Computer, desplegado por la Armada de los Estados Unidos en una variedad de
naves desde los destructores y los acorazados.
Otros ejemplos incluyeron el Heathkit EC-1, y la computadora hidráulica MONIAC.
El arte de la computación analógica alcanzó su cenit con el Analizador diferencia,
inventado en 1876 por James Thomson y construido por H. W. Nieman y
Vannevar Bush en el MIT comenzando en 1927. Fueron construidas menos de
una docena de estos dispositivos; el más poderoso fue construido en la Escuela
Moore de Ingeniería Eléctrica en la Universidad de Pensilvania, donde también fue
construido el ENIAC. Las computadoras electrónicas digitales, como el ENIAC,
significaron el fin para la mayoría de las máquinas analógicas de computación,
pero las computadoras analógicas híbridas, controladas por electrónica digital,
permanecían en uso en los años 1950 y 1960, y siguieron más adelante en
aplicaciones especializadas.
Computadora analógica
Computador analógico.
Una computadora analógica u ordenador real es un tipo de computadora que
utiliza dispositivos electrónicos o mecánicos para modelar el problema que
resuelven utilizando un tipo de cantidad física para representar otra cifra.
Para el modelado se utiliza la analogía existente en términos matemáticos de
algunas situaciones en diferentes campos. Por ejemplo, la que existe entre los
movimientos oscilatorios en mecánica y el análisis de corrientes alternas en
electricidad. Estos dos problemas se resuelven por ecuaciones diferenciales y
pueden asemejarse términos entre uno y otro problema para obtener una solución
satisfactoria.
Usado en contraposición a las computadoras digitales, en los cuales los
fenómenos físicos o mecánicos son utilizados para construir una máquina de
estado finito que es usada después para modelar el problema a resolver. Hay un
grupo intermedio, los computadores híbridos, en los que un computador digital
es utilizado para controlar y organizar entradas y salidas hacia y desde
dispositivos analógicos anexos; por ejemplo, los dispositivos analógicos podrían
ser utilizados para generar valores iniciales para iteraciones. Así, un ábaco sería
un computador digital, y una regla de cálculo un computador analógico.
Los computadores analógicos ideales operan con números reales y son
diferenciales, mientras que los computadores digitales se limitan a números
computables y son algebraicos. Esto significa que los computadores analógicos
tienen una tasa de dimensión de la información (ver teoría de la información), o
potencial de dominio informático más grande que los computadores digitales (ver
teorema de incompletitud de Gödel). Esto, en teoría, permite a los computadores
analógicos resolver problemas que son indescifrables con computadores digitales.
Los teóricos de la informática suelen usar el término ordenador real (llamado así
porque opera dentro del conjunto de números reales), para evitar los
malentendidos populares sobre los computadores analógicos.
Algunos ejemplos de computadores analógicos son:
 Predictores de marea
 Integrador de agua
 Computador de datos del objetivo para submarinos
 Modelo Hidráulico de la economía del Reino Unido
 El mecanismo de Antiquitera
 La regla de cálculo

Más contenido relacionado

La actualidad más candente

Evolucion de los procesadores
Evolucion de los procesadoresEvolucion de los procesadores
Evolucion de los procesadorespgr95
 
Historia del pc clase 1
Historia del pc clase 1Historia del pc clase 1
Historia del pc clase 1racos2405
 
Generacion del Computador Expo
Generacion del Computador ExpoGeneracion del Computador Expo
Generacion del Computador Expoyecxon delgado
 
Flor villa cuadro
Flor villa cuadroFlor villa cuadro
Flor villa cuadroflorvilla
 
Segunda generacion de la computadora
Segunda generacion de la computadoraSegunda generacion de la computadora
Segunda generacion de la computadorarutbelintel
 
Procesador
ProcesadorProcesador
ProcesadorPAREDESA
 
Diapositivas historia de los computadores
Diapositivas historia de los computadoresDiapositivas historia de los computadores
Diapositivas historia de los computadoresCarmen Xiques
 
Presentacion ppt
Presentacion pptPresentacion ppt
Presentacion pptusuariomapi
 
Primera generacion de las computadoras
Primera generacion de las computadorasPrimera generacion de las computadoras
Primera generacion de las computadorasDAYSIPAZ
 
Circuitos integrados
Circuitos integradosCircuitos integrados
Circuitos integradospaoloyustiz
 
Generacion de las computadoras de la primera a la quinta.
Generacion de las computadoras de la primera a la quinta.Generacion de las computadoras de la primera a la quinta.
Generacion de las computadoras de la primera a la quinta.yiyialex
 
La historia del hardware y el computador
La historia del hardware y el computadorLa historia del hardware y el computador
La historia del hardware y el computadormelina martinez
 
Universidad popular del cesar microprocesadores familia intel
Universidad popular del cesar microprocesadores familia intelUniversidad popular del cesar microprocesadores familia intel
Universidad popular del cesar microprocesadores familia inteljose triana
 
Generaciones de las computadoras
Generaciones de las computadorasGeneraciones de las computadoras
Generaciones de las computadoraschikibell
 

La actualidad más candente (16)

Evolucion de los procesadores
Evolucion de los procesadoresEvolucion de los procesadores
Evolucion de los procesadores
 
Historia del pc clase 1
Historia del pc clase 1Historia del pc clase 1
Historia del pc clase 1
 
Generacion del Computador Expo
Generacion del Computador ExpoGeneracion del Computador Expo
Generacion del Computador Expo
 
Flor villa cuadro
Flor villa cuadroFlor villa cuadro
Flor villa cuadro
 
Segunda generacion de la computadora
Segunda generacion de la computadoraSegunda generacion de la computadora
Segunda generacion de la computadora
 
Historia
HistoriaHistoria
Historia
 
Procesador
ProcesadorProcesador
Procesador
 
Diapositivas historia de los computadores
Diapositivas historia de los computadoresDiapositivas historia de los computadores
Diapositivas historia de los computadores
 
Presentacion ppt
Presentacion pptPresentacion ppt
Presentacion ppt
 
Primera generacion de las computadoras
Primera generacion de las computadorasPrimera generacion de las computadoras
Primera generacion de las computadoras
 
Circuitos integrados
Circuitos integradosCircuitos integrados
Circuitos integrados
 
Trabajo de campo 1
Trabajo de campo 1Trabajo de campo 1
Trabajo de campo 1
 
Generacion de las computadoras de la primera a la quinta.
Generacion de las computadoras de la primera a la quinta.Generacion de las computadoras de la primera a la quinta.
Generacion de las computadoras de la primera a la quinta.
 
La historia del hardware y el computador
La historia del hardware y el computadorLa historia del hardware y el computador
La historia del hardware y el computador
 
Universidad popular del cesar microprocesadores familia intel
Universidad popular del cesar microprocesadores familia intelUniversidad popular del cesar microprocesadores familia intel
Universidad popular del cesar microprocesadores familia intel
 
Generaciones de las computadoras
Generaciones de las computadorasGeneraciones de las computadoras
Generaciones de las computadoras
 

Destacado

Historia i guiadocente.planificaciones EGB
Historia i guiadocente.planificaciones EGBHistoria i guiadocente.planificaciones EGB
Historia i guiadocente.planificaciones EGBAdolfo Cerda Muñoz
 
Sistemas operativos evolución
Sistemas operativos evoluciónSistemas operativos evolución
Sistemas operativos evoluciónAndrés Chávez
 
Línea del tiempo de sistemas operativos
Línea del tiempo de sistemas operativosLínea del tiempo de sistemas operativos
Línea del tiempo de sistemas operativosJose Luis Chacon
 
Linea del tiempo evolucion de la comunicacion
Linea del tiempo evolucion de la comunicacionLinea del tiempo evolucion de la comunicacion
Linea del tiempo evolucion de la comunicacionmaquiromas
 
Historia y evolución de la comunicacion
Historia y evolución de la comunicacionHistoria y evolución de la comunicacion
Historia y evolución de la comunicacionEvelynPaguay
 

Destacado (6)

Unidad 1 actividad_1_1_
Unidad 1 actividad_1_1_Unidad 1 actividad_1_1_
Unidad 1 actividad_1_1_
 
Historia i guiadocente.planificaciones EGB
Historia i guiadocente.planificaciones EGBHistoria i guiadocente.planificaciones EGB
Historia i guiadocente.planificaciones EGB
 
Sistemas operativos evolución
Sistemas operativos evoluciónSistemas operativos evolución
Sistemas operativos evolución
 
Línea del tiempo de sistemas operativos
Línea del tiempo de sistemas operativosLínea del tiempo de sistemas operativos
Línea del tiempo de sistemas operativos
 
Linea del tiempo evolucion de la comunicacion
Linea del tiempo evolucion de la comunicacionLinea del tiempo evolucion de la comunicacion
Linea del tiempo evolucion de la comunicacion
 
Historia y evolución de la comunicacion
Historia y evolución de la comunicacionHistoria y evolución de la comunicacion
Historia y evolución de la comunicacion
 

Similar a Informatica exp.

Procesadores victor milano
Procesadores victor milanoProcesadores victor milano
Procesadores victor milanoVictor Milano
 
Generaciones del computador
Generaciones del computadorGeneraciones del computador
Generaciones del computadorjaneth
 
Generacion computadores
Generacion computadoresGeneracion computadores
Generacion computadoresFelipe
 
Generaciones de computadoras folleto
Generaciones de computadoras folletoGeneraciones de computadoras folleto
Generaciones de computadoras folletoNathaliaSolisArgueda
 
Generaciones de computadoras[1]...
Generaciones de computadoras[1]...Generaciones de computadoras[1]...
Generaciones de computadoras[1]...mauroivandorado
 
Caracteristicas principales
Caracteristicas principalesCaracteristicas principales
Caracteristicas principalesDavid Pagalo
 
Generacion de los computadores
Generacion de los computadoresGeneracion de los computadores
Generacion de los computadoresramses007
 
Colegiounidad educativa julio maria matovelle
Colegiounidad educativa julio maria matovelleColegiounidad educativa julio maria matovelle
Colegiounidad educativa julio maria matovelleandres_liga_campeon
 
Colegiounidad educativa julio maria matovelle
Colegiounidad educativa julio maria matovelleColegiounidad educativa julio maria matovelle
Colegiounidad educativa julio maria matovelleandres_liga_campeon
 
Generacion del-computador-hacerlo-ya-1227458766843969-8
Generacion del-computador-hacerlo-ya-1227458766843969-8Generacion del-computador-hacerlo-ya-1227458766843969-8
Generacion del-computador-hacerlo-ya-1227458766843969-8C Orley Tirado
 
Generaciones del computador
Generaciones del computadorGeneraciones del computador
Generaciones del computadorgalarzac
 
Primeros Ordenadores
Primeros OrdenadoresPrimeros Ordenadores
Primeros Ordenadoresguest2902378
 
Primeros Ordenadores
Primeros OrdenadoresPrimeros Ordenadores
Primeros Ordenadoresguest2902378
 
Evolucion Del Computador
Evolucion Del ComputadorEvolucion Del Computador
Evolucion Del Computadorigilbaro
 
Evolucion Del Computador
Evolucion Del ComputadorEvolucion Del Computador
Evolucion Del Computadorigilbaro
 

Similar a Informatica exp. (20)

Generacion del computador
Generacion del computadorGeneracion del computador
Generacion del computador
 
Procesadores victor milano
Procesadores victor milanoProcesadores victor milano
Procesadores victor milano
 
Generaciones del computador
Generaciones del computadorGeneraciones del computador
Generaciones del computador
 
Generacion computadores
Generacion computadoresGeneracion computadores
Generacion computadores
 
Generaciones de computadoras folleto
Generaciones de computadoras folletoGeneraciones de computadoras folleto
Generaciones de computadoras folleto
 
Generaciones de computadoras[1]...
Generaciones de computadoras[1]...Generaciones de computadoras[1]...
Generaciones de computadoras[1]...
 
Muii
MuiiMuii
Muii
 
Caracteristicas principales
Caracteristicas principalesCaracteristicas principales
Caracteristicas principales
 
Computadores
ComputadoresComputadores
Computadores
 
Generacion de los computadores
Generacion de los computadoresGeneracion de los computadores
Generacion de los computadores
 
Colegiounidad educativa julio maria matovelle
Colegiounidad educativa julio maria matovelleColegiounidad educativa julio maria matovelle
Colegiounidad educativa julio maria matovelle
 
Colegiounidad educativa julio maria matovelle
Colegiounidad educativa julio maria matovelleColegiounidad educativa julio maria matovelle
Colegiounidad educativa julio maria matovelle
 
Generacion del-computador-hacerlo-ya-1227458766843969-8
Generacion del-computador-hacerlo-ya-1227458766843969-8Generacion del-computador-hacerlo-ya-1227458766843969-8
Generacion del-computador-hacerlo-ya-1227458766843969-8
 
Generaciones del computador
Generaciones del computadorGeneraciones del computador
Generaciones del computador
 
Primeros Ordenadores
Primeros OrdenadoresPrimeros Ordenadores
Primeros Ordenadores
 
Primeros Ordenadores
Primeros OrdenadoresPrimeros Ordenadores
Primeros Ordenadores
 
Evolucion Del Computador
Evolucion Del ComputadorEvolucion Del Computador
Evolucion Del Computador
 
Evolucion Del Computador
Evolucion Del ComputadorEvolucion Del Computador
Evolucion Del Computador
 
Fundamento
FundamentoFundamento
Fundamento
 
Fundamento
FundamentoFundamento
Fundamento
 

Último

NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARONARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFAROJosé Luis Palma
 
La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptxJunkotantik
 
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxzulyvero07
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadAlejandrino Halire Ccahuana
 
Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.José Luis Palma
 
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptxEXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptxPryhaSalam
 
2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdfBaker Publishing Company
 
Neurociencias para Educadores NE24 Ccesa007.pdf
Neurociencias para Educadores  NE24  Ccesa007.pdfNeurociencias para Educadores  NE24  Ccesa007.pdf
Neurociencias para Educadores NE24 Ccesa007.pdfDemetrio Ccesa Rayme
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Carlos Muñoz
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzprofefilete
 
Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Lourdes Feria
 
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptxOLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptxjosetrinidadchavez
 
Estrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónEstrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónLourdes Feria
 
MAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMarjorie Burga
 
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.pptDE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.pptELENA GALLARDO PAÚLS
 
CALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADCALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADauxsoporte
 

Último (20)

NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARONARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
 
La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptx
 
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
 
Repaso Pruebas CRECE PR 2024. Ciencia General
Repaso Pruebas CRECE PR 2024. Ciencia GeneralRepaso Pruebas CRECE PR 2024. Ciencia General
Repaso Pruebas CRECE PR 2024. Ciencia General
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdad
 
Defendamos la verdad. La defensa es importante.
Defendamos la verdad. La defensa es importante.Defendamos la verdad. La defensa es importante.
Defendamos la verdad. La defensa es importante.
 
Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.
 
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptxEXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
 
2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf
 
Neurociencias para Educadores NE24 Ccesa007.pdf
Neurociencias para Educadores  NE24  Ccesa007.pdfNeurociencias para Educadores  NE24  Ccesa007.pdf
Neurociencias para Educadores NE24 Ccesa007.pdf
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
 
Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...
 
Power Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptxPower Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptx
 
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptxOLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
 
Estrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónEstrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcción
 
MAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grande
 
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.pptDE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
 
La Trampa De La Felicidad. Russ-Harris.pdf
La Trampa De La Felicidad. Russ-Harris.pdfLa Trampa De La Felicidad. Russ-Harris.pdf
La Trampa De La Felicidad. Russ-Harris.pdf
 
CALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADCALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDAD
 

Informatica exp.

  • 1. HISTORIA DEL HARDWARE(GENERACIONES 1,2,3,4) La clasificación evolutiva del hardware del computador electrónico está dividida en generaciones, donde cada una supone un cambio tecnológico muy notable El origen de las primeras es sencillo de establecer, ya que en ellas el hardware a sufrido cambios radicales. Los componentes esenciales que constituyen la electrónica del computador fueron totalmente reemplazados en las primeras tres generaciones, originando cambios que resultaron trascendentales. En las últimas décadas es más difícil distinguir las nuevas generaciones, ya que los cambios han sido graduales y existe cierta continuidad en las tecnologías usadas, a continuación se separan en: 1ª Generación (1951-1958): TUBOS AL VACÍO TUBOS AL VACÍO:
  • 2. Fue creado por Lee De Forest en el año 1907 Esta generación se identifica por el hecho que la tecnología electrónica estaba basada en "tubos de vacío", más conocidos como bulbos electrónicos, del tamaño de un foco de luz casero. Los sistemas de bulbos podían multiplicar dos números de diez dígitos en un cuarentavo de segundo. El inicio de esta generación lo marca la entrega, al cliente. De la primera UNIVAC. que también es la primera computadora construida para aplicaciones comerciales, más que para uso miliar, científico o de ingeniería. En aquel entonces las computadoras ya manejaban información alfabética con la misma facilidad que la numérica y utilizaban el principio de separación entre los dispositivos de entrada-salida y la computadora misma. Lo revolucionario, con respecto a las máquinas de cálculo anteriores, consiste en que ahora el procesador electrónico puede tomar decisiones lógicas y, aplicándolas, podrá realizar o bien una operación u otra. Esto es posible, lógicamente, si el hombre a comunicado previamente a la máquina cómo de comportarse en los diferentes casos posibles. Las características generales de estas máquinas incluyen: - Memoria principal de tambor magnético, consistente de pequeños anillos (del tamaño de una cabeza de un alfiler), engarzada como cuentas en las intersecciones de una malla de alambres delgados.
  • 3. - El almacén primario se basaba en tarjetas perforadas, pero en 1957 se introduce la cinta magnética como método más rápido y compacto de almacenamiento. - Necesitaban, por la gran cantidad de calor que generaban, de costosas instalaciones de aire acondicionado. - Tiempos de operación (ejecución de instrucciones) del rango de milésimas de segundo. El lenguaje utilizado para programarlas era el Lenguaje Máquina, basado únicamente en número binarios (los lenguajes actuales se asemejan mucho al lenguaje natural), lo que hacia difícil y tardado el proceso de programar la computadora. . CARACTERISTICAS PRINCIPALES: 1. Válvula electrónica (tubos al vacío.) 2. Se construye el ordenador ENIAC de grandes dimensiones (30 toneladas.) 3. Alto consumo de energía. El voltaje de los tubos era de 300 v y la posibilidad de fundirse era grande. 4. Almacenamiento de la información en tambor magnético interior. Un tambor magnético disponía de su interior del ordenador, recogía y memorizaba los datos y los programas que se le suministraban mediante tarjetas. 5. Lenguaje de máquina. La programación se codifica en un lenguaje muy rudimentario denominado lenguaje de máquina. Consistía en la yuxtaposición de largo bits o cadenas de cero y unos. 6. Fabricación industrial. La iniciativa se aventuro a entrar en este campo e inició la fabricación de computadoras en serie. Aplicaciones comerciales. La
  • 4. gran novedad fue el uso de la computadora en actividades comerciales. 2ª Generación (1958-1964):TRANSISTORES Esta generación nace con el uso del "transistor", que sustituyó a los bulbos electrónicos. El invento del transistor, en 1948, les valió el Premio Nóbel a los estadounidenses Walter H. Brattain, John Bardeen y William B. Shockley. Con esto se da un paso decisivo, no sólo en la computación, sino en toda la electrónica. El transistor es un pequeño dispositivo que transfiere señales eléctricas a través de una resistencia. Entre las ventajas de los transistores sobre los bulbos se encuentran: su menor tamaño, no necesitan tiempo de calentamiento, consumen menos energía y son más rápidos y confiables. Las características más relevantes de las computadoras de esta época son: - Memoria principal mejorada constituida por núcleos magnéticos. - Instalación de sistemas de teleproceso.
  • 5. - Tiempo de operación del rango de microsegundos (realizan 100 000 instrucciones por segundo) - Aparece el primer paquete de discos magnéticos removibles como medio de almacenaje (1962) En cuanto a programación, se pasa de lenguajes máquina a lenguajes ensambladores, también llamados lenguajes simbólicos. Estos usan abreviaciones para las instrucciones, como ADD (sumar), en lugar de números. Con esto la programación se hizo menos engorrosa. Después de los lenguajes ensambladores se empezaron a desarrollar los lenguajes de alto nivel, como FORTRAN (1954) y COBOL (1959), que se acercan más a la lengua inglesa que el ensamblador. Esto permitió a los programadores otorgar más atención a la resolución de problemas que a la codificación de programas. Se inicia así el desarrollo de los llamados sistemas de cómputo. El avance en el software de esta generación provocó reducción en los costos de operación de las computadoras que, en este periodo, se usaban principalmente en empresas, universidades y organismos de gobierno. A partir de 1950 las computadoras se hacen ampliamente conocidas; algunos pioneros de este campo habían pensado que las computadoras habían sido diseñadas por matemáticos para el uso de los matemáticos, pero ahora se hacía evidente su potencial de uso en actividades comerciales. . CARACTERISTICAS PRINCIPALES 1.
  • 6. 2. Transistor. El componente principal es un pequeño trozo de semiconductor, y se expone en los llamados circuitos transistorizados. 3. Disminución del tamaño. 4. Disminución del consumo y de la producción del calor. 5. Su fiabilidad alcanza metas imaginables con los efímeros tubos al vacío. 6. Mayor rapidez ala velocidades de datos. 7. Memoria interna de núcleos de ferrita. 8. Instrumentos de almacenamiento. 9. Mejora de los dispositivos de entrada y salida. 10.Introducción de elementos modulares. 11.Lenguaje de programación más potente. 3ª Generación (1964-1971):CIRCUITOS IMPRESOS O INTEGRADOS El primer circuito integrado fue creado en 1959 por el ingeniero Jack Kilby .En esta época se desarrollan
  • 7. los circuitos integrados -un circuito electrónico completo sobre una pastilla (chip) de silicio-, que constaban inicialmente de la agrupación de unos cuantos transistores. Hechos de uno de los elementos más abundantes en la corteza terrestre, el silicio, una sustancia no metálica que se encuentra en la arena común de las playas y en prácticamente en todas las rocas y arcilla. Cada pastilla, de menos de 1/8 de pulgada cuadrada, contiene miles o millones de componentes electrónicos entre transistores, diodos y resistencias. El silicio es un semiconductor sustancia que conducirá la corriente eléctrica cuando ha sido "contaminada" con impurezas químicas.Los chips de circuitos integrados tienen la ventaja, respecto de los transistores, de ser más confiables, compactos y de menor costo. Las técnicas de producción masiva han hecho posible la manufactura de circuitos integrados de bajo costo. Las características principales de estas computadoras son: -Se sigue utilizando la memoria de núcleos magnéticos.-Los tiempos de operación son del orden de nanosegundos (una mil millonésima parte de segundo) -Aparece el disco magnético como medio de almacenamiento. 12.-Compatibilidad de información entre diferentes tipos de computadoras.
  • 8. El siguiente desarrollo mayor se da con la Integración a gran escala (LSI de Large Scale Integration), que hizo posible aglutinar miles de transistores y dispositivos relacionados en un solo circuito integrado. Se producen dos dispositivos que revolucionan la tecnología computacional: el primero el microprocesador, un circuito integrado que incluye todas las unidades necesarias para funcionar como Unidad de Procesamiento Central y que conllevan la aparición de las microcomputadoras o computadoras personales, en 1968, y a la producción de terminales remotas "inteligentes". El otro dispositivo es la memoria de acceso aleatorio (RAM) por sus siglas en inglés. Hasta 1970 las computadoras mejoraron dramáticamente en velocidad, confiabilidad y capacidad de almacenamiento. La llegada de la cuarta generación sería más una evolución que una revolución; al pasar del chip especializado para uso en la memoria y procesos lógicos del inicio de la tercera generación, al procesador de propósito general en un chip o microprocesador. CARACTERISTICAS PRINCIPALES: 1. 2. Circuito integrado, miniaturización y reunión de centenares de elementos en una placa de silicio o (chip) 3. Menor consumo. 4. Apreciable reducción de espacio.
  • 9. 5. Aumento de fiabilidad. 6. Teleproceso. 7. Multiprogramación. 8. Renovación de periféricos. 9. Instrumentación del sistema. 10.Compatibilidad. 11.Ampliación de las aplicaciones. 12.La mini computadora. 2. La época se refiere principalmente a las computadoras de 1980 y continúa hasta la fecha. Los elementos principales de las computadoras de esta generación son los microprocesadores, que son dispositivos de estado sólido, de forma autónoma efectúan las funciones de acceso, operación y mando del computador. También se hace posible la integración a gran escala muy grande (VLSI Very Large Scale Integration), incrementando en forma vasta la densidad de los circuitos del microprocesador, la memoria y los chips de apoyo aquellos que sirven de interfase entre los microprocesadores y los dispositivos de entrada / salida. A principios de los 90 se producen nuevos paradigmas en el campo. Las computadoras personales y las estaciones de trabajo ya eran computadoras potentes; de alguna manera alcanzaron la capacidad de las mini computadoras de diez años antes. Pero lo más importante es que se empezaron a diseñar para usarse como partes
  • 10. de redes de computadoras. Surgieron los conceptos de "computación distribuida" -hacer uso del poder de cómputo y almacenamiento en cualquier parte de la red- y "computación cliente-servidor" -una combinación de computadoras pequeñas y grandes, conectadas en conjunto, en donde cada una se usa para lo que es mejor. Otro proceso, llamado downsizing, se manifestó unas diversas instancias, donde las computadoras mayores (mainframes) con terminales dieron cabida a un sistema de redes con microcomputadoras y estaciones de trabajo. 4ª Generación (197-1988) CIRCUITOS ALTAMENTE INTEGRADOS CUARTA GENERACIÓN: (1971- PRESENTE)QUINTA GENERACIÓN: (PRESENTE- FUTURO)
  • 11. El termino quinta generación fue acuñado por los japoneses para describir las potentes e "inteligentes" computadoras que deseaban producir a mediados de los noventa. La meta es organizar sistemas de computación que produzcan inferencias y no solamente realicen cálculos. En el proceso se han incorporado muchos campos de investigación en la industria de la computación, como lainteligencia artificial (IA), los sistemas expertos y el lenguaje natural. Se distingue normalmente dos clases de entorno:  ENTORNO DE PROGRAMACION.- orientado a la construcción de sistemas, están formados por un conjunto de herramientas que asisten al programador en las distintas fases del ciclo de construcción del programa (edición, verificación, ejecución, corrección de errores, etc.)  ENTORNO DE UTILIZACIÓN.- orientado a facilitar la comunicación del usuario con el sistema. Este sistema esta compuesto por herramientas que facilitan la comunicación hombre-máquina, sistemas de adquisición de datos, sistemas gráficos, etc. 1. Ejemplos concretos y explicación de la generación actual y las tendencias futuras. 1. Las características de los computadores de la generación actual quedan recibidas en el numero de procesador (Pentium 4) el cual tiene una velocidad de procesamiento de 2.8 a 3.6 Giga hertz y los accesorios periféricos (de entrada y salida) tienen la características de ser de mas fácil y mas rápida instalación.
  • 12. 2. GENERACIONES ACTUALES: 3. TENDENCIAS FUTURAS: Una tendencia constante en el desarrollo de los ordenadores es la micro miniaturización, iniciativa que tiende a comprimir más elementos de circuitos en un espacio de chip cada vez más pequeño. Además, los investigadores intentan agilizar el funcionamiento de los circuitos mediante el uso de la superconductividad, un fenómeno de disminución de la resistencia eléctrica que se observa cuando se enfrían los objetos a temperaturas muy bajas. Las redes informáticas se han vuelto cada vez más importantes en el desarrollo de la tecnología de computadoras. Las redes son grupos de computadoras interconectados mediante sistemas de comunicación. La red pública Internet es un ejemplo de red informática planetaria. Las redes permiten que las computadoras conectadas intercambien rápidamente información y, en algunos casos, compartan una carga de trabajo, con lo que muchas computadoras pueden cooperar en la realización de una tarea. Se están desarrollando nuevas tecnologías de equipo físico y soporte lógico que acelerarán los dos procesos mencionados. Otra tendencia en el desarrollo de computadoras es el esfuerzo para crear computadoras de quinta generación, capaces de resolver problemas complejos en formas que pudieran llegar a considerarse creativas. Una vía que se está explorando activamente es el ordenador de proceso paralelo, que emplea
  • 13. muchos chips para realizar varias tareas diferentes al mismo tiempo. El proceso paralelo podría llegar a reproducir hasta cierto punto las complejas funciones de realimentación, aproximación y evaluación que caracterizan al pensamiento humano. Otra forma de proceso paralelo que se está investigando es el uso de computadoras moleculares. En estas computadoras, los símbolos lógicos se expresan por unidades químicas de ADN en vez de por el flujo de electrones habitual en las computadoras corrientes. Las computadoras moleculares podrían llegar a resolver problemas complicados mucho más rápidamente que las actuales supercomputadoras y consumir mucha menos energía. Ejemplo: Micro miniaturización: este circuito integrado, un microprocesador F-100, tiene sólo 0,6 cm2, y es lo bastante pequeño para pasar por el ojo de una aguja.  1. Generaciones del hardware  2.  La clasificación evolutiva del hardware del computador electrónico, esta dividida en generaciones, donde cada una supone un cambio tecnológico muy notable. Los componentes esenciales que constituyen la electrónica del computador fueron totalmente reemplazados en las primeras 3 generaciones, originando cambios que resultaron trascendentales.  En las ultimas decadas es mas difícil establecer las nuevas generaciones, ya que los cambios han sido graduales y existe cierta continuidad en las tecnologías usadas .  3. 1ra generación(1945-1956)  Electrónica implementada: Los tubos de vacío  El término tubo de vacío puede hacer referencia a: Una válvula de vacío o Válvula termoiónica; un componente electrónico.  Los tubos de vacío que conforman un tipo de colector solar.  Las
  • 14. computadoras aparato electrónico que sirve para almacenar información.  4. 2da generación(1957-1963)  Electrónica desarrollada: Los transistores  El transistor es un dispositivo electrónico semiconductor que cumple funciones de amplificador, oscilador, conmutador o rectificador.  El término "transistor" es la contracción en inglés de transfer resistor ("resistencia de transferencia").  Actualmente se los encuentra prácticamente en todos los aparatos domésticos de uso diario: radios, televisores, grabadoras, reproductores de audio y video, hornos de microondas, reproductores mp3, teléfonos móviles, etc.  5. 3ra generación(1964-2000)  Electrónica desarrollada: Circuitos Integrados (IC)  Un circuito integrado (CI o IC por su nombre en inglés), también conocido como chip o microchip, es una pastilla pequeña de material semiconductor, de algunos milímetros cuadrados de área, sobre la que se fabrican circuitos electrónicos generalmente mediante fotolitografía y que está protegida dentro de un encapsulado de plástico o cerámica. El encapsulado posee conductores metálicos apropiados para hacer conexión entre la pastilla y un circuito impreso. Gracias a este también se produjo el desarrollo del microprocesador.  6. 4ta generación(2001-futuro)  Electrónica desarrollada: Robótica  La robótica es la ciencia y la tecnología de los robots. Se ocupa del diseño, manufactura y aplicaciones de los robots.  La robótica combina diversas disciplinas como son: la mecánica, la electrónica, la informática, la inteligencia artificial y la ingeniería de control.  Otras áreas importantes en robótica son el álgebra, los autómatas programables y las máquinas de estados.  El término robot se popularizó con el éxito de la obra RUR (Robots Universales Rossum), escrita por Karel Capek en 1920. En la traducción al inglés de dicha obra, la palabra checa robota, que significa trabajos forzados, fue traducida al inglés como robot. Que es hardware El término hardware (pronunciación AFI: [ˈhɑːdˌwɛə] o [ˈhɑɹdˌwɛɚ]) se refiere a todas las partes físicas de un sistema informático; sus componentes son: eléctricos, electrónicos, electromecánicos y mecánicos.1 Son cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado; contrariamente, el soporte lógico es intangible y es llamado software. El término es
  • 15. propio del idioma inglés (literalmente traducido: partes duras), su traducción al español no tiene un significado acorde, por tal motivo se la ha adoptado tal cual es y suena; la Real Academia Española lo define como «Conjunto de los componentes que integran la parte material de una computadora».2 El término, aunque sea lo más común, no solamente se aplica a las computadoras; del mismo modo, también un robot, un teléfono móvil, una cámara fotográfica, un reproductor multimedia o cualquier otro electrónico que procese datos poseen hardware (y software).3 4 La historia del hardware de computador se puede clasificar en cuatro generaciones, cada una caracterizada por un cambio tecnológico de importancia. Una primera delimitación podría hacerse entre hardware básico, el estrictamente necesario para el funcionamiento normal del equipo, y complementario, el que realiza funciones específicas. Un sistema informático se compone de una unidad central de procesamiento (UCP o CPU), encargada de procesar los datos, uno o varios periféricos de entrada, los que permiten el ingreso de la información y uno o varios periféricos de salida, los que posibilitan dar salida (normalmente en forma visual o auditiva) a los datos procesados. Su abreviatura es Hw. Historias del hardware La clasificación evolutiva del hardware del computador electrónico está dividida en generaciones, donde cada una supone un cambio tecnológico muy notable. El origen de las primeras es sencillo de establecer, ya que en ellas el hardware fue sufriendo cambios radicales.5 Los componentes esenciales que constituyen la electrónica del computador fueron totalmente reemplazados en las primeras tres generaciones, originando cambios que resultaron trascendentales. En las últimas décadas es más difícil distinguir las nuevas generaciones, ya que los cambios han sido graduales y existe cierta continuidad en las tecnologías usadas. En principio, se pueden distinguir:  1.ª Generación (1945-1956): electrónica implementada con tubos de vacío. Fueron las primeras máquinas que desplazaron los componentes electromecánicos (relés).  2.ª Generación (1957-1963): electrónica desarrollada con transistores. La lógica discreta era muy parecida a la anterior, pero la implementación resultó mucho más pequeña, reduciendo, entre otros factores, el tamaño de un computador en notable escala.  3.ª Generación (1964-hoy): electrónica basada en circuitos integrados. Esta tecnología permitió integrar cientos de transistores y otros componentes electrónicos en un único
  • 16. circuito integrado impreso en una pastilla de silicio. Las computadoras redujeron así considerablemente su costo, consumo y tamaño, incrementándose su capacidad, velocidad y fiabilidad, hasta producir máquinas como las que existen en la actualidad.  4.ª Generación (futuro): probablemente se originará cuando los circuitos de silicio, integrados a alta escala, sean reemplazados por un nuevo tipo de material o tecnología.6 La aparición del microprocesador marca un hito de relevancia, y para muchos autores constituye el inicio de la cuarta generación.7 A diferencia de los cambios tecnológicos anteriores, su invención no supuso la desaparición radical de los computadores que no lo utilizaban. Así, aunque el microprocesador 4004 fue lanzado al mercado en 1971, todavía a comienzo de los 80's había computadores, como el PDP-11/44,8 con lógica carente de microprocesador que continuaban exitosamente en el mercado; es decir, en este caso el desplazamiento ha sido muy gradual. Otro hito tecnológico usado con frecuencia para definir el inicio de la cuarta generación es la aparición de los circuitos integrados VLSI (very large scale integration), a principios de los ochenta. Al igual que el microprocesador, no supuso el cambio inmediato y la rápida desaparición de los computadores basados en circuitos integrados en más bajas escalas de integración. Muchos equipos implementados con tecnologías VLSI y MSI (medium scale integration) aún coexistían exitosamente hasta bien entrados los 90. Clasificaciones Clasificación del hardware
  • 17. Microcontrolador Motorola 68HC11 y chips de soporte que podrían constituir el hardware de un equipo electrónico industrial. Una de las formas de clasificar el hardware es en dos categorías: por un lado, el básico, que abarca el conjunto de componentes indispensables necesarios para otorgar la funcionalidad mínima a una computadora; y por otro lado, el hardware complementario, que, como su nombre indica, es el utilizado para realizar funciones específicas (más allá de las básicas), no estrictamente necesarias para el funcionamiento de la computadora. Necesita un medio de entrada de datos, la unidad central de procesamiento, la memoria RAM, un medio de salida de datos y un medio de almacenamiento constituyen el hardware básico. Los medios de entrada y salida de datos estrictamente indispensables dependen de la aplicación: desde el punto de vista de un usuario común, se debería disponer, al menos, de un teclado y un monitor para entrada y salida de información, respectivamente; pero ello no implica que no pueda haber una computadora (por ejemplo controlando un proceso) en la que no sea necesario teclado ni monitor; bien puede ingresar información y sacar sus datos procesados, por ejemplo, a través de una placa de adquisición/salida de datos. Las computadoras son aparatos electrónicos capaces de interpretar y ejecutar instrucciones programadas y almacenadas en su memoria; consisten básicamente en operaciones aritmético-lógicas y de entrada/salida.9 Se reciben las entradas (datos), se las procesa y almacena (procesamiento), y finalmente se producen las salidas (resultados del procesamiento). Por ende todo sistema informático
  • 18. tiene, al menos, componentes y dispositivos hardware dedicados a alguna de las funciones antedichas;10 a saber: 1. Procesamiento: unidad central de procesamiento 2. Almacenamiento: Memorias 3. Entrada: Periféricos de entrada (E) 4. Salida: Periféricos de salida (S) 5. Entrada/Salida: Periféricos mixtos (E/S) Desde un punto de vista básico y general, un dispositivo de entrada es el que provee el medio para permitir el ingreso de información, datos y programas (lectura); un dispositivo de salida brinda el medio para registrar la información y datos de salida (escritura); la memoria otorga la capacidad de almacenamiento, temporal o permanente (almacenamiento); y la CPU provee la capacidad de cálculo y procesamiento de la información ingresada (transformación).11 Un periférico mixto es aquél que puede cumplir funciones tanto de entrada como de salida; el ejemplo más típico es el disco rígido (ya que en él se lee y se graba información y datos). Unidad central de procesamiento Artículo principal: CPU Microprocesador de 64 bits doble núcleo, el AMD Athlon 64 X2 3600. La Unidad Central de Procesamiento, conocida por las siglas en inglés CPU, es el componente fundamental de la computadora, encargado de interpretar y ejecutar instrucciones y de procesar datos.12 En computadores modernos, la función de la CPU la realiza uno o más microprocesadores. Se conoce como microprocesador a una CPU que es manufacturada como un único circuito integrado.
  • 19. Un servidor de red o una máquina de cálculo de alto rendimiento (supercomputación), puede tener varios, incluso miles de microprocesadores trabajando simultáneamente o en paralelo (multiprocesamiento); en este caso, todo ese conjunto conforma la CPU de la máquina. Las unidades centrales de proceso (CPU) en la forma de un único microprocesador no sólo están presentes en las computadoras personales (PC), sino también en otros tipos de dispositivos que incorporan una cierta capacidad de proceso o "inteligencia electrónica", como pueden ser: controladores de procesos industriales, televisores, automóviles, calculadores, aviones, teléfonos móviles, electrodomésticos, juguetes y muchos más. Actualmente los diseñadores y fabricantes más populares de microprocesadores de PC son Intel y AMD; y para el mercado de dispositivos móviles y de bajo consumo, los principales son Samsung, Qualcomm, Texas Instruments, MediaTek, NVIDIA e Intel. Placa base de una computadora, formato µATX.
  • 20. Placa base del teléfono móvil Samsung Galaxy Spica, se pueden distinguir varios "System-on-a-Chip" soldados en ella. El microprocesador se monta en la llamada placa base, sobre un zócalo conocido como zócalo de CPU, que permite las conexiones eléctricas entre los circuitos de la placa y el procesador. Sobre el procesador ajustado a la placa base se fija un disipador térmico de un material con elevada conductividad térmica, que por lo general es de aluminio, y en algunos casos de cobre. Éste es indispensable en los microprocesadores que consumen bastante energía, la cual, en gran parte, es emitida en forma de calor: en algunos casos pueden consumir tanta energía como una lámpara incandescente (de 40 a 130 vatios). Adicionalmente, sobre el disipador se acopla uno o dos ventiladores (raramente más), destinados a forzar la circulación de aire para extraer más rápidamente el calor acumulado por el disipador y originado en el microprocesador. Complementariamente, para evitar daños por efectos térmicos, también se suelen instalar sensores de temperatura del microprocesador y sensores de revoluciones del ventilador, así como sistemas automáticos que controlan la cantidad de revoluciones por unidad de tiempo de estos últimos. La gran mayoría de los circuitos electrónicos e integrados que componen el hardware del computador van montados en la placa madre. Placa principal, placa madre o placa base Artículo principal: Placa base
  • 21. La placa base, también conocida como placa madre o principal o con los anglicismos motherboard o mainboard,13 es un gran circuito impreso sobre el que se suelda el chipset, las ranuras de expansión (slots), los zócalos, conectores, diversos integrados, etc. Es el soporte fundamental que aloja y comunica a todos los demás componentes: Procesador, módulos de memoria RAM, tarjetas gráficas, tarjetas de expansión, periféricos de entrada y salida. Para comunicar esos componentes, la placa base posee una serie de buses mediante los cuales se trasmiten los datos dentro y hacia afuera del sistema. La tendencia de integración ha hecho que la placa base se convierta en un elemento que incluye a la mayoría de las funciones básicas (vídeo, audio, red, puertos de varios tipos), funciones que antes se realizaban con tarjetas de expansión. Aunque ello no excluye la capacidad de instalar otras tarjetas adicionales específicas, tales como capturadoras de vídeo, tarjetas de adquisición de datos, etc. También, la tendencia en los últimos años es eliminar elementos separados en la placa base e integrarlos al microprocesador. En ese sentido actualmente se encuentran sistemas denominados System on a Chip que consiste en un único circuito integrado que integra varios módulos electrónicos en su interior, tales como un procesador, un controlador de memoria, una GPU, Wi-Fi, Bluetooth, etc. La mejora más notable en esto está en la reducción de tamaño frente a igual funcionalidad con módulos electrónicos separados. La figura muestra una aplicación típica, en la placa principal de un teléfono móvil. Las principales funciones que presenta un placa base son:  Conexión física  Administración, control y distribución de energía eléctrica  Comunicación de datos  Temporización  Sincronismo  Control y monitoreo Memoria RAM
  • 22. Módulos de memoria RAM instalados. Artículo principal: Memoria RAM La sigla RAM, del inglés Random Access Memory, literalmente significa memoria de acceso aleatorio. El término tiene relación con la característica de presentar iguales tiempos de acceso a cualquiera de sus posiciones (ya sea para lectura o para escritura). Esta particularidad también se conoce como "acceso directo", en contraposición al Acceso secuencial. La RAM es la memoria utilizada en una computadora para el almacenamiento transitorio y de trabajo (no masivo). En la RAM se almacena temporalmente la información, datos y programas que la Unidad de Procesamiento (CPU) lee, procesa y ejecuta. La memoria RAM es conocida como Memoria principal de la computadora, también como "Central o de Trabajo";14 a diferencia de las llamadas memorias auxiliares, secundarias o de almacenamiento masivo (como discos duros, unidades de estado sólido, cintas magnéticas u otras memorias). Las memorias RAM son, comúnmente, volátiles; lo cual significa que pierden rápidamente su contenido al interrumpir su alimentación eléctrica. Las más comunes y utilizadas como memoria central son "dinámicas" (DRAM), lo cual significa que tienden a perder sus datos almacenados en breve tiempo (por descarga, aún estando con alimentación eléctrica), por ello necesitan un circuito electrónico específico que se encarga de proveerle el llamado "refresco" (de energía) para mantener su información.
  • 23. La memoria RAM de un computador se provee de fábrica e instala en lo que se conoce como “módulos”. Ellos albergan varios circuitos integrados de memoria DRAM que, conjuntamente, conforman toda la memoria principal. Memoria RAM dinámica Es la presentación más común en computadores modernos (computador personal, servidor); son tarjetas de circuito impreso que tienen soldados circuitos integrados de memoria por una o ambas caras, además de otros elementos, tales como resistores y condensadores. Esta tarjeta posee una serie de contactos metálicos (con un recubrimiento de oro) que permite hacer la conexión eléctrica con el bus de memoria del controlador de memoria en la placa base. Los integrados son de tipo DRAM, memoria denominada "dinámica", en la cual las celdas de memoria son muy sencillas (un transistor y un condensador), permitiendo la fabricación de memorias con gran capacidad (algunos cientos de Megabytes) a un costo relativamente bajo. Las posiciones de memoria o celdas, están organizadas en matrices y almacenan cada una un bit. Para acceder a ellas se han ideado varios métodos y protocolos cada uno mejorado con el objetivo de acceder a las celdas requeridas de la manera más eficiente posible. Memorias RAM con tecnologías usadas en la actualidad. Entre las tecnologías recientes para integrados de memoria DRAM usados en los módulos RAM se encuentran:  SDR SDRAM: Memoria con un ciclo sencillo de acceso por ciclo de reloj. Actualmente en desuso, fue popular en los equipos basados en el Pentium III y los primeros Pentium 4.
  • 24.  DDR SDRAM: Memoria con un ciclo doble y acceso anticipado a dos posiciones de memoria consecutivas. Fue popular en equipos basados en los procesadores Pentium 4 y Athlon 64.  DDR2 SDRAM: Memoria con un ciclo doble y acceso anticipado a cuatro posiciones de memoria consecutivas.  DDR3 SDRAM: Memoria con un ciclo doble y acceso anticipado a ocho posiciones de memoria consecutivas. Es el tipo de memoria más actual, está reemplazando rápidamente a su predecesora, la DDR2.  DDR4 SDRAM: Los módulos de memoria DDR4 SDRAM tienen un total de 288 pines DIMM. La velocidad de datos por pin, va de un mínimo de 1,6 GT/s hasta un objetivo máximo inicial de 3,2 GT/s. Las memorias DDR4 SDRAM tienen un mayor rendimiento y menor consumo que las memorias DDR predecesoras. Tienen un gran ancho de banda en comparación con sus versiones anteriores. Los estándares JEDEC, establecen las características eléctricas y las físicas de los módulos, incluyendo las dimensiones del circuito impreso. Los estándares usados actualmente son:  DIMM Con presentaciones de 168 pines (usadas con SDR y otras tecnologías antiguas), 184 pines (usadas con DDR y el obsoleto SIMM) y 240 (para las tecnologías de memoria DDR2 y DDR3).  SO-DIMM Para computadores portátiles, es una miniaturización de la versión DIMM en cada tecnología. Existen de 144 pines (usadas con SDR), 200 pines (usadas con DDR y DDR2) y 240 pines (para DDR3). Memorias RAM especiales Hay memorias RAM con características que las hacen particulares, y que normalmente no se utilizan como memoria central de la computadora; entre ellas se puede mencionar:  SRAM: Siglas de Static Random Access Memory. Es un tipo de memoria más rápida que la DRAM (Dynamic RAM). El término "estática" deriva del hecho que no necesita el refresco de sus
  • 25. datos. Si bien esta RAM no requiere circuito de refresco, ocupa más espacio y utiliza más energía que la DRAM. Este tipo de memoria, debido a su alta velocidad, es usada como memoria caché.  NVRAM: Siglas de Non-Volatile Random Access Memory. Memoria RAM no volátil (mantiene la información en ausencia de alimentación eléctrica). Hoy en día, la mayoría de memorias NVRAM son memorias flash, muy usadas para teléfonos móviles y reproductores portátiles de MP3.  VRAM: Siglas de Video Random Access Memory. Es un tipo de memoria RAM que se utiliza en las tarjetas gráficas del computador. La característica particular de esta clase de memoria es que es accesible de forma simultánea por dos dispositivos. Así, es posible que la CPU grabe información en ella, al tiempo que se leen los datos que serán visualizados en el Monitor de computadora. De las anteriores a su vez, hay otros subtipos más. Periféricos Artículo principal: Periféricos Se entiende por periférico a las unidades o dispositivos que permiten a la computadora comunicarse con el exterior, esto es, tanto ingresar como exteriorizar información y datos.10 Los periféricos son los que permiten realizar las operaciones conocidas como de entrada/salida (E/S).11 Aunque son estrictamente considerados “accesorios” o no esenciales, muchos de ellos son fundamentales para el funcionamiento adecuado de la computadora moderna; por ejemplo, el teclado, el disco duro y el monitor son elementos actualmente imprescindibles; pero no lo son un escáner o un plóter. Para ilustrar este punto: en los años 80, muchas de las primeras computadoras personales no utilizaban disco duro ni mouse (o ratón), tenían sólo una o dos disqueteras, el teclado y el monitor como únicos periféricos. Dispositivos de entrada de información (E)
  • 26. Teclado para PC inalámbrico. Ratón (Mouse) común alámbrico. De esta categoría son aquellos que permiten el ingreso de información, en general desde alguna fuente externa o por parte del usuario. Los dispositivos de entrada proveen el medio fundamental para transferir hacia la computadora (más propiamente al procesador) información desde alguna fuente, sea local o remota. También permiten cumplir la esencial tarea de leer y cargar en memoria el sistema operativo y las aplicaciones o programas informáticos, los que a su vez ponen operativa la computadora y hacen posible realizar las más diversas tareas.11 Entre los periféricos de entrada se puede mencionar:10 teclado, mouse o ratón, escáner, micrófono, cámara web, lectores ópticos de código de barras, Joystick, lectora de CD, DVD o BluRay (solo lectoras), placas de adquisición/conversión de datos, etc. Pueden considerarse como imprescindibles para el funcionamiento, (de manera como hoy se concibe la informática) al teclado, al ratón y algún dispositivo lector de discos; ya que tan sólo con ellos el hardware puede ponerse operativo para un usuario. Los otros son más bien accesorios, aunque en la actualidad pueden resultar de tanta necesidad que son considerados parte esencial de todo el sistema.
  • 27. Impresora de inyección de tinta. Dispositivos de salida de información (S) Son aquellos que permiten emitir o dar salida a la información resultante de las operaciones realizadas por la CPU (procesamiento). Los dispositivos de salida aportan el medio fundamental para exteriorizar y comunicar la información y datos procesados; ya sea al usuario o bien a otra fuente externa, local o remota.11 Los dispositivos más comunes de este grupo son los monitores clásicos (no de pantalla táctil), las impresoras, y los altavoces.10 Entre los periféricos de salida puede considerarse como imprescindible para el funcionamiento del sistema, al monitor. Otros, aunque accesorios, son sumamente necesarios para un usuario que opere un computador moderno. Dispositivos mixtos (E/S de información) Piezas de un Disco duro.
  • 28. Son aquellos dispositivos que pueden operar de ambas formas: tanto de entrada como de salida.11 Típicamente, se puede mencionar como periféricos mixtos o de entrada/salida a: discos rígidos, disquetes, unidades de cinta magnética, lecto-grabadoras de CD/DVD, discos ZIP, etc. También entran en este rango, con sutil diferencia, otras unidades, tales como: Tarjetas de Memoria flash o unidad de estado sólido, tarjetas de red, módems, tarjetas de captura/salida de vídeo, etc.10 Si bien se puede clasificar al pendrive (lápiz de memoria), memoria flash o memoria USB o unidades de estado sólido en la categoría de memorias, normalmente se los utiliza como dispositivos de almacenamiento masivo; siendo todos de categoría Entrada/Salida.15 Los dispositivos de almacenamiento masivo10 también son conocidos como "Memorias Secundarias o Auxiliares". Entre ellos, sin duda, el disco duro ocupa un lugar especial, ya que es el de mayor importancia en la actualidad, en el que se aloja el sistema operativo, todas las aplicaciones, utilitarios, etc. que utiliza el usuario; además de tener la suficiente capacidad para albergar información y datos en grandes volúmenes por tiempo prácticamente indefinido. Los servidores Web, de correo electrónico y de redes con bases de datos, utilizan discos rígidos de grandes capacidades y con una tecnología que les permite trabajar a altas velocidades como SCSI incluyendo también, normalmente, capacidad de redundancia de datos RAID; incluso utilizan tecnologías híbridas: disco rígido y unidad de estado sólido, lo que incrementa notablemente su eficiencia. Las interfaces actuales más usadas en discos duros son: IDE, SATA, SCSI y SAS; y en las unidades de estado sólido son SATA y PCI-Express ya que necesitan grandes anchos de banda. La pantalla táctil (no el monitor clásico) es un dispositivo que se considera mixto, ya que además de mostrar información y datos (salida) puede actuar como un dispositivo de entrada, reemplazando, por ejemplo, a algunas funciones del ratón o del teclado. Hardware gráfico
  • 29. GPU de Nvidia GeForce. Artículo principal: Tarjeta gráfica El hardware gráfico lo constituyen básicamente las tarjetas gráficas. Dichos componentes disponen de su propia memoria y unidad de procesamiento, esta última llamada unidad de procesamiento gráfico (o GPU, siglas en inglés de Graphics Processing Unit). El objetivo básico de la GPU es realizar los cálculos asociados a operaciones gráficas, fundamentalmente en coma flotante,16 liberando así al procesador principal (CPU) de esa costosa tarea (en tiempo) para que éste pueda efectuar otras funciones en forma más eficiente. Antes de esas tarjetas de vídeo con aceleradores por hardware, era el procesador principal el encargado de construir la imagen mientras la sección de vídeo (sea tarjeta o de la placa base) era simplemente un traductor de las señales binarias a las señales requeridas por el monitor; y buena parte de la memoria principal (RAM) de la computadora también era utilizada para estos fines. Dentro de ésta categoría no se deben omitir los sistemas gráficos integrados (IGP), presentes mayoritariamente en equipos portátiles o en equipos prefabricados (OEM), los cuales generalmente, a diferencia de las tarjetas gráficas, no disponen de una memoria dedicada, utilizando para su función la memoria principal del sistema. La tendencia en los últimos años es integrar los sistemas gráficos dentro del propio procesador central. Los procesadores gráficos integrados (IGP) generalmente son de un rendimiento y consumo notablemente más bajo que las GPU de las tarjetas gráficas dedicadas, no obstante, son más que suficiente para cubrir las necesidades de la mayoría de los usuarios de un PC.
  • 30. Actualmente se están empezando a utilizar las tarjetas gráficas con propósitos no exclusivamente gráficos, ya que en potencia de cálculo la GPU es superior, más rápida y eficiente que el procesador para operaciones en coma flotante, por ello se está tratando de aprovecharla para propósitos generales, al concepto, relativamente reciente, se le denomina GPGPU (General-Purpose Computing on Graphics Processing Units). La Ley de Moore establece que cada 18 a 24 meses la cantidad de transistores que puede contener un circuito integrado se logra duplicar; en el caso de los GPU esta tendencia es bastante más notable, duplicando, o aún más, lo indicado en la ley de Moore.17 Desde la década de 1990, la evolución en el procesamiento gráfico ha tenido un crecimiento vertiginoso; las actuales animaciones por computadoras y videojuegos eran impensables veinte años atrás. Historia del hardware La máquina analítica de Charles Babbage, en el Science Museum de Londres. El hardware ha sido un componente importante del proceso de cálculo y almacenamiento de datos desde que se volvió útil para que los valores numéricos fueran procesados y compartidos. El hardware de computador más primitivo fue probablemente el palillo de cuenta;1 después grabado permitía recordar cierta cantidad de elementos, probablemente ganado o granos, en contenedores. Algo similar se puede encontrar cerca de las excavaciones de Minoan. Estos elementos parecen haber sido usadas por los comerciantes, contadores y los oficiales del gobierno de la época. Los dispositivos de ayuda provenientes de la computación han cambiado de simples dispositivos de grabación y conteo al ábaco, la regla de cálculo, la
  • 31. computadora analógica y los más recientes, la computadora u ordenador. Hasta hoy, un usuario experimentado del ábaco usando un dispositivo que tiene más de 100 años puede a veces completar operaciones básicas más rápidamente que una persona inexperta en el uso de las calculadoras electrónicas, aunque en el caso de los cálculos más complejos, los computadores son más efectivos que el humano más experimentado. Primeros computadores digitales La era del computador moderno comenzó con un explosivo desarrollo antes y durante la Segunda Guerra Mundial, a medida que los circuitos electrónicos, los relés, los condensadores, y los tubos de vacío reemplazaron los equivalentes mecánicos y los cálculos digitales reemplazaron los cálculos análogos. Las máquinas como el Atanasoff–Berry Computer, Z3, Colossus, y el ENIAC fueron construidas a mano usando circuitos que contenían relés o válvulas (tubos de vacío), y a menudo usaron tarjetas perforadas o cintas perforadas para la entrada y como el medio de almacenamiento principal (no volátil). En esta era, un número de diferentes máquinas fueron producidas con capacidades que constantemente avanzaban. Al principio de este período, no existió nada que se asemejara remotamente a una computadora moderna, excepto en los planes perdidos por largo tiempo de Charles Babbage y las visiones matemáticas de Alan Turing y otros. Al final de la era, habían sido construidos dispositivos como el EDSAC, y son considerados universalmente como computadores digitales. Definir un solo punto en la serie, como la "primera computadora", pierde muchos sutiles detalles. El texto escrito por Alan Turing en 1936 probó ser enormemente influyente en la computación y ciencias de la computación de dos maneras. Su principal propósito era probar que había problemas (nombrados el problema de la parada) que no podían ser solucionados por ningún proceso secuencial. Al hacer eso, Turing proporcionó una definición de una computadora universal, una construcción que vino a ser llamada máquina de Turing, un dispositivo puramente teórico que formaliza el concepto de ejecución de algoritmo, reemplazando el engorroso lenguaje universal basado en en aritmética de Kurt Gödel. Excepto por las limitaciones impuestas por sus almacenamientos de memoria finitos, se dice que las computadoras modernas son Turing completo, que es como decir que tienen la capacidad de ejecución de algoritmo equivalente a una máquina universal de Turing. Este tipo limitado de la cualidad de Turing completo es algunas veces visto como la capacidad umbral que separa las computadoras de uso general de sus precursores de propósito específico. Para que una máquina de computación sea una computadora de propósito general práctica, debe haber algún mecanismo de lectura/escritura conveniente, como por
  • 32. ejemplo la cinta perforada. Para la completa versatilidad, la arquitectura de von Neumann usa la misma memoria para almacenar tanto los programas como los datos; virtualmente todas las computadoras contemporáneas usan esta arquitectura (o alguna variante). Mientras que es teóricamente posible implementar una computadora completa mecánicamente (como demostró el diseño de Babbage), la electrónica hizo posible la velocidad y más adelante la miniaturización que caracterizan las computadoras modernas. En la era de la Segunda Guerra Mundial había tres corrientes paralelas en el desarrollo de la computadora, y dos fueron ignoradas en gran parte o deliberadamente mantenidas en secreto. La primera fue el trabajo alemán de Konrad Zuse. La segunda fue el desarrollo secreto de la computadora Colossus en el Reino Unido. Ninguna de éstas tuvieron mucha influencia en los varios proyectos de computación en los Estados Unidos. La tercera corriente de desarrollo de la computadora, el ENIAC y el EDVAC de Eckert y Mauchly, fue publicada extensamente. La serie Z de Konrad Zuse: Las primeras computadoras controladas por programa Una reproducción de la computadora Z1 de Zuse. Trabajando aisladamente en Alemania, en 1936 Konrad Zuse comenzó la construcción de sus primeras calculadoras de la serie Z que ofrecían memoria y programabilidad (limitada inicialmente). La Z1 de Zuse, que aunque puramente mecánica ya era binaria, fue finalizada en 1938. Nunca trabajó confiablemente debido a problemas con la precisión de las piezas. La subsecuente máquina de Zuse, el Z3, fue finalizada en 1941. Estaba basada en relés telefónicos y trabajó satisfactoriamente. El Z3 se convirtió así en la primera computadora funcional, de todo propósito, controlada por programa. De muchas maneras era muy similar a las máquinas modernas, siendo pionera en numerosos avances, tales como números de coma flotante. El reemplazo del difícil de implementar sistema decimal, usado en el diseño temprano de Charles Babbage, por el más simple sistema binario, significó que las máquinas de Zuse eran más fáciles de construir y potencialmente más confiables, dadas las tecnologías disponibles en aquel tiempo. Esto a veces es visto como la razón principal por la que Zuse tuvo éxito donde Babbage falló.
  • 33. Los programas fueron alimentados en el Z3 por medio de películas perforadas. Faltaban los saltos condicionales, pero desde los años 1990 se ha probado teóricamente que el Z3 seguía siendo un computador universal (ignorando sus limitaciones de tamaño físico de almacenamiento). En dos aplicaciones de patente de 1936, Konrad Zuse también anticipó que las instrucciones de máquina podían ser almacenadas en el mismo almacenamiento usado para los datos - la idea clave de lo que sería conocido como la arquitectura de von Neumann y fue implementada por primera vez en el posterior diseño del EDSAC británico (1949). Zuse también decía haber diseñado el primer lenguaje de programación de alto nivel, (Plankalkül), en 1945 (que fue publicado en 1948) aunque fue implementado por primera vez en 2000 por un equipo dirigido por Raúl Rojas en la Universidad Libre de Berlín, cinco años después de la muerte de Zuse. Zuse sufrió reveses durante la Segunda Guerra Mundial cuando algunas de sus máquinas fueron destruidas en el curso de las campañas aliadas de bombardeos. Aparentemente su trabajo en gran parte siguió siendo desconocido a los ingenieros en el Reino Unido y los E.E.U.U. hasta mucho más tarde, aunque al menos la IBM estaba enterada de ellos pues financiaron a su compañía de lanzamiento de posguerra en 1946, a cambio de una opción sobre las patentes de Zuse. Colossus El colossus fue usado para romper cifrados alemanes durante la Segunda Guerra Mundial. Artículo principal: Colossus Durante la Segunda Guerra Mundial, los británicos en Bletchley Park alcanzaron un número de éxitos al romper las comunicaciones militares alemanas cifradas. La máquina de cifrado alemana, Enigma, fue atacada con la ayuda de máquinas electromecánicas llamadas bombes. La bombe, diseñada por Alan Turing y Gordon Welchman, después de la bomba criptográfica polaca (1938), eliminaba ajustes posibles del Enigma al realizar cadenas deducciones lógicas implementadas eléctricamente. La mayoría de las posibilidades conducían a una contradicción, y las pocas restantes se podían probar a mano. Los alemanes también desarrollaron una serie de sistemas de cifrado de teleimpresora, muy diferentes del Enigma. La máquina Lorenz SZ 40/42 fue usada
  • 34. para las comunicaciones de alto nivel del ejército, llamada "Tunny" por los británicos. Las primeras intercepciones de los mensajes Lorenz comenzaron en 1941. Como parte de un ataque contra los Tunny, el profesor Max Newman y sus colegas ayudaron a especificar el colossus. El Mk I colossus fue construido entre marzo y diciembre de 1943 por Tommy Flowers y sus colegas en el Post Office Research Station en Dollis Hill en Londres y después enviado a Bletchley Park. El colossus fue el primer dispositivo de computación totalmente electrónico. El colossus usó una gran cantidad de válvulas (tubos de vacío). Tenía entrada de cinta de papel y era capaz de ser configurado para realizar una variedad de operaciones de lógica booleana en sus datos, pero no era Turing completo. Fueron construidos nueve Mk II Colossi (el Mk I fue convertido en un Mk II haciendo diez máquinas en total). Los detalles de su existencia, diseño, y uso fueron mantenidos secretos bien entrados los años 1970. Winston Churchill personalmente publicó una orden para su destrucción en piezas no más grandes que la mano de un hombre. debido a este secreto los Colossi no fueron incluidos en muchas historias de la computación. Una copia reconstruida de una de las máquinas Colossus está ahora en exhibición en Bletchley Park. Desarrollos norteamericanos En 1937, Claude Shannon produjo su tesis magistral en el MIT que por primera vez en la historia implicaba el álgebra booleana usando relés y conmutadores electrónicos. La tesis de Shannon, intitulada A Symbolic Analysis of Relay and Switching Circuits (Un análisis simbólico de circuitos de conmutación y relés), esencialmente funda el diseño de circuitos digitales prácticos. En noviembre de 1937, George Stibitz, entonces trabajando en los Laboratorios Bell, terminó una computadora basada en relés que calculaba con la adición binaria y apodó con el nombre de "Modelo K" (por "kitchen" (cocina), donde él la había ensamblado). A finales de 1938, los Laboratorios Bell autorizaron un programa de investigación completo con Stibitz al timón. Su Complex Number Calculator, terminado el 8 de enero de 1940, podía calcular números complejos. En una demostración del 11 de septiembre de 1940 en la conferencia de la American Mathematical Society en el Dartmouth College, Stibitz pudo enviar, al Complex Number Calculator, comandos remotos sobre líneas telefónicas por un teletipo. Fue la primera máquina de computación usada remotamente, en este caso sobre una línea telefónica. Algunos participantes en la conferencia que atestiguaron la demostración eran John von Neumann, John Mauchly, y Norbert Wiener, quien escribió sobre ello en sus memorias. En 1939, John Vincent Atanasoff y Clifford E. Berry de Iowa State University desarrollaron el Atanasoff Berry Computer (ABC), una calculadora electrónica digital de propósito especial para solucionar sistemas de ecuaciones lineares. La meta original era solucionar 29 ecuaciones simultáneas de 29 incógnitas cada una, pero debido a errores en el mecanismo del perforador de tarjetas la máquina
  • 35. terminada solamente podía solucionar algunas ecuaciones. El diseño usaba más de 300 tubos de vacío para alta velocidad y empleaba para la memoria condensadores fijados en un tambor que rotaba mecánicamente. Aunque la máquina ABC no era programable, fue la primera en usar circuitos electrónicos. El co-inventor del ENIAC, John Mauchly, examinó el ABC en junio de 1941, y su influencia en el diseño de la posterior máquina ENIAC es una cuestión de controversia entre los historiadores del computador. El ABC fue en gran parte olvidado hasta que se convirtió en el foco del pleito legal Honeywell vs. Sperry Rand, la decisión invalidó la patente de ENIAC (y varias otras), entre muchas razones por haber sido anticipado por el trabajo de Atanasoff. En 1939, en los laboratorios Endicott de la IBM comenzó el desarrollo del Harvard Mark I. Conocido oficialmente como el Automatic Sequence Controlled Calculator, el Mark I fue una computadora electromecánica de propósitos generales construida con el financiamiento de la IBM y con la asistencia del personal de la IBM, bajo dirección del matemático de Harvard, Howard Aiken. Su diseño fue influenciado por la Máquina Analítica de Babbage, usando ruedas de aritmética y almacenamiento decimal e interruptores rotatorios además de relés electromagnéticos. Era programable vía una cinta de papel perforado, y contenía varias unidades de cálculo trabajando en paralelo. Versiones posteriores contuvieron varios lectores de cinta de papel y la máquina podía cambiar entre los lectores basados en una condición. Sin embargo, la máquina no era absolutamente Turing completa. El Mark I fue trasladado a la universidad de Harvard y comenzó la operación en mayo de 1944. ENIAC Artículo principal: ENIAC El ENIAC realizó cálculos de la trayectoria balística usando 160 kilovatios de energía. El ENIAC (Electronic Numerical Integrator and Computer), construido en los Estados Unidos, fue el primer computador electrónico de propósitos generales. Construido bajo la dirección de John Mauchly y John Presper Eckert en la universidad de Pennsylvania, era 1.000 veces más rápido que sus contemporáneos. El desarrollo y la construcción del ENIAC duró desde 1943 hasta estar operativo completamente al final de 1945.
  • 36. Cuando su diseño fue propuesto, muchos investigadores creyeron que los millares de delicadas válvulas (es decir tubos de vacío) se quemarían tan frecuentemente que el ENIAC estaría con tanta frecuencia inactivo por reparaciones que sería inútil. Sin embargo, era capaz de miles de operaciones por segundo por horas enteras entre las fallas de válvulas. Validó abiertamente el uso de la electrónica para la computación en gran escala. Esto fue crucial para el desarrollo del computador moderno. El ENIAC era inequívocamente un dispositivo Turing completo. Sin embargo, un "programa" en el ENIAC era definido por el cableado mismo, enchufes e interruptores, una decepcionante disparidad con las máquinas electrónicas de programa almacenado que se desarrollaron a partir del ENIAC. Programarlo significaba recablearlo. Las mejoras completadas en 1948 hicieron posible ejecutar programas almacenados en la "memoria" fija de la tabla de funciones (un gran panel portátil de interruptores decimales), que hizo de la programación un esfuerzo más sencillo y sistemático. La máquina de von Neumann de primera generación y otros trabajos Incluso antes de que el ENIAC estuviera terminado, Eckert y Mauchly reconocieron sus limitaciones y comenzaron el diseño de una nueva computadora, el EDVAC, que debía tener programa almacenado. John von Neumann escribió un reporte de amplia circulación que describía el diseño del EDVAC en el que tanto los programas como los datos de trabajo estaban almacenados en un solo espacio de almacenamiento unificado. Este diseño básico, que sería conocido como la arquitectura de von Neumann, serviría como la base para el desarrollo de las primeras computadoras digitales de propósito general realmente flexibles. En esta generación, el almacenamiento temporal o de trabajo fue proporcionado por líneas de retardo acústico, que usaban el tiempo de propagación del sonido a través de un medio como el mercurio líquido (o a través de un alambre) para almacenar datos brevemente. Una serie de pulsos acústicos eran enviados a lo largo de un tubo; después de un tiempo, en lo que el pulso alcanzaba el extremo del tubo, el circuito detectaba si el pulso representaba un 1 ó un 0 y causaba al oscilador volver a reenviar el pulso. Otros usaron los tubos de Williams, que utilizan la capacidad de un tubo de imagen de televisión para almacenar y de recuperar datos. Por 1954, la memoria de núcleo magnético rápidamente desplazó la mayoría de las otras formas de almacenamiento temporal, y dominó el campo hasta mediados de los años 1970.
  • 37. El "Bebé" en el Museo de Ciencia e Industria (MSIM), de Mánchester (Inglaterra). La primera máquina funcional de von Neumann fue el "Baby" ("Bebé") de Mánchester o Small-Scale Experimental Machine, construida en la universidad de Mánchester en 1948; fue seguida en 1949 por el computador Manchester Mark I que funcionó como un sistema completo usando el tubo Williams y el tambor magnético para la memoria, y también introdujo los registros de índice. El otro competidor para el título de "primer computador digital de programa almacenado" había sido el EDSAC, diseñado y construido en la Universidad de Cambridge. Operacional en menos de un año después de la Manchester "Baby", también era capaz de abordar problemas reales. EDSAC fue inspirado de hecho por los planes para el EDVAC (Electronic Discrete Variable Automatic Computer), el sucesor del ENIAC; estos planes ya estaban en el lugar correcto para el tiempo en que el ENIAC fue operacional exitosamente. A diferencia del ENIAC, que usaba el procesamiento paralelo, el EDVAC usó una sola unidad de procesamiento. Este diseño era más simple y fue el primero en ser implementado en cada exitosa onda de miniaturización, y creciente confiabilidad. Algunos ven al Manchester Mark I/EDSAC/EDVAC como las "Evas" de la cuales casi todas las computadoras actuales derivan su arquitectura. La primera computadora programable universal en la Unión Soviética fue creada por un equipo de científicos bajo dirección de Sergei Alekseyevich Lebedev del Instituto Kiev de Electrotecnología, Unión Soviética (ahora Ucrania). El computador MESM (МЭСМ, Small Electronic Calculating Machine) estuvo operacional en 1950. Tenía cerca de 6.000 tubos de vacío y consumida 25 kW de energía. Podía realizar aproximadamente 3.000 operaciones por segundo. Otra máquina temprana fue el CSIRAC, un diseño australiano que corrió su primer programa de prueba en 1949. CSIRAC es el computador más viejo todavía en existencia y el primero en haber sido usado para ejecutar música digital.4 En octubre de 1947, los directores de J. Lyons & Company, una compañía británica del famosa por sus tiendas de té (pequeños restaurantes) pero con fuertes intereses en las nuevas técnicas de gerencia de oficinas, decidido a tomar un papel activo en promover el desarrollo comercial de los computadores. Por
  • 38. 1951 el computador LEO I estuvo operacional y corrió el primer job de computador de oficina rutinario regular del mundo. La máquina de la universidad de Mánchester se convirtió en el prototipo para la Ferranti Mark I. La primera máquina Ferranti Mark I fue entregada a la Universidad en febrero de 1951 y por lo menos otras nueve fueron vendidas entre 1951 y 1957. En junio de 1951, el UNIVAC I (Universal Automatic Computer) fue entregado a la Oficina del Censo de los Estados Unidos. Aunque fue fabricada por Remington Rand, la máquina con frecuencia fue referida equivocadamente como la "IBM UNIVAC". Eventualmente Remington Rand vendió 46 máquinas en más de $1 millón por cada una. El UNIVAC era el primer computador 'producido en masa'; todos los predecesores habían sido unidades 'únicas en su tipo'. Usó 5.200 tubos de vacío y consumía 125 kW de energía. Usó para la memoria una línea de retardo de mercurio capaz de almacenar 1.000 palabras de 11 dígitos decimales más el signo (palabras de 72 bits). A diferencia de las máquinas de la IBM no fue equipado de un lector de tarjetas perforadas sino con una entrada de cinta magnética de metal al estilo de los años 1930, haciéndola incompatible con algunos almacenamientos de datos comerciales existentes. La cinta de papel perforado de alta velocidad y las cintas magnéticas del estilo moderno fueron usados para entrada/salida por otras computadoras de la era. En noviembre de 1951, la compañía J. Lyons comenzó la operación semanal de un Job de valuaciones de panadería en el LEO (Lyons Electronic Office). Éste fue la primera aplicación de negocio en tener vida en un computador de programa almacenado. En 1952, la IBM anunció público el IBM 701 Electronic Data Processing Machine, la primera en su excitosa 700/7000 series y su primer computador IBM mainframe. El IBM 704, introducido en 1954, usó la memoria de núcleo magnético, que se convirtió en el estándar para las máquinas grandes. El primer lenguaje de programación de propósitos generales de alto nivel implementado, FORTRAN, también fue desarrollado en la IBM para los 704 durante 1955 y 1956 y lanzado a principios de 1957. (El diseño en 1945 del leguaje de alto nivel Plankalkül, de Konrad Zuse, no fue implementado en aquel tiempo). En 1954 la IBM introdujo un computador más pequeño y más económico que probó ser muy popular. El IBM 650 pesaba más de 900 kg, la fuente de alimentación pesada alrededor 1.350 kg y ambos fueron contenidos en gabinetes separados de más o menos 1,5 x 0,9 x 1,8 metros. Costaba $500.000 o podía ser arrendada por $3.500 al mes. Su memoria de tambor tenía originalmente solamente 2.000 palabras de diez dígitos, y requería una programación arcana para una eficiente computación. Las limitaciones de la memoria tales como ésta iban a dominar la programación por décadas posteriores, hasta la evolución de las capacidades del hardware y un modelo de programación que eran más benévolos al desarrollo del software.
  • 39. En 1955, Maurice Wilkes inventó la microprogramación, que fue posteriormente ampliamente usada en los CPUs y las unidades de punto flotante de los mainframes y de otras computadoras, tales como las series del IBM 360. La microprogramación permite al conjunto de instrucciones base ser definido o extendido por programas incorporados en el hardware (ahora a veces llamado como firmware, microcódigo, o milicódigo). En 1956, la IBM vendió su primer sistema de disco magnético, RAMAC (Random Access Method of Accounting and Control). Usó 50 discos de metal de 24 pulgadas (610 mm), con 100 pistas por lado. Podía almacenar 5 megabytes de datos y costaba $10.000 por megabyte. (En 2006, el almacenamiento magnético, en la forma de discos duros, costaba menos de un décimo de un centavo por megabyte). Computadoras analógicas avanzadas Analizador diferencial de Cambridge, 1938. Artículo principal: Computador analógico Antes de la Segunda Guerra Mundial, las computadoras analógicas mecánicas y eléctricas eran consideradas el "estado del arte", y muchos pensaban que eran el futuro de la computación. Las computadoras analógicas toman ventaja de las fuertes similitudes entre las matemáticas de propiedades de pequeña escala -- la posición y el movimiento de ruedas o el voltaje y la corriente de componentes electrónicos -- y las matemáticas de otros fenómenos físicos, ej. trayectorias balísticas, inercia, resonancia, transferencia de energía, momento, etc. Modelar los fenómenos físicos con las propiedades eléctricas rinde una gran ventaja sobre usar modelos físicos: 1. los componentes eléctricos son más pequeños y baratos; son más fácilmente construidos y ejercitados. 2. Aunque de otra manera similar, los fenómenos eléctricos se pueden hacer que ocurran en marcos de tiempo convenientemente cortos.
  • 40. Estos sistemas trabajan creando análogos eléctricos de otros sistemas, permitiendo a los usuarios predecir el comportamiento de los sistemas de interés al observar los análogos eléctricos. La más útil de las analogías fue la manera en que el comportamiento en pequeña escala podía ser representado con ecuaciones diferenciales e integrales, y por lo tanto podía ser usado para solucionar esas ecuaciones. Un ingenioso ejemplo de tal máquina fue el integrador de agua construido en 1928; un ejemplo eléctrico es la máquina de Mallock construida en 1941. A diferencia de las computadoras digitales modernas, las computadoras analógicas no eran muy flexibles, y necesitan ser reconfiguradas (es decir reprogramadas) manualmente para cambiar de un problema a otro. Las computadoras analógicas tenían una ventaja sobre los primeros computadores digitales en que podían ser usadas para solucionar problemas complejos usando comportamientos análogos, mientras que las primeras tentativas con computadoras digitales fueron muy limitadas. Pero a medida que las computadoras digitales han venido siendo más rápidas y usaban memorias más grandes (ej, RAM o almacenamiento interno), han desplazado casi completamente a las computadoras analógicas, y la programación de computadores, o codificación ha surgido como otra profesión humana. Puesto que las computadoras eran raras en esta era, las soluciones eran a menudo manuales en formas como gráficas en papel y nomogramas, que entonces podían producir soluciones analógicas a esos problemas, tales como la distribución de presiones y temperaturas en un sistema de calefacción. Algunas de las computadoras analógicas más extensamente desplegadas incluyeron dispositivos para apuntar armas, tales como los sistemas de lanzamiento de torpedos o el Norden bombsight y Fire-control system para embarcaciones navales. Algunos de éstos permanecieron en uso por décadas después de la segunda guerra mundial. Un ejemplo es el Mark I Fire Control Computer, desplegado por la Armada de los Estados Unidos en una variedad de naves desde los destructores y los acorazados. Otros ejemplos incluyeron el Heathkit EC-1, y la computadora hidráulica MONIAC. El arte de la computación analógica alcanzó su cenit con el Analizador diferencia, inventado en 1876 por James Thomson y construido por H. W. Nieman y Vannevar Bush en el MIT comenzando en 1927. Fueron construidas menos de una docena de estos dispositivos; el más poderoso fue construido en la Escuela Moore de Ingeniería Eléctrica en la Universidad de Pensilvania, donde también fue construido el ENIAC. Las computadoras electrónicas digitales, como el ENIAC, significaron el fin para la mayoría de las máquinas analógicas de computación, pero las computadoras analógicas híbridas, controladas por electrónica digital, permanecían en uso en los años 1950 y 1960, y siguieron más adelante en aplicaciones especializadas.
  • 41. Computadora analógica Computador analógico. Una computadora analógica u ordenador real es un tipo de computadora que utiliza dispositivos electrónicos o mecánicos para modelar el problema que resuelven utilizando un tipo de cantidad física para representar otra cifra. Para el modelado se utiliza la analogía existente en términos matemáticos de algunas situaciones en diferentes campos. Por ejemplo, la que existe entre los movimientos oscilatorios en mecánica y el análisis de corrientes alternas en electricidad. Estos dos problemas se resuelven por ecuaciones diferenciales y pueden asemejarse términos entre uno y otro problema para obtener una solución satisfactoria. Usado en contraposición a las computadoras digitales, en los cuales los fenómenos físicos o mecánicos son utilizados para construir una máquina de estado finito que es usada después para modelar el problema a resolver. Hay un grupo intermedio, los computadores híbridos, en los que un computador digital es utilizado para controlar y organizar entradas y salidas hacia y desde dispositivos analógicos anexos; por ejemplo, los dispositivos analógicos podrían ser utilizados para generar valores iniciales para iteraciones. Así, un ábaco sería un computador digital, y una regla de cálculo un computador analógico. Los computadores analógicos ideales operan con números reales y son diferenciales, mientras que los computadores digitales se limitan a números computables y son algebraicos. Esto significa que los computadores analógicos tienen una tasa de dimensión de la información (ver teoría de la información), o potencial de dominio informático más grande que los computadores digitales (ver teorema de incompletitud de Gödel). Esto, en teoría, permite a los computadores analógicos resolver problemas que son indescifrables con computadores digitales. Los teóricos de la informática suelen usar el término ordenador real (llamado así porque opera dentro del conjunto de números reales), para evitar los malentendidos populares sobre los computadores analógicos.
  • 42. Algunos ejemplos de computadores analógicos son:  Predictores de marea  Integrador de agua  Computador de datos del objetivo para submarinos  Modelo Hidráulico de la economía del Reino Unido  El mecanismo de Antiquitera  La regla de cálculo