Este documento es un convenio entre el Ministerio del Poder Popular para la Educación Superior de Venezuela y la Universidad Central de Venezuela para un curso de Sistemas Mecanizados II para 8 estudiantes durante el período 2010-2011 en Ciudad Guayana, Venezuela. El curso será facilitado por Ana Sánchez y cubrirá temas como la evolución histórica de las computadoras, las generaciones de computadoras, y componentes electrónicos como las válvulas y los circuitos integrados.
1. REPÚBLICA BOLIVARIANA DE VENEZUELA
MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN
SUPERIOR
CONVENIO NUEVO RETO PERIODO 2.010-2
Cátedra: Sistemas Mecanizados II.
Mención: Informática
FACILITADOR: PARTICIPANTES:
Abreu, Ronmer C.I: V-11.833.207
Ana Sánchez Mata, Aryanna CI: V-17.039.511
Grillet, Yelitza CI: V-14.604.676
López, Levic CI: V-9.937.176
Ruiz Zaida S. C.I: V-13.336.968
Silva, Ynexa CI: V- 8.938.077
Suarez Abraham CI: V-17.339.449
Vásquez, Marcos CI: V-12.923.517
Ciudad Guayana, Enero de 2011.
2. INTRODUCCION
La UCP es la encargada de procesar la información que le llega al
ordenador. El intercambio de información se tiene que hacer con los
periféricos y la UCP. El ordenador es en realidad el Microprocesador, o
sea, un conmutador, es el cerebro y razón de ser del ente denominado
computadora. Todo lo demás que le rodea y se le es conectado son
dispositivos mediante los cuales el cerebro se alimenta de energía e
interactúa con el medio ambiente y por lo tanto con los usuarios.
3. EVOLUCIÓN HISTÓRICA DE LAS COMPUTADORAS
Evolución Electrónica.
El desarrollo de la electrónica se produjo a partir de los inicios del siglo
XCX, como consecuencia del núcleo de conocimientos acumulados sobre
la electricidad en las décadas procedentes. Así, Thomas Alva Edison
había observado, mientras ensayaba sus lámparas eléctricas
incandescentes, un ennegrecimiento en su interior motivado por la
emisión de electrones por efecto del calor. El fenómeno, no aprovechado
prácticamente por Edison, recibió, no obstante, el nombre del investigador
estadounidense.
Posteriormente se confirmó que la electricidad se puede propagar a un en
ausencia de un medio material transmisor. Estos acontecimientos
confluyeron en los trabajos del ingeniero inglés John Ambrose Fleming,
quien ideo una aplicación práctica del efecto Edison para la recepción de
ondas de radio. Al calentar el polo negativo de un tubo vacío alimentando
por una batería se estableció una corriente continua de electrones hacia
el polo positivo, mientras que al cambiar la polaridad no se producía
corriente. El dispositivo resultante, que solo permitía el paso de la
corriente eléctrica en uno de los sentidos, recibió el nombre de válvula o
diodo, mejorando posteriormente con la incorporación de un tercer
electrodo que dio lugar a los tríodos. Estas lámparas, unidas a todos los
demás tipos de tubos y válvulas de vacío, constituyeron los fundamentos
de la moderna técnica electrónica.
La industria electrónica experimento un importante desarrollo a partir de la
segunda guerra mundial.
En 1948, la invención del transistor componente constituido por un
semiconductor que actúa al amplificar, modular y detectar oscilaciones
4. eléctricas dotó a este sector de un artificio que sustituyo a la válvula o
bulbo y permitió la fabricación de sistemas complejos, fundamento de las
computadoras. El tamaño de los circuitos se redujo considerablemente y
aun mayor fue esta disminución tras la aparición en la década de 1970 de
los circuitos integrados, formados por elementos fijos.
Génesis
Se inicia con los trabajos de varios destacados físicos, tales como
Coulomb, Ampère, Gauss, Faraday, Henry y Maxwell. Estos trabajos
quedaron recogidos, en 1865, en el marco formal de la teoría del
electromagnetismo, formulada por Maxwell (deducida de las ecuaciones
que llevan su nombre); teoría que, sin embargo, debió esperar hasta 1888
para su demostración.
La mencionada demostración la realizó Hertz con la generación, en el
laboratorio, de ondas electromagnéticas. Más tarde, en 1896, Marconi
logró transmitir y detectar estas ondas (llamadas hertzianas) y abrió el
camino a posteriores avances tan importantes como la televisión y las
telecomunicaciones.
El nacimiento de la electrónica, como rama de la ciencia, puede situarse
en 1895, año en el que Lorentz postuló la existencia de partículas
cargadas llamadas electrones, lo cual fue demostrado,
experimentalmente, por Thomson dos años más tarde.Braun, en 1897,
hizo pública su invención del primer tubo electrónico, rudimentario
antecesor de los tubos de rayos catódicos que forman parte de los
televisores.
5. Las Válvulas
La electrónica no asumió las connotaciones tecnológicas que la
caracterizan hasta los inicios del siglo XX, con la invención de los
primeros componentes y, en particular en 1904, con la creación de la
válvula termoiónica o diodo, por parte del físico británico John Ambrose
Fleming.
El diodo está compuesto esencialmente por dos electrodos metálicos
contenidos en un tubo vacío, uno de los cuales (el cátodo) es calentado
por un filamento. Debido a este calentamiento, el cátodo emite electrones
(efecto termoiónico), que son acelerados hacia el otro electrodo (el ánodo)
cuando este último se mantiene positivo respecto al cátodo. De tal forma
que, intercalado en un circuito, el diodo muestra la importante propiedad
de conducir corriente únicamente cuando la tensión que se le aplica tiene
un determinado sentido. De esta manera, permite la rectificación de una
corriente alterna.
La corriente que se obtiene conectando un electrodoméstico a una de las
tomas que hay en las paredes de las casas (corriente de red), tiene la
característica de invertir continuamente el sentido con que circula por un
circuito, y por tanto se llama corriente alterna (la corriente de red es
alterna debido a la técnica de su producción, lo cual no compete a la
electrónica. De todas maneras, en muchos casos, es necesario disponer
de una corriente continua; es decir, que nunca invierta su sentido de
circulación. Para esto se emplean unos determinados dispositivos que
rectifican la corriente, transformándola de alterna a continua.
En 1905, el físico estadounidense Lee De Forest, perfeccionando el
invento de Fleming, creó el triodo. El aporte de Forest consistió en la
introducción de un tercer elemento (la rejilla), cerca del cátodo. La
proximidad entre el cátodo y la rejilla hace que, si a esta última se le
6. aplica una pequeña tensión, influya sustancialmente sobre el flujo de
electrones en el interior del tubo. Por tanto, el triodo actúa como
amplificador (el nombre de audión, que originalmente dio De Forest a su
invento, traduce el intento de aplicar esta característica a las señales de
sonido).El invento de los dispositivos mencionados proporcionó la base
tecnológica para el rápido desarrollo de las radiocomunicaciones. Para
1912 en los Estados Unidos se constituyó una asociación de
radiotécnicos. Allí mismo también se construyó, en 1920, la primera
emisora de radio comercial.
En las décadas de 1920 y 1930 se introdujeron mejoras a los tubos
electrónicos originarios (que culminaron con la introducción del pentodo),
aumentando su flexibilidad y su campo de aplicaciones. Entre otras cosas,
se hizo posible la invención de la televisión (1930) y de la radio de
modulación de frecuencia (1933).Los tubos de vacío dieron paso a una
importante aplicación, como fue la realización de los primeros
calculadores electrónicos en los años siguientes de la Segunda Guerra
Mundial. Mientras tanto, físicos como Block, Schottky, Sommerfeld,
Winger y otros realizaban excelentes progresos en el estudio de una
importante clase de sustancias sólidas: los semiconductores.
En 1945 se creó un grupo de trabajo, compuesto por físicos teóricos y
experimentales, un químico y un ingeniero electrónico, en los Bell
Telephone Laboratories, para encontrar una alternativa al empleo de los
tubos electrónicos en las telecomunicaciones. Ciertamente los tubos
presentan inconvenientes, entre los cuales se cuenta una escasa
fiabilidad debida a sus elevadas temperaturas de funcionamiento. En
1947 los físicos John Bardeen, Walter Brattain y William Schockley
obtuvieron un efecto de amplificación en un dispositivo compuesto por dos
sondas de oro prensadas sobre un cristal de germanio (un
semiconductor): nacía así el transistor, que actualmente es el elemento
fundamental de todo dispositivo electrónico (en 1965 estos físicos
recibieron el Premio Nóbel).Más tarde, el primer ejemplar fue
7. perfeccionado por Schockley con la introducción del transistor de unión,
totalmente de material semiconductor, gracias a los progresos efectuados
por los laboratorios Bell en la obtención de materiales de base (germanio
y silicio) con un elevado grado de pureza.
La comercialización del transistor en 1951 sentó las bases para el
desarrollo cualitativo y cuantitativo de la tecnología electrónica en la
segunda mitad del siglo. El transistor proporcionó las mismas
funcionalidades del tríodo, siendo más pequeño, eficiente, fiable,
económico y duradero. Esto permitió la existencia de una gama de
aplicaciones antes impensables y la reducción de costos y del tamaño de
los dispositivos electrónicos de uso común (radio, televisión, etc.),
abriéndose así el camino hacia el fenómeno de la electrónica de
consumo.La aparición del transistor también proporcionó un gran impulso
al desarrollo de los ordenadores. En 1959 la IBM presentó el primer
ordenador (el 7090) de estado sólido, es decir, con transistores.
En la actualidad, los componentes con semiconductor como el transistor,
han sustituido casi por completo a los tubos de vacío. Estos últimos
únicamente se emplean en algunas aplicaciones particulares, en las que
hacen parte microondas, o con tensiones de funcionamiento muy altas.
Los Circuitos Integrados
Una tercera parte de la evolución de la electrónica se abrió a finales de
los años cincuenta con la introducción del circuito integrado por parte de
Kilby, de la Texas Instrument, y de Noyce y Moore, de la Fairchild
Semiconductor Company. La idea fue incluir un circuito completo en una
sola pastilla de semiconductor: el Chip, y hacer de las conexiones entre
los dispositivos parte integrante de su proceso de producción, reduciendo
así las dimensiones, peso y el costo con relación al número de elementos
activos.
8. El desarrollo de la microelectrónica, como se denomina la electrónica de
los circuitos integrados es impresionante. A partir de su comercialización
(1961), el número máximo de componentes integrados en un chip se
duplicó cada año desde los 100 iniciales. En la segunda mitad de los años
setenta, al introducirse la integración a gran escala (VLSI) y superar los
10.000 componentes, se ingresó en la época actual, en la que es normal
encontrar varios millones de componentes integrados en un chip muy
pequeño, por ejemplo en los microprocesadores de los ordenadores
personales.
Generaciones de las Computadoras.
Generación Cero (1942 - 1945)
Aparecieron los primeros ordenadores analógicos: comenzaron a
construirse a principios del siglo XX los primeros modelos realizaban los
cálculos mediante ejes y engranajes giratorios. Con estas máquinas se
calculaban las aproximaciones numéricas de ecuaciones demasiado
difíciles como para poder ser resueltas mediante otros métodos.
La generación cero que abarcó la década de la segunda guerra mundial
un equipo de científicos y matemáticos crearon lo que se considera el
primer ordenador digital totalmente eléctrico: EL COLOSSUS, este
incorporaba 1500 válvulas o tubos de vacío y era ya operativo. Fue
utilizado por el equipo dirigido por Alan Turíng para decodificar los
mensajes de radio cifrado de los Alemanes.
Primera Generación (1951 a 1958)
Las computadoras de la primera Generación emplearon bulbos para
procesar información. Los operadores ingresaban los datos y programas
9. en código especial por medio de tarjetas perforadas. El almacenamiento
interno se lograba con un tambor que giraba rápidamente, sobre el cual
un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas
computadoras de bulbos eran mucho más grandes y generaban más calor
que los modelos contemporáneos.
Eckert y Mauchly contribuyeron al desarrollo de computadoras de la 1era
Generación formando una compañía privada y construyendo UNIVAC I,
que el Comité del censo utilizó para evaluar el censo de 1950. La IBM
tenía el monopolio de los equipos de procesamiento de datos a base de
tarjetas perforadas y estaba teniendo un gran auge en productos como
rebanadores de carne, básculas para comestibles, relojes y otros
artículos; sin embargo no había logrado el contrato para el Censo de
1950.
Comenzó entonces a construir computadoras electrónicas y su primera
entrada fue con la IBM 701 en 1953. Después de un lento pero buen
comienzo la IBM 701 se convirtió en un producto comercialmente viable.
Sin embargo en 1954 fue introducido el modelo IBM 650, el cual es la
razón por la que IBM disfruta hoy de una gran parte del mercado de las
computadoras. La administración de la IBM asumió un gran riesgo y
estimó una venta de 50 computadoras. Este número era mayor que la
cantidad de computadoras instaladas en esa época en Estados Unidos de
Norte América de hecho la IBM instaló 1000 computadoras. El resto es
historia. Aunque caras y de uso limitado las computadoras fueron
aceptadas rápidamente por las Compañías privadas y de Gobierno. A la
mitad de los años 50 IBM y Remington Rand se consolidaban como
líderes en la fabricación de computadoras.
10. Segunda Generación (1959-1964)
El invento del transistor hizo posible una nueva Generación de
computadoras, más rápidas, más pequeñas y con menores necesidades
de ventilación. Sin embargo el costo seguía siendo una porción
significativa del presupuesto de una Compañía. Las computadoras de la
segunda generación también utilizaban redes de núcleos magnéticos en
lugar de tambores giratorios para el almacenamiento primario. Estos
núcleos contenían pequeños anillos de material magnético, enlazados
entre sí, en los cuales podían almacenarse datos e instrucciones.
Los programas de computadoras también mejoraron. El COBOL
(Common Busines Oriented Languaje) desarrollado durante la 1era
generación estaba ya disponible comercialmente, este representa uno de
los mas grandes avances en cuanto a portabilidad de programas entre
diferentes computadoras; es decir, es uno de los primeros programas que
se pueden ejecutar en diversos equipos de computo después de un
sencillo procesamiento de compilación. Los programas escritos para una
computadora podían transferirse a otra con un mínimo esfuerzo. Grace
Murria Hooper (1906-1992), quien en 1952 había inventado el primer
compilador fue una de las principales figuras de CODASYL (Comité on
Data SYstems Languages), que se encargo de desarrollar el proyecto
COBOL El escribir un programa ya no requería entender plenamente el
hardware de la computación. Las computadoras de la 2da Generación
eran sustancialmente más pequeñas y rápidas que las de bulbos, y se
usaban para nuevas aplicaciones, como en los sistemas para reservación
en líneas aéreas, control de tráfico aéreo y simulaciones para uso
general, las empresas comenzaron a aplicar las computadoras a tareas
de almacenamiento de registros, como manejo de inventarios, nómina y
contabilidad.
11. La marina de Estados Unidos de Norte América utilizó las computadoras
de la Segunda Generación para crear el primer simulador de vuelo.
(Whirlwind I). HoneyWell se colocó como el primer competidor durante la
segunda generación de computadoras. Burroughs, Univac, NCR, CDC,
HoneyWell, los más grandes competidores de IBM durante los años
sesenta (60) se conocieron como el grupo BUNCH.
Algunas de las computadoras que se construyeron ya con transistores
fueron la IBM 1401, las Honeywell 800 y su serie 5000, UNIVAC M460, las
IBM 7090 y 7094, NCR 315, las RCA 501 y 601, Control Data Corporatión
con su conocido modelo CDC16O4, y muchas otras, que constituían un
mercado de gran competencia, en rápido crecimiento. En esta generación
se construyen las supercomputadoras Remington Rand UNIVAC LARC, e
IBM Stretch (1961).
Tercera Generación (1964-1971)
Circuitos Integrados, Compatibilidad con Equipo Mayor,
Multiprogramación, Mini-computadora.
Las computadoras de la tercera generación emergieron con el desarrollo
de los circuitos integrados (pastillas de silicio) en las cuales se colocan
miles de componentes electrónicos, en una integración en miniatura, las
computadoras nuevamente se hicieron más pequeñas, más rápidas,
desprendían menos calor y eran energéticamente más eficientes.
El descubrimiento en 1958 del primer Circuito Integrado (Chip) por el
ingeniero Jack S. Kilby (nacido en 1928) de Texas Instruments, así como
los trabajos que realizaba, por su parte, el Dr. Robert Noyce de Fairchild
Semicon ductors, acerca de los circuitos integrados, dieron origen a la
tercera generación de computadoras.
12. Antes del advenimiento de los circuitos integrados, las computadoras
estaban diseñadas para aplicaciones matemáticas o de negocios, pero no
para las dos cosas. Los circuitos integrados permitieron a los fabricantes
de computadoras incrementar la flexibilidad de los programas, y
estandarizar sus modelos.
La IBM 360 una de las primeras computadoras comerciales que usó
circuitos integrados, podía realizar tanto análisis numéricos como
administración ó procesamiento de archivos. IBM marca el inicio de esta
generación, cuando el 7 de abril de 1964 presenta la impresionante IBM
360, con su tecnología SLT (Solid Logic Technology). Esta máquina causó
tal impacto en el mundo de la computación que se fabricaron más de
30000, al grado que IBM llegó a conocerse como sinónimo de
computación.
También en ese año, Control Data Corporation presenta la
supercomputadora CDC 6600, que se consideró como la más poderosa
de las computadoras de la época, ya que tenía la capacidad de ejecutar
unos 3.000.000 de instrucciones por segundo (mips).
Se empiezan a utilizar los medios magnéticos de almacenamiento, como
cintas magnéticas de 9 canales, enormes discos rígidos, etc. Algunos
sistemas todavía usan las tarjetas perforadas para la entrada de datos,
pero las lectoras de tarjetas ya alcanzan velocidades respetables.
Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor
tamaño y podían todavía correr sus programas actuales. Las
computadoras trabajaban a tal velocidad que proporcionaban la
capacidad de correr más de un programa de manera simultánea
(multiprogramación).
13. Por ejemplo la computadora podía estar calculando la nomina y
aceptando pedidos al mismo tiempo. Minicomputadoras, Con la
introducción del modelo 360 IBM acaparó el 70% del mercado, para evitar
competir directamente con IBM la empresa Digital Equipment Corporation
(DEC) redirigió sus esfuerzos hacia computadoras pequeñas. Mucho
menos costosas de comprar y de operar que las computadoras grandes,
las minicomputadoras se desarrollaron durante la segunda generación
pero alcanzaron sumador auge entre 1960 y 70.
Cuarta Generación (1971 a 1981)
Microprocesador, Chips de Memória, Microminiaturización. Dos mejoras
en la tecnología de las computadoras marcan el inicio de la cuarta
generación: el reemplazo de las memorias con núcleos magnéticos, por
las de chips de silicio y la colocación de Muchos más componentes en un
Chip: producto de la microminiaturización de los circuitos electrónicos. El
tamaño reducido del microprocesador y de chips hizo posible la creación
de las computadoras personales (PC).
En 1971, intel Corporation, que era una pequeña compañía fabricante de
semi-conductores ubicada en Silicon Valley, presenta el primer
microprocesador o Chip de 4 bits, que en un espacio de
aproximadamente 4 x 5 mm contenía 2 250 transistores. Este primer
microprocesador fue bautizado como el 4004.
Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía
de San Francisco, que por su gran producción de silicio, a partir de 1960
se convierte en una zona totalmente industrializada donde se asienta una
gran cantidad de empresas fabricantes de semiconductores y
microprocesadores. Actualmente es conocida en todo el mundo como la
región más importante para las industrias relativas a la computación:
creación de programas y fabricación de componentes.
14. Actualmente ha surgido una enorme cantidad de fabricantes de
microcomputadoras o computadoras personales, que utilizando diferentes
estructuras o arquitecturas se pelean literalmente por el mercado de la
computación, el cual ha llegado a crecer tanto que es uno de los más
grandes a nivel mundial; sobre todo, a partir de 1990, cuando se logran
sorprendentes avances en Internet.
Esta generación de computadoras se caracterizó por grandes avances
tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las
primeras microcomputadoras, entre las cuales, las más famosas fueron
las fabricadas por Apple Computer, Radio Shack y Commodore Busíness
Machines. IBM se integra al mercado de las microcomputadoras con su
Personal Computer, de donde les ha quedado como sinónimo el nombre
de PC, y lo más importante; se incluye un sistema operativo
estandarizado, el MS- DOS (MicroSoft Disk Operating System).
Las Principales Tecnologías que Dominan este Mercado son:
IBM y sus compatibles llamadas clones, fabricadas por infinidad de
compañías con base en los procesadores 8088, 8086, 80286,
80386, 80486, 80586 o Pentium, Pentium II, Pentium III y Celeron
de Intel y en segundo término Apple Computer, con sus Macintosh
y las Power Macintosh, que tienen gran capacidad de generación
de gráficos y sonidos gracias a sus poderosos procesadores
Motorola serie 68000 y PowerPC, respectivamente. Este último
microprocesador ha sido fabricado utilizando la tecnología RISC
(Reduced Instruc tion Set Computing), por Apple Computer Inc.,
Motorola Inc. e IBM Corporation, conjuntamente.
Los sistemas operativos han alcanzado un notable desarrollo, sobre todo
por la posibilidad de generar gráficos a gran des velocidades, lo cual
permite utilizar las interfaces gráficas de usuario (Graphic User Interface,
GUI), que son pantallas con ventanas, iconos (figuras) y menús
15. desplegables que facilitan las tareas de comunicación entre el usuario y la
computadora, tales como la selección de comandos del sistema operativo
para realizar operaciones de copiado o formato con una simple pulsación
de cualquier botón del ratón (mouse) sobre uno de los iconos o menús.
Quinta Generación y la Inteligencia Artificial (1982-1989)
Cada vez se hace más difícil la identificación de las generaciones de
computadoras, porque los grandes avances y nuevos descubrimientos ya
no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes
consideran que la cuarta y quinta generación han terminado, y las ubican
entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos
consideran que la sexta generación está en desarrollo desde 1990 hasta
la fecha.
Siguiendo la pista a los acontecimientos tecnológicos en materia de
computación e informática, podemos puntualizar algunas fechas y
características de lo que podría ser la quinta generación de
computadoras. Con base en los grandes acontecimientos tecnológicos en
materia de microelectrónica y computación (software) como CADI CAM,
CAE, CASE, inteligencia artificial, sistemas expertos, redes neuronales,
teoría del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones,
etc., a de la década de los años ochenta se establecieron las bases de lo
que se puede conocer como quinta generación de computadoras.
Hay que mencionar dos grandes avances tecnológicos, que sirvan como
parámetro para el inicio de dicha generación: la creación en 1982 de la
primera supercomputadora con capacidad de proceso paralelo, diseñada
por Seymouy Cray, quien ya experimentaba desde 1968 con
supercomputadoras, y que funda en 1976 la Cray Research Inc.; y el
anuncio por parte del gobierno japonés del proyecto "quinta generación",
16. que según se estableció en el acuerdo con seis de las más grandes
empresas japonesas de computación, debería terminar en 1992.
El proceso paralelo es aquél que se lleva a cabo en computadoras que
tienen la capacidad de trabajar simultáneamente con varios
microprocesadores. Aunque en teoría el trabajo con varios
microprocesadores debería ser mucho más rápido, es necesario llevar a
cabo una programación especial que permita asignar diferentes tareas de
un mismo proceso a los diversos microprocesadores que intervienen.
También se debe adecuar la memoria para que pueda atender los
requerimientos de los procesadores al mismo tiempo. Para solucionar
este problema se tuvieron que diseñar módulos de memoria compartida
capaces de asignar áreas de caché para cada procesador.
Según este proyecto, al que se sumaron los países tecnológicamente más
avanzados para no quedar atrás de Japón, la característica principal sería
la aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las
computadoras de esta generación contienen una gran cantidad de
microprocesadores trabajando en paralelo y pueden reconocer voz e
imágenes. También tienen la capacidad de comunicarse con un lenguaje
natural e irán adquiriendo la habilidad para tomar decisiones con base en
procesos de aprendizaje fundamentados en sistemas expertos e
inteligencia artificial.
El almacenamiento de información se realiza en dispositivos magneto
ópticos con capacidades de decenas de Gigabytes; se establece el DVD
(Digital VideoDisk o Digital Versatile Disk) como estándar para el
almacenamiento de video y sonido; la capacidad de almacenamiento de
datos crece de manera exponencial posibilitando guardar más información
en una de estas unidades, que toda la que había en la Biblioteca de
Alejandría. Los componentes de los microprocesadores actuales utilizan
17. tecnologías de alta y ultra integración, denominadas VLSI (Very Large
Sca/e Integration) y ULSI (Ultra Lar- ge Scale Integration).
Sin embargo, independientemente de estos "milagros" de la tecnología
moderna, no se distingue la brecha donde finaliza la quinta y comienza la
sexta generación. Personalmente, no hemos visto la realización cabal de
lo expuesto en el proyecto japonés debido al fracaso, quizás
momentáneo, de la inteligencia artificial.
El único pronóstico que se ha venido realizando sin interrupciones en el
transcurso de esta generación, es la conectividad entre computadoras,
que a partir de 1994, con el advenimiento de la red Internet y del World
Wide Web, ha adquirido una importancia vital en las grandes, medianas y
pequeñas empresas y, entre los usuarios particulares de computadoras.
El propósito de la Inteligencia Artificial es equipar a las Computadoras con
"Inteligencia Humana" y con la capacidad de razonar para encontrar
soluciones. Otro factor fundamental del diseño, la capacidad de la
Computadora para reconocer patrones y secuencias de procesamiento
que haya encontrado previamente, (programación Heurística) que permita
a la Computadora recordar resultados previos e incluirlos en el
procesamiento, en esencia, la Computadora aprenderá a partir de sus
propias experiencias usará sus Datos originales para obtener la respuesta
por medio del razonamiento y conservará esos resultados para
posteriores tareas de procesamiento y toma de decisiones.
Sexta Generación 1990 Hasta la Fecha
Como supuestamente la sexta generación de computadoras está en
marcha desde principios de los años noventas, debemos por lo menos,
esbozar las características que deben tener las computadoras de esta
18. generación. También se mencionan algunos de los avances tecnológicos
de la última década del siglo XX y lo que se espera lograr en el siglo XXI.
Las computadoras de esta generación cuentan con arquitecturas
combinadas Paralelo/Vectorial, con cientos de microprocesadores
vectoriales trabajando al mismo tiempo; se han creado computadoras
capaces de realizar más de un millón de millones de operaciones
aritméticas de punto flotante por segundo (teraflops); las redes de área
mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente
utilizando medios de comunicación a través de fibras ópticas y satélites,
con anchos de banda impresionantes. Las tecnologías de esta generación
ya han sido desarrolla das o están en ese proceso. Algunas de ellas son:
inteligencia / artificial distribuida; teoría del caos, sistemas difusos,
holografía, transistores ópticos, etcétera.
ESTRUCTURA INTERNA DE UN COMPUTADOR
Componentes Básicos de un Computador
Un Computador es un sistema compuesto de cinco elementos
diferenciados: una CPU (unidad central de Procesamiento), dispositivo de
entrada, dispositivos de almacenamiento, dispositivos de salida y una red
de comunicaciones, denominada bus, que enlaza todos los elementos del
sistema y conecta a éste con el mundo exterior.
UCP o CPU (Central Processing Unit)
Es la unidad central de procesamiento o procesador que interpreta y lleva
a cabo las instrucciones de los programas, efectúa manipulaciones
aritméticas y lógicas con los datos y se comunica con las demás partes
del sistema. Una UCP es una colección compleja de circuitos electrónicos.
19. Cuando se incorporan todos estos circuitos en un chip de silicio, a este
chip se le denomina microprocesador. La UCP y otros chips y
componentes electrónicos se ubican en un tablero de circuitos o tarjeta
madre.
Los Factores Relevantes de los Chips de UCP son:
Compatibilidad: No todo el software es compatible con todas las
UCP. En algunos casos se pueden resolver los problemas de
compatibilidad usando software especial.
Velocidad: La velocidad de una computadora está determinada
por la velocidad de su reloj interno, el dispositivo cronométrico que
produce pulsos eléctricos para sincronizar las operaciones de la
computadora. Las computadoras se describen en función de su
velocidad de reloj, que se mide en mega hertz. La velocidad
también está determinada por la arquitectura del procesador, es
decir el diseño que establece de qué manera están colocados en el
chip los componentes individuales de la CPU. Desde la perspectiva
del usuario, el punto crucial es que "más rápido" casi siempre
significa "mejor".
El Procesador: El chip más importante de cualquier placa madre
es el procesador. Sin el la computadora no podría funcionar. A
menudo este componente se determina CPU, que describe a la
perfección su papel dentro del sistema. El procesador es realmente
el elemento central del proceso de procesamiento de datos. Los
procesadores se describen en términos de su tamaño de palabra,
su velocidad y la capacidad de su RAM asociada.
Tamaño de la Palabra: Es el número de bits que se maneja como
una unidad en un sistema de computación en particular.
20. Velocidad del Procesador: Se mide en diferentes unidades según
el tipo de computador:
MHz (Megahertz): Para microcomputadoras. Un oscilador de
cristal controla la ejecución de instrucciones dentro del procesador.
La velocidad del procesador de un micro se mide por su frecuencia
de oscilación o por el número de ciclos de reloj por segundo. El
tiempo transcurrido para un ciclo de reloj es 1/frecuencia.
MIPS (Millones de instrucciones por segundo): Para estaciones
de trabajo, minis y macro-computadoras. Por ejemplo una
computadora de 100 MIPS puede ejecutar 100 millones de
instrucciones por segundo.
FLOPS (floating point operations per second, operaciones de punto
flotante por segundo): Para las supercomputadoras. Las
operaciones de punto flotante incluyen cifras muy pequeñas o muy
altas. Hay súper computadoras para las cuales se puede hablar de
GFLOPS (Gigaflops, es decir 1.000 millones de FLOPS).
Capacidad de la RAM: Se mide en términos del número de bytes
que puede almacenar. Habitualmente se mide en KB y MB, aunque
ya hay computadoras en las que se debe hablar de GB.
Dispositivos De Entrada
El Teclado: Es un dispositivo periférico de entrada, que convierte
la acción mecánica de pulsar una serie de pulsos eléctricos
codificados que permiten identificarla. Las teclas que lo constituyen
sirven para entrar caracteres alfanuméricos y comandos a una
computadora. En un teclado se puede distinguir a cuatro
subconjuntos de teclas:
21. o Teclado Alfanumérico: Con las teclas dispuestas como en una
maquina de escribir.
o Teclado Numérico: (ubicado a la derecha del anterior) con
teclas dispuestas como en una calculadora.
o Teclado de Funciones: (desde F1 hasta F12) son teclas cuya
función depende del programa en ejecución.
o Teclado de Cursor: para ir con el cursor de un lugar a otro en
un texto. El cursor se mueve según el sentido de las flechas de
las teclas, ir al comienzo de un párrafo (" HOME "), avanzar /
retroceder una pagina ("PAGE UP/PAGE DOWN "), eliminar
caracteres ("delete"), etc. Cada tecla tiene su contacto, que se
encuentra debajo de ella, al oprimirla se" Cierra" y al soltarla se
"Abre", de esta manera constituye una llave "si – no". Debajo
del teclado existe una matriz con pistas conductoras que puede
pensarse en forma rectangular, siendo en realidad de formato
irregular. Si no hay teclas oprimidas, no se toca ningún
conductor horizontal con otro vertical. Las teclas están sobre los
puntos de intersección de las líneas conductoras horizontales y
verticales. Cuando se pulsa una tecla. Se establece un contacto
eléctrico entre la línea conductora vertical y horizontal que
pasan por debajo de la misma.
El Mouse O Ratón: El ratón o Mouse informático es un dispositivo
señalador o de entrada, recibe esta denominación por su
apariencia.
Para poder indicar la trayectoria que recorrió, a medida que se
desplaza, el Mouse debe enviar al computador señales eléctricas
binarias que permitan reconstruir su trayectoria, con el fin que la
misma sea repetida por una flecha en el monitor. Para ello el
Mouse debe realizar dos funciones:
22. o Conversión Analógica-Digital: Esta genera por cada fracción
de milímetro que se mueve, uno o más pulsos eléctricos.
o Port Serie: Dichos pulsos se envían hacia la interfaz a la cual
esta conectado el valor de la cuenta, junto con la información
acerca de sí se pulsa alguna de sus dos o tres teclas ubicada
en su parte superior.
Existen dos Tecnologías Principales en Fabricación de
Ratones:
o Ratones Mecánicos: Estos constan de una bola situada en su
parte inferior. La bola, al moverse el ratón, roza unos contactos
en forma de rueda que indican el movimiento del cursor en la
pantalla del sistema informático.
o Ratones Ópticos: Estos tienen un pequeño haz de luz láser en
lugar de la bola rodante de los mecánicos. Un censor óptico
situado dentro del cuerpo del ratón detecta el movimiento del
reflejo al mover el ratón sobre el espejo e indica la posición del
cursor en la pantalla de la computadora.
El Escáner O Digitalizador De Imágenes: Son periféricos
diseñados para registrar caracteres escritos, o gráficos en forma de
fotografías o dibujos, impresos en una hoja de papel facilitando su
introducción a la computadora convirtiéndolos en información
binaria comprensible para ésta.
El funcionamiento de un escáner es similar al de una fotocopiadora. Se
coloca una hoja de papel que contiene una imagen sobre una superficie
de cristal transparente, bajo el cristal existe una lente especial que realiza
un barrido de la imagen existente en el papel; al realizar el barrido, la
información existente en la hoja de papel es convertida en una sucesión
de información en forma de unos y ceros que se introducen en la
23. computadora. En fin, que dejándonos de tanto formalismo sintáctico, en
el caso que nos ocupa se trata de coger una imagen (fotografía, dibujo o
texto) y convertirla a un formato que podamos almacenar y modificar con
el ordenador. Realmente un escáner no es ni más ni menos que los ojos
del ordenador.
Los escáneres captaban las imágenes únicamente en blanco y negro o,
como mucho, con un número muy limitado de matices de gris, entre 16 y
256. Posteriormente aparecierón escáner que podían captar color,
aunque el proceso requería tres pasadas por encima de la imagen, una
para cada color primario (rojo, azul y verde). Hoy en día la práctica
totalidad de los escáner captan hasta 16,7 millones de colores distintos en
una única pasada, e incluso algunos llegan hasta los 68.719 millones de
colores.
En todos los ordenadores se utiliza lo que se denomina sistema binario,
que es un sistema matemático en el cual la unidad superior no es el 10
como en el sistema decimal al que estamos acostumbrados, sino el 2. Un
BIT cualquiera puede, por tanto, tomar 2 valores, que pueden representar
colores (blanco y negro, por ejemplo); si en vez de un BIT tenemos 8, los
posibles valores son 2 elevado a 8 = 256 colores; si son 16 bits, 2 elevado
a 16 = 65.536 colores; si son 24 bits, 2 elevado a 24 = 16.777216 colores,
una imagen a 24 bits de color" es una imagen en la cual cada punto
puede tener hasta 16,7 millones de colores distintos; esta cantidad de
colores se considera suficiente para casi todos los usos normales de una
imagen, por lo que se le suele denominar color real.
Dispositivos de Almacenamiento.
Disco Duro: Este esta compuestos por varios platos, es decir,
varios discos de material magnético montados sobre un eje central
sobre el que se mueven. Para leer y escribir datos en estos platos
24. se usan las cabezas de lectura / escritura que mediante un proceso
electromagnético codifican / decodifican la información que han de
leer o escribir. La cabeza de lectura / escritura en un disco duro
está muy cerca de la superficie, de forma que casi da vuelta sobre
ella, sobre el colchón de aire formado por su propio movimiento.
Debido a esto, están cerrados herméticamente, porque cualquier
partícula de polvo puede dañarlos.
Este dividen en unos círculos concéntricos cilíndricos (coincidentes
con las pistas de los disquetes), que empiezan en la parte exterior
del disco (primer cilindro) y terminan en la parte interior (ultimo).
Asimismo, estos cilindros se dividen en sectores, cuyo numero esta
determinado por el tipo de disco y su formato, siendo todos ellos de
un tamaño fijo en cualquier disco. Cilindros como sectores se
identifican con una serie de números que se les asigna,
empezando por el 1, pues el numero 0 de cada cilindro se reservan
para propósitos de identificación mas que para almacenamientos
de datos. Estos escritos / leídos en el disco deben ajustarse al
tamaño fijado del almacenamiento de los sectores. Habitualmente,
los sistemas de discos duros contienen mas de una unidad en su
interior, por lo que el numero de caras puede ser mas de dos.
Estas se identifican con un número, siendo el 0 para la primera. En
general su organización es igual a los disquetes. La capacidad del
disco resulta de multiplicar el número de caras por el de pistas por
cara y por el de sectores por pista, al total por el número de bytes
por sector.
Diskettes 3 ½: Son disco de almacenamiento de alta densidad de
1,44 MB, este presenta dos agujeros en la parte inferior del mismo,
uno para proteger al disco contra escritura y el otro solo para
diferenciarlo del disco de doble densidad.
25. Maletón-Ópticos De 5,25: Este se basa en la misma tecnología
que sus hermanos pequeños de 3,5", su ventajas: Gran fiabilidad y
durabilidad de los datos a la vez que una velocidad
razonablemente elevada Los discos van desde los 650 MB hasta
los 5,2 GB de almacenamiento, o lo que es lo mismo: desde la
capacidad de un solo CD-ROM hasta la de 8.
Dispositivos de Salida.
Las Impresoras: Esta es la que permite obtener en un soporte de
papel una ¨hardcopy¨: copia visualizable, perdurable y
transportable de la información procesada por un computador. Las
primeras impresoras nacieron muchos años antes que el PC e
incluso antes que los monitores, siendo durante años el método
más usual para presentar los resultados de los cálculos en aquellos
primitivos ordenadores, todo un avance respecto a las tarjetas y
cintas perforadas que se usaban hasta entonces.
La velocidad de una impresora se suele medir por parámetros:
o Ppm: Páginas por minuto que es capaz de imprimir.
o Cps: Caracteres (letras) por segundo que es capaz de imprimir.
o Ppp: puntos por pulgada (cuadrada) que imprime una
impresora.
Tipo De Impresoras
o Impacto Por Matriz De Aguja O Punto: Fueron las primeras
que surgieron en el mercado. Se las denomina "de impacto"
porque imprimen mediante el impacto de unas pequeñas piezas
(la matriz de impresión) sobre una cinta impregnada en tinta y
matriz de aguja por que su cabezal móvil de impresión contiene
26. una matriz de agujas móviles en conductos del mismo,
dispuestas en una columna (de 9 agujas por ejemplo) o más
columnas. Para escribir cualquier cosa en color se tiene que
sustituir la cinta de tinta negra por otro con tintas de los colores
básicos (generalmente magenta, cyan y amarillo). Este método
tiene el inconveniente de que el texto negro se fabricaba
mezclando los tres colores básicos, lo que era más lento, más
caro en tinta y deja un negro con un cierto matiz verdoso.
o Chorro O Inyección De Tinta: Se le denomina "inyección"
porque la tinta suele ser impulsada hacia el papel por unos
mecanismos que se denominan inyectores, mediante la
aplicación de una carga eléctrica que hace saltar una minúscula
gota de tinta por cada inyector. Esta destaca por la utilización
del color, incorporan soporte para el uso simultáneo de los
cartuchos de negro y de color. La resolución de estas
impresoras es en teoría bastante elevada, hasta de 1.440 Ppp,
pero en realidad la colocación de los puntos de tinta sobre el
papel resulta bastante deficiente, por lo que no es raro
encontrar que el resultado de una impresora láser de 300 Ppp
sea mucho mejor que el de una de tinta del doble de resolución.
Por otra parte, suelen existir papeles especiales, mucho más
caros que los clásicos folios de papelería, para alcanzar
resultados óptimos a la máxima resolución o una gama de
colores más viva y realista. Este tipo de impresoras es utilizado
generalmente por el usuario doméstico, además del oficinista
que no necesita trabajar con papel continuo ni con
reproducciones múltiples pero sí ocasionalmente con color
(logotipos, gráficos, pequeñas imágenes, etc.) con una calidad
aceptable.
o Láser: Son las de mayor calidad del mercado, si entendemos
por calidad la resolución sobre papel normal que se puede
obtener, unos 600 Ppp reales. En ellas la impresión se consigue
27. mediante un láser que va dibujando la imagen
electrostáticamente en un elemento llamado tambor que va
girando hasta impregnarse de un polvo muy fino llamado tonel
(como el de fotocopiadoras) que se le adhiere debido a la carga
eléctrica. Por último, el tambor sigue girando y se encuentra con
la hoja, en la cual imprime el tonel que formará la imagen
definitiva. Las láser son muy resistentes, mucho más rápidas y
mucho más silenciosas que las impresoras matriciales o de
tinta, y aunque la inversión inicial en una láser es mayor que en
una de las otras, el tonel sale más barato a la larga que los
cartuchos de tinta, por lo que a la larga se recupera la inversión.
Por todo ello, las láser son idóneas para entornos de oficina con
una intensa actividad de impresión, donde son más importantes
la velocidad, la calidad y el escaso coste de mantenimiento que
el color o la inversión inicial.
El Monitor: Es la pantalla en la que se ve la información
suministrada por el ordenador. En el caso más habitual se trata de
un aparato basado en un tubo de rayos catódicos (CRT) como el
de los televisores, mientras que en los portátiles es una pantalla
plana de cristal líquido (LCD). La resolución se define como el
número de puntos que puede representar el monitor por pantalla,
en horizontal x vertical. Así, un monitor cuya resolución máxima
sea de 1024x768 puntos puede representar hasta 768 líneas
horizontales de 1024 puntos cada una, probablemente además de
otras resoluciones inferiores, como 640x480 u 800x600. Cuan
mayor sea la resolución de un monitor, mejor será la calidad de la
imagen en pantalla, y mayor será la calidad (y por consiguiente el
precio) del monitor.
Red De Comunicaciones
28. Un sistema computacional es un sistema complejo que puede llegar a
estar constituido por millones de componentes electrónicos elementales.
Esta naturaleza multinivel de los sistemas complejos es esencial para
comprender tanto su descripción como su diseño. En cada nivel se
analiza su estructura y su función en el sentido siguiente:
Estructura: La forma en que se interrelacionan las componentes.
Por su particular importancia se considera la estructura de
interconexión tipo bus. EI bus representa básicamente una serie de
cables mediante los cuales pueden cargarse datos en la memoria y
desde allí transportarse a la CPU. Por así decirlo es la autopista de
los datos dentro del PC ya que comunica todos los componentes
del ordenador con el microprocesador. El bus se controla y maneja
desde la CPU.
Función: La operación de cada componente individual como parte
de la estructura
El Microprocesador
Es un circuito electrónico que actúa como Unidad Central de Proceso de
un ordenador, proporcionando el control de las operaciones de cálculo. Se
identifica rápido en una tarjeta madre porque esta acoplado a la misma en
un socket, tiene forma cuadrada con un pequeño ventilador arriba y
generan mucho calor. El microprocesador es el elemento más importante
del computador, es el cerebro de la máquina, se encarga de controlar todo
el sistema. Un parámetro importante es la velocidad del procesador que
se mide en mega-herzios (Mhz), es decir cantidad de “ordenes” por
segundo que pueden ser ejecutadas por el procesador.
29. Parte Interna
Unidad Aritmética Lógica (UAL)
Conocida como ALU (siglas en inglés de arithmetic logic unit), Es un
circuito digital que calcula operaciones aritméticas (como suma, resta,
multiplicación, etc.) y operaciones lógicas (si, y, o, no) o (and, or, not),
entre dos números.
En el computar, unidad de la lógica aritmética (ALU) es un circuito digital
que realiza operaciones aritmética y lógica. El ALU es un bloque de
edificio fundamental de la unidad central de proceso (CPU) de una
computadora. Muchos tipos de circuitos electrónicos necesitan realizar
algún tipo de operación aritmética, así que incluso el circuito dentro de un
reloj digital tendrá una ALU minúscula que se mantiene sumando 1 al
tiempo actual, y se mantiene comprobando si debe activar el pitido del
temporizador, etc.
Por mucho, los más complejos circuitos electrónicos son los que están
construidos dentro de los chips de microprocesadores modernos como el
Intel Core i7 o el Phenom II. Por lo tanto, estos procesadores tienen
dentro de ellos un ALU muy complejo y potente. De hecho, un
microprocesador moderno (y los mainframes) pueden tener múltiples
núcleos, cada núcleo con múltiples unidades de ejecución, cada una de
ellas con múltiples ALU.
Sistemas Numéricos: Una ALU debe procesar números usando el
mismo formato que el resto del circuito digital. Para los
procesadores modernos, este formato casi siempre es la
representación del número binario de complemento a dos. Las
30. primeras computadoras usaron una amplia variedad de sistemas
de numeración, incluyendo complemento a uno, formato signo-
magnitud, e incluso verdaderos sistemas decimales, con diez tubos
por dígito. Las ALU para cada uno de estos sistemas numéricos
mostraban diferentes diseños, y esto influenció la preferencia
actual por el complemento a dos, debido a que ésta es la
representación más simple, para el circuito electrónico de la ALU,
para calcular adiciones y sustracciones, etc.
Decodificador de Instrucciones
Allí se interpretan las instrucciones que van llegando y que componen el
programa. Aquí entra en juego los compiladores e intérpretes. En si
interpreta y pone en práctica la instrucción. El registro de instrucción (IR)
mantiene la instrucción actual. La PC sostiene la dirección en la memoria
de la siguiente instrucción a ser ejecutada.
Ejecutar la Instrucción: Del registro de instrucción, los datos que
forman la instrucción son descifrados por la unidad de control. Esto
entonces pasa la información descifrada como una secuencia de
señales de control a las unidades de función relevantes de la CPU
para realizar las acciones requeridas por la instrucción como la
lectura de valores de registros, pasándolos a la unidad Aritmética
lógica (ALU) para añadirlos juntos y escribiendo el resultado de
vuelta al registro. Una señal de condición es enviada de regreso a
la unidad de control por ALU si está implicado.
Bloque de Registros
Los registros son celdas de memoria en donde queda almacenado un
dato temporalmente. Existe un registro especial llamado indicadores,
estado o flags, que refleja el estado operativo del Microprocesador. El
31. almacenamiento temporal proporciona el área de almacenamiento
requerido para los dispositivos relativamente lentos respecto a la UCP,
que es mucho más rápida. También proporciona el área que hace posible
al bloqueo de registros.
Bus de Datos
Es el encargado de transmitir los caracteres y es aquel por donde la CPU
recibe datos del exterior o por donde la CPU manda datos al exterior. Es
un sistema digital que transfiere datos entre los componentes de una
computadora o entre computadoras. Está formado por cables o pistas en
un circuito impreso, dispositivos como resistencias y condensadores
además de circuitos integrados.
Es el conjunto de líneas por donde se transmiten los datos. A los
microprocesadores se les suele dividir en función del número de bits que
forman el dato. Inicialmente eran de 4 bits; después se fueron fabricando
circuitos con mayor capacidad como los de 8, 16, 32 y 64 bits. Esta
evolución ha sido forzada por la informática, que cada vez necesita unas
prestaciones mayores. Industrialmente se siguen utilizando los de 8 y 16
bits.
Bus de Direcciones
Aquel, que es el utilizado por la CPU para mandar el valor de la dirección
de memoria o de un periférico externo al que la CPU quiere acceder. Por
el se selecciona la posición de memoria o el dispositivo al que se va a
escribir o leer los datos. La dimensión o número de líneas que lo
componen, depende del microprocesador que utilicemos. El bus de
direcciones es un canal del microprocesador totalmente independiente del
bus de datos donde se establece la dirección de memoria del dato en
tránsito.
32. El bus de dirección consiste en el conjunto de líneas eléctricas necesarias
para establecer una dirección. La capacidad de la memoria que se puede
direccionar depende de la cantidad de bits que conforman el bus de
direcciones, siendo 2n (dos elevado a la ene) el tamaño máximo en bytes
del banco de memoria que se podrá direccionar con n líneas. Por ejemplo,
para direccionar una memoria de 256 bytes, son necesarias al menos 8
líneas, pues 28 = 256. Adicionalmente pueden ser necesarias líneas de
control para señalar cuando la dirección está disponible en el bus. Esto
depende del diseño del propio bus.
Bus de Control
Es aquel que usa una serie de líneas por las que salen o entran diversas
señales de control utilizadas para mandar acciones a otras partes del
ordenador. Es el encargado de conducir las señales IRQ de solicitud de
interrupción que hacen los dispositivos al microprocesador.
El bus de control además de datos y direcciones, hay otras líneas que
sirve para controlar el sistema. Una de esas líneas es la de reset
(inicialización del microprocesador).
Terminales de Alimentación
Es por donde se reciben los voltajes desde la fuente de alimentación del
ordenador. Los terminales de alimentación son los que se colocan en los
extremos del cable que trae la alimentación de la batería hasta el equipo;
por regla general son más gruesos que los de audio, ya que deberán
soportar una carga más elevada. Estos terminales por lo general tienen
un aro metálico en el extremo, el cual queda en el centro del tornillo para
hacer una fijación perfecta. También podemos encontrar del mismo estilo
que los de audio pero preparados para corriente eléctrica.
33. Reloj del Sistema
Es un circuito oscilador o cristal de cuarzo, que oscila varios millones de
veces por segundo. Es el que le marca el compás, el que le dicta a qué
velocidad va a ejecutarse cualquier operación. Uno de los factores a tener
en cuenta al comprar un ordenador es su velocidad, que se mide en
MHz. De hecho, esa velocidad es la del reloj del sistema, el "corazón".
El Reloj de una Computadora se Utiliza para dos Funciones
Principales:
o Para sincronizar las diversas operaciones que realizan los
diferentes sub-componentes del sistema informático.
o Para saber la hora.
El reloj físicamente es un circuito integrado que emite una cantidad de
pulsos por segundo, de manera constante. Al número de pulsos que emite
el reloj cada segundo se llama Frecuencia del Reloj; dicha frecuencia se
mide en Ciclos por Segundo, también llamados Hertzios, siendo cada
ciclo un pulso del reloj. Como la frecuencia del reloj es de varios millones
de pulsos por segundo se expresa habitualmente en Megaherzios.
El reloj marca la velocidad de proceso de la computadora generando una
señal periódica que es utilizada por todos los componentes del sistema
informático para sincronizar y coordinar las actividades operativas,
evitando el que un componente maneje unos datos incorrectamente o que
la velocidad de transmisión de datos entre dos componentes sea distinta.
Cuanto mayor sea la frecuencia del reloj mayor será la velocidad de
proceso de la computadora y podrá realizar mayor cantidad de
instrucciones elementales en un segundo. El rango de frecuencia de los
microprocesadores oscila entre los 4,77 megaherzios del primer PC
34. diseñado por IBM y los 200 megaherzios de las actuales computadoras
basadas en los chips Intel Pentium
Parte Externa
Disipador de Calor
Es una estructura metálica (por lo general de aluminio) que va montado
encima del Microprocesador para ayudarlo a liberar el calor. Es un
disipador sencillo que aumentan el área de radiación, permitiendo que la
energía salga rápidamente del sistema. También los hay con refrigeración
líquida, por medio de circuitos cerrados. En los procesadores más
modernos se aplica en la parte superior del procesador, una lámina
metálica denominada IHS que va a ser la superficie de contacto del
disipador para mejorar la refrigeración uniforme del die y proteger las
resistencias internas de posible toma de contacto al aplicar pasta térmica.
Varios modelos de procesadores, en especial, los Athlon XP, han sufrido
cortocircuitos debido a una incorrecta aplicación de la pasta térmica.
FanCooler
También conocidos como Electro-ventiladores; estos son unos pequeños
ventiladores de color negro que van montados en el disipador de calor y a
su vez en el Microprocesador, que permite enfriar el disipador de calor del
Microprocesador y a este ultimo también. Por lo general giran entre 3500
y 4500 r.p.m. y trabajan a 12 Volts.
Tipos de Microprocesadores
35. Según la Posición para Instalarlo
Horizontales: Tienen forma cuadrada con una ligera muesca en
una de sus esquinas que indica el primer Pin. Por lo general van
acompañados de un disipador de calor y un fancooler y se instalan
de forma horizontal, de allí su nombre. Están presentes en equipos
de la familia X86 que no vallan montados en el Slot1, sino
directamente en el Socket de la tarjeta madre. Socket 3-5 para
equipos 80-486,586,686, AMD y Cyrix; Socket 7 para equipos
Pentium I, algunos AMD y Cyrix ; Socket 370 [2] FTPGA o PPGA
para equipos Pentium III Intel Coopermine o algunos Celeron. Las
velocidades varían desde 33 Mhz para 80-286, 200 Mhz para
Pentium I, 1.1 Ghz para Celeron y Pentium III y 1.2 a 2 Ghz para
algunos Pentium IV. La característica de Velocidad, Memoria
Caché y Voltaje del Microprocesador casi siempre son indicadas
por el fabricante en la parte frontal del Microprocesador.
Verticales: Se caracterizan porque están montados en una tarjeta
electrónica con disipador de calor y fanCooler incorporado y se
instalan verticalmente en un Slot parecido a una ranura de
expansión. Las velocidades varían desde 233 Mhz para algunos
Pentium II hasta 800 Mhz para Pentium III. La característica de
Velocidad, Memoria Caché y Voltaje del Microprocesador casi
siempre son indicadas por el fabricante en una de las partes
laterales del Disipador de calor del Microprocesador.
Según sus Características Físicas
Microprocesadores de Slot.
Microprocesadores de Pastilla.
36. Microprocesador 4004
Aparece en 1971 gracias a tres ingenieros: Robert Noyce, Gordon Moore
y Andrew Grove. Su Bus de datos era de 4 bits, un bus de direcciones
multiplexado de 12 bits que gestionaba hasta 45 bytes y un set de
instrucciones de 45. Estaba formado por 2300 transistores e integraba
unas 1000 puertas lógicas, implementado todo en 24mm2 con tecnología
PMOS y su formato era DIP (Dual Inline Package) cerámico de 16 pines.
Su velocidad de proceso era de 60000 operaciones por segundo a una
frecuencia de trabajo de 108 KHz.
Microprocesador 4040
Es otro desarrollo de INTEL. Aparece en 1972 bajo un formato DIP de 24
pines. Usaba tecnología PMOS, 4 bits de bus de datos y 12 bits para
manejar un bus de direcciones multiplexado. El Intel 4040 fue el sucesor
del Intel 4004. Diseñado por Federico Faggin (quien propuso la
arquitectura y condujo el proyecto) y Tom Innes. El 4040 fue usado
primariamente en juegos, pruebas, desarrollo, y equipos del control. El
paquete del 4040 era más de dos veces el ancho del 4004 y tenía 24
pines en lugar de los 16 del 4004. El 4040 agregó 14 instrucciones, un
espacio más grande para el stack (7 niveles en vez de 3), un espacio para
programas de 8KB, 8 registros adicionales, y habilidades de interrupción
(incluyendo sombras (shadows) de los primeros 8 registros).
Microprocesador 8008
Aparece en abril de 1972 con una velocidad de proceso de 300KHz.
Disponía de un bus de 8 bits y un bus de direccionamiento de memoria
multiplexado capaz de manejar 16KB, formado por 14 bits. Su Formato
era DIP cerámico de 18 pines con tecnología PMOS, integrando 3300
37. transistores. Su set de instrucciones era de 66. Los Homónimos del 8008
de Intel fueron el 6800 de Motorola, el 6502 de Mos Techonology y el
difundido Z80 de ZILOG.
En 1969 Computer Terminal Corp. (ahora Datapoint) visitó Intel. Vic Poor,
vicepresidente de Investigación y Desarrollo en CTC quería integrar la
CPU (unos cien componentes TTL) de su nueva Terminal Data-point 2200
en unos pocos chips y reducir el costo y el tamaño del circuito electrónico.
Ted Hoff observó la arquitectura, el conjunto de instrucciones y el diseño
lógico que había presentado CTC y estimó que Intel podría integrarlo en
un sólo chip, así que Intel y CTC firmaron un contrato para desarrollar el
chip. El chip, internamente llamado 1201, sería un dispositivo de 8 bits.
Pensado para la aplicación de terminal inteligente, debería ser más
complejo que el 4004.
Al principio parecía que el 1201 saldría antes que el 4004 ya que Federico
Faggin tenía que desarrollar cuatro chips, siendo el 4004 el último de
ellos. Sin embargo, después de algunos meses de trabajo con el 1201, el
diseñador, Hal Feeney, fue puesto a diseñar un chip de memoria, con lo
que el proyecto del 1201 fue puesto en el "freezer". Mientras tanto, CTC
también contrató a la empresa Texas Instruments para hacer el diseño del
mismo chip como fuente alternativa. Al final de 1970 Intel continuó con el
proyecto del 1201 bajo la dirección de Faggin y Feeney fue puesto
nuevamente a trabajar en este proyecto.
En junio de 1971, TI puso un aviso en la revista Electronics donde se
detallaban las capacidades de este integrado MOS LSI. Con la leyenda
"CPU en un chip" se acompañaba la descripción del circuito a medida
para la terminal Datamation 2200. El aviso decía "TI lo desarrolló y lo está
produciendo para Computer Terminal Corp.". Las dimensiones indicadas
eran 5,46 por 5,71 mm, un chip enorme aun para la tecnología de 1971 y
38. era 225% más grande que el tamaño estimado por Intel. El chip de Texas
Instruments, sin embargo, jamás funcionó y no se puso en el mercado.
TI patentó la arquitectura del 1201, que fue realizado por CTC con
algunos cambios de Intel, con lo que luego hubo batallas legales entre
Intel y TI. Durante el verano (en el hemisferio norte) de 1971, mientras el
trabajo con el 1201 estaba progresando rápidamente, Data-point decidió
que no necesitaba más el 1201. La recesión económica de 1970 había
bajado el costo de los circuitos TTL de tal manera que ya no era rentable
el circuito a medida. Data-point le dejó usar la arquitectura a Intel y a
cambio la última no le cobraba más los costos de desarrollo.
Intel decidió cambiarle el nombre al 1201: se llamaría 8008. El primero de
abril de 1972 se lanzó este microprocesador al mercado con un conjunto
de chips de soporte, como una familia de productos llamado MCS-8.
Estos chips de soporte eran integrados existentes con los nombres
cambiados. El interés del mercado por el MCS-8 fue muy alto, sin
embargo las ventas fueron bajas. Para solucionar este inconveniente, se
diseñaron herramientas de hardware y software, entrenamiento y
sistemas de desarrollo. Estos últimos son computadoras especializadas
para desarrollar y depurar programas (quitarles los errores) para el
microprocesador específico. Un año después, Intel recibía más dinero de
los sistemas de desarrollo que de los microprocesadores y chips de
soporte. A título informativo cabe destacar que este microprocesador de
ocho bits poseía alrededor de 3500 transistores, direccionaba 16 KBytes y
la frecuencia máxima de reloj (clock) era de 108 KHz
Los Microprocesadores 8086 y 8088
En junio de 1978 Intel lanzó al mercado el primer microprocesador de 16
bits: el 8086. En junio de 1979 apareció el 8088 (internamente igual que el
8086 pero con bus de datos de 8 bits) y en 1980 los coprocesadores 8087
39. (matemático) y 8089 (de entrada y salida). El primer fabricante que
desarrolló software y hardware para estos chips fue la propia Intel.
Reconociendo la necesidad de dar soporte a estos circuitos integrados, la
empresa invirtió gran cantidad de dinero en un gran y moderno edificio en
Santa Clara, California, dedicado al diseño, fabricación y venta de sus
sistemas de desarrollo que, como se explicó anteriormente, son
computadoras autosuficientes con el hardware y software necesario para
desarrollar software de microprocesadores.
Los sistemas de desarrollo son factores clave para asegurar las ventas de
una empresa fabricantes de chips. La inmensa mayoría de ventas son a
otras empresas, las cuales usan estos chips en aparatos electrónicos,
diseñados, fabricados y comercializados por ellas mismas. A estas
empresas se las llama "fabricantes de equipo original", o en inglés, OEM
(Original Equipment Manufacturer). El disminuir el tiempo de desarrollo de
hardware y software para las OEM es esencial, ya que el mercado de
estos productos es muy competitivo. Necesitan soporte pues los meses
que les puede llevar el desarrollo de las herramientas apropiadas les
pueden significar pérdidas por millones de dólares. Además quieren ser
los primeros fabricantes en el mercado, con lo cual pueden asegurarse las
ventas en dos áreas importantes: a corto plazo, ya que al principio la
demanda es mucho mayor que la oferta, y a largo plazo, ya que el primer
producto marca a menudo los estándares.
De esta manera la empresa Intel había desarrollado una serie completa
de software que se ejecutaba en una microcomputadora basada en
el 8085 llamada "Intellec Microcomputer Development System". Los
programas incluían ensambladores cruzados (éstos son programas que
se ejecutan en un microprocesador y generan código de máquina que se
ejecuta en otro), compiladores de PL/M, Fortran y Pascal y varios
programas de ayuda. Además había un programa traductor llamado CON
V86 que convertía código fuente 8080/8085 a código fuente 8086/8088. Si
se observan de cerca ambos conjuntos de instrucciones, queda claro que
40. la transformación es sencilla si los registros se traducen así: A -> AL, B ->
CH, C -> CL, D -> DH, E -> DL, H -> BH y L -> BL.
Puede parecer complicado traducir LDAX B (por ejemplo) ya que el 8088
no puede utilizar el registro CX para direccionamiento indirecto, sin
embargo, se puede hacer con la siguiente secuencia: MOV SI, CX; MOV
AL, [SI]. Esto aprovecha el hecho que no se utiliza el registro SI. Por
supuesto el programa resultante es más largo (en cantidad de bytes) y a
veces más lento de correr que en su antecesor 8085. Este programa de
conversión sólo servía para no tener que volver a escribir los programas
en una primera etapa. Luego debería reescribirse el código fuente en
assembler para poder obtener las ventajas de velocidad ofrecidas por el
8088. Luego debía correr el programa en la iSBC 86/12 Single Board
Computer basado en el 8086. Debido a lo engorroso que resultaba tener
dos plaquetas diferentes, la empresa Godbout Electronics (también de
California) desarrolló una placa donde estaban el 8085 y el 8088, donde
se utilizaba un ensamblador cruzado provisto por la compañía Microsoft.
Bajo control de software, podían conmutarse los microprocesadores. El
sistema operativo utilizado era el CP/M (de Digital Research).
El desarrollo más notable para la familia 8086/8088 fue la elección de la
CPU 8088 por parte de IBM (International Business Machines) cuando en
1981 entró en el campo de las computadoras personales.
Esta computadora se desarrolló bajo un proyecto con el nombre "Acorn"
(Proyecto "Bellota") pero se vendió bajo un nombre menos imaginativo,
pero más correcto: "Computadora Personal IBM", con un precio inicial
entre 1260 dólares y 3830 dólares según la configuración (con 48KB de
memoria RAM y una unidad de discos flexibles con capacidad de 160KB
costaba 2235 dólares). Esta computadora entró en competencia directa
con las ofrecidas por Apple (basado en el 6502) y por Radio Shack
(basado en el Z-80).
41. Microprocesador 80286
En el año 1982 nace el 286 o primer microprocesador para ordenadores
AT aunque no ve la luz hasta 1984 con distintos formatos en encapsulado
PGA. Algunos estaban soldados a la placa base, otros se colocaban
sobre un zócalo. Aparece un competidor serio de INTEL: AMD.
El 80286 dispone de un SET de instrucciones más amplio que los micros
anteriores, disponiendo de un bus de datos de 16 bits y un bus de
direcciones de 24 bits. Esto conseguía que la memoria pudiese
direccionar hasta 224= 16.777.216 bytes= 16MB. La velocidad evoluciono
desde los primeros AT-02 y AT-03 de 6 y 8 MHz respectivamente hasta los
12, 16 y 20MHz. Incorporaba un nuevo modo de trabajo: el modo
protegido. Este sistema consistiría en la posibilidad de poder trabajar en
multitarea o, lo que es lo mismo, aplicar pequeñas particiones de tiempo a
diferentes trabajos que se ejecutan de forma alternativa gestionando
hasta 16MB de RAM; también permitía el modo real, emulando varios
8086 con 1024 KB de memoria. El 80286 se popularizo gracias a su
implementación en las maquinas 5170 AT de IBM.
Microprocesador 80386
Aparece el 386DX con arquitectura tanto interna como externa de 32 bits.
Fue el primero en incluir posibilidades de gráficos en color de alta
resolución así como sonido. Este micro, dependiendo del fabricante,
trabaja entre 16 y 40MHz. Su formato también variaba según el
fabricante, un 386sx INTEL de 100 pines a un 386DX AMD de 132. El
386DX era capaz de direccionar hasta 232= 4.294.967.296 bytes = 4Gb
de memoria, pero tenia el serio inconveniente del precio. El 386sx
42. aparece como respuesta al alto precio del 386 ``puro'' o DX. Se diferencia
por trabajar solo con 16 bits de datos externo y un bus de direcciones de
24bits, además de tener un rango de frecuencia de trabajo de 16 hasta 25
MHz. Existe un modelo de 386 con mayor escala de integración que es el
386SL utilizado en ordenadores portátiles. Este microprocesador permitía
un nuevo modo de funcionamiento: el modo virtual.
Microprocesador 80486
En 1989 aparecen los i486DX. El motivo del cambio de nomenclatura se
debe a la oficina de patentes de EE.UU. dicha oficina no reconoce tres
dígitos como marca registrada, lo que le favorece a la competencia de
empresas como CYRIX o AMD que pueden llamar a sus productos con el
mismo nombre que INTEL.
Se trata de un microprocesador que incorpora la propia CPU, además de
un coprocesador matemático, un controlador de memoria de caché de
128 bits y dos memorias caché de 4 KB cada una, que trabajan como
búfer intermedio entre la memoria principal y el micro, trabajando tanto de
forma externa como interna con una estructura de 32 bits. Tiene una alta
integración y rendimiento, no era cierto el comentario que afirmaba que un
386DX con coprocesador matemático ofrecía el mismo rendimiento que
un 486DX.
Los distintos modelos que se encuentran en el mercado son SX, DX, SLC,
DLC, DX2, Y DX4 con velocidades comprendidas entre 25 y 133 MHz.
Los micros DX2 Y DX4 lo que hacen es multiplexar la frecuencia por lo
que la velocidad interna del micro es distinta a la externa. Los homónimos
del DX y SX en portátiles son el DLC y el SLC, de mayor escala de
integración aunque menor rendimiento.
Microprocesador PENTIUM
43. El Pentium (o ``586''), de unos 6,4 cm2 aproximadamente, presentó
graves problemas en sus inicios debido a un error de fabricación en su
modelo a 60 MHz. En el año 1994 se detectaron PENTIUM defectuosos.
Este error era provocado, bajo determinadas circunstancias, al realizar
una operación de coma flotante y se detectaba en el BIT 13 de la mantisa.
Estos errores aparecían con las funciones: FDIV, FDIVR, FPTAN,
FPATAN, FPREM y FPREM1 tanto en simple, doble o precisión extendida.
INTEL dispuso un `` chequeo oficial ''.
Posteriormente aparecieron distintos modelos que duplicaban la velocidad
del bus, trabajando a 75, 90, 100, 120, 133, 150, 166, 180 y 200 MHz que
funcionaban perfectamente. Una de las novedades que incorpora es el
trabajar a partir del P/66 a 3,3v de alimentación en lugar de con 5v. Esta
novedad ya fue implementada por su competidor AMD en el modelo 486
DX2 Y DX4. La cache utilizada es de 16KB. En AMD, el PENTIUM recibe
el nombre de K.5 y en CYRIX, el de 6x86.
Funcionamiento de un PENTIUM
La RAM envía datos o instrucciones codificadas a la BIU (o unidad de
interfaz con el BUS) en Ráfagas de 64 bits. Estos datos son enviados por
dos rutas cada una de las memorias caché de que dispone el micro. En
una se almacenaran los datos y en la otra las instrucciones que indican
que debe hacerse con esos datos. Existe una zona llamada Unidad de
predicción de bifurcaciones. Esta unidad se encargara de inspeccionar las
dos ALUs que tiene el microprocesador para determinar cual será la
encargada de gestionar las nuevas instrucciones. Es unidad asegura el
rendimiento optimo del microprocesador, evitando que una ALU este sin
trabajar mientras existan instrucciones que procesar.
Una nueva memoria, llamada búfer del prefetch recupera los códigos de
instrucciones y los convierte a un lenguaje que la ALU seleccionada
44. pueda entender. En caso de precisar realizar operaciones con números
decimales (llamados de coma flotante) se usara el procesador interno
especializado para tal fin.
A partir de este momento, cada ALU procesara las instrucciones que le
correspondan de manera independiente, recogiendo los datos que le sean
precisos desde las caché de datos (registros) y las instrucciones desde
cada decodificador de instrucciones. Superaran los 32 bits. Una vez
finalizado el proceso, las dos ALUs, así como el procesador de coma
flotante, entregaran sus resultados a la caché de datos, desde donde
serán reenviados a la memoria RAM.
Microprocesador PENTIUM PRO
El Pentium PRO (microprocesador incluido en lo que INTEL ha llamado la
familia P6) es otro de los microprocesadores que INTEL ha orientado a
aplicaciones y sistemas operativos de 32bits. Implementado con 5,5
millones de transistores, es muy diferente de los PENTIUM
convencionales. Al igual que el PENTIUM convencional, dispone de 8 KB
de memoria caché interna para datos y otros 8 KB para instrucciones,
pero en el caso de PENTIUM PRO la memoria caché es de nivel 2 (L2) en
lugar de nivel 1 (L1) usado por el PENTIUM convencional. Se pueden
encontrar versiones de PENTIUM PRO con 256 KB y 512 KB de memoria
L2 asociativo de cuatro vías. Trabajando a 32bits, el PENTIUM PRO
ofrece prácticamente el doble de velocidad para una misma frecuencia
que un PENTIUM convencional. En caso de trabajar con un sistema
operativo de 16 bits, las diferencias en prestaciones son mínimas.
Microprocesador PENTIUM MMX
El PENTIUM MMX o P55C es otro micro de INTEL con la innovación de la
tecnología MMX. Este microprocesador maneja 257 instrucciones. Estas
45. nuevas instrucciones están orientadas a los multimedia y se define como
el cambio más radical desde el 386 aparecido en 1985. Otra novedad de
este tipo de microprocesadores es referente al consumo de corriente. No
todo el micro trabaja a la misma tensión de alimentación, sino que usa un
voltaje dual. Aunque dicha tensión se determina de forma específica en
cada micro, es habitual que los valores oscilen en torno a 2,8v para el
núcleo del microprocesador y 3,3v para el sistema de operaciones de
entrada/salida.
Los modelos aparecidos en el mercado funcionaron a 166, 200 y 233
MHz, aunque existieron versiones a 133 MHz para ordenadores portátiles.
Una pega de los microprocesadores MMX es que mientras se está
usando este set de instrucciones multimedia, no puede trabajar el
coprocesador matemático. Dispone de la doble de cache, es decir, 16KB
para datos y 16 para instrucciones, por lo que la mejora está asegurada.
Microprocesador PENTIUM II
El Pentium II consigue aunar la potencia del Pentium pro con las ventajas
multimedia del Pentium mmx. Diseñado para 233, 266, 300 MHz dispone
de una memoria cache interna de 512 KB. Otra novedad incluida es el tipo
de zócalo que Intel lanza como nuevo estándar para su microprocesador:
El SEC (Single Edge Connect).
Cabe destacar que la memoria cache integrada ya no va integrada en el
propio microprocesador. En el caso del Pentium II, la memoria cache de
segundo nivel va en el circuito impreso que sirve de soporte para el
microprocesador.
El nuevo diseño externo del Pentium (similar al cartucho de
una consola de juegos) tienes dos funciones primordiales:
46. o Aislamiento que permite apantallar el microprocesador de los
demás componentes y viceversa: impedir que el resto de los
componentes interfieran sobre el correcto funcionamiento del
microprocesador.
o Soporte del disipador ventilador que, dadas las condiciones de
refrigeración necesarias en el microprocesador, debe ser
voluminoso.
Al igual que otros productos INTEL este microprocesador viene precedido
de errores de diseño: unos días más tarde del lanzamiento del Pentium II,
se observo un error. Se trata de un error relacionado con la unidad de
coma flotante. En concreto afecta a la conversión de números en coma
flotante a enteros. Este error afectaba también a microprocesadores
Pentium Pro. De cara a enviar pasados enfrentamientos, INTEL firmo con
la empresa NATIONAL SEMICONDUCTORS (fabricante de los
microprocesadores CYRIX) un convenio por el que le permite desarrollar
sus propios micros basándose en la tecnología del Pentium II. Este
proceso se basa en la denominada ``ingeniería inversa'', mediante la cual
INTEL se guarda sus secretos de desarrollo y únicamente proporciona a
CIRYX una base a partir de la cual trabajar.
Microprocesador PENTIUM CELERON
Aunque no sea la idea con la que INTEL pretende vender este producto,
el Pentium Celeron se puede entender como el Pentium II Sx. Se trata de
un microprocesador de batalla, inferior al Pentium II pero con un mejor
precio. Esto consiguió que perdurase más tiempo que el propio Pentium
II, siendo la punta de lanza de la compañía INTEL hasta la aparición del
Pentium III. Este micro apareció bajo dos encapsulados diferentes: el
SEPP y el PPGA. El primero fue el más común, recordando al típico
formato del Pentium II.
47. Aunque también estaba optimizado para trabajar con aplicaciones de
32bits, la critica a este microprocesador venia por la ausencia de memoria
cache L2. Esto afectaba a toda la gama comprendida entre los 266 y
300MHz; el resto incluían una L2 de 128KB sincronía con la velocidad del
microprocesador. En cuanto a caché de primero nivel, todos los modelos
disponen de 32KB, repartidos en igual capacidad de datos e
instrucciones.
Implementados con 7,5 millones de transistores hasta los modelos de
300MHz y con 9,1 millones el resto, estos micros heredan las
instrucciones MMX y siguen manteniendo una comunicación con el bus
de 66MHz.
Microprocesador PENTIUM III
El PENTIUM III es la sucesión dentro de la factoría INTEL del PENTIUM
II. Clasificado dentro de la familia P6 y con las características propias de
la misma como el rendimiento en ejecución dinámica o un bus de sistema
multitransaccional, funciona con un bus externo de 100 MHz. Hereda la
tecnología MMX además de 70 nuevas instrucciones orientadas al manejo
de gráficos 3-D, video, audio. También se contemplan otras tecnologías
multimedia como el reconocimiento de voz o la tecnología denominada
SIMD.
Debe tenerse en cuenta que admitió frecuencias de trabajo vertiginosas
en su tiempo de 450, 500 y 550MHz funcionando con un Chipset 440BX.
Incluye, además, 512 KB de memoria cache de segundo nivel. Incluye 8
nuevos registros de 128 bits, además de los 8 registros FP ya existentes
de 64 bits, donde cada registro soporta 4 valores de coma flotante de
simple precisión IEEE. INTEL incluyo una novedad: cada microprocesador
era numerado de forma única, con lo que desaparecía el anonimato del
usuario. Si bien esta identificación es camufable, esta novedad no fue del
agrado de muchos usuarios, especialmente los ínter-nautas.
48. Las importantes mejoras en gráficos 3D con mas polígonos y efectos
complementan la animación así como el tratamiento de imágenes. Este
tratamiento dispone de algoritmos optimizados que permiten manejar
imágenes más grandes y complejas en menos tiempo. En cuanto al video,
lo más destacable es, sin duda, la posibilidad de edición y codificación de
ficheros en formato comprimido MPEG 2 en tiempo real junto al resto de
características heredadas del tratamiento de imágenes. Esto consigue
una reproducción de video más real sin cortes entre imágenes.
El conjunto de prestaciones se complementa con el reconocimiento de
voz que es una de las características más atractivas. Para dar soporte al
manejar de voz promovido por MICROSOFT con su nuevo Windows
2000, INTEL ha creado la plataforma idónea dando mayor precisión y
efectividad a las aplicaciones reconocimiento.
Microprocesador ITANIUM
Desde la aparición del PENTIUM convencional pasando por el PENTIUM
II, III e incluso el XEON, no ha habido nada nuevo, si no que más bien se
ha tratado de transformaciones sobre una misma base. El Merced ve la
luz y desde noviembre de 1999 se produce en pequeñas cantidades aun
hasta mitad del 2000, fecha en el que el proceso de producción explotara
el producto bajo el nombre comercial de ITANIUM.
Como siempre, AMD sigue la pista de cerca del gran gigante y, casi de
forma paralela, ha anunciado su réplica al ITANIUM: el
SLEDGEHAMMER. Ambos micros tienen una característica común que
les diferencia de los demás: la capacidad de trabajo a 64bits. La marca
ITANIUM representa la fuerza y prestaciones de las características únicas
de procesador que proporcionan a los clientes una base fiable y con
capacidad de respuesta para el comercio electrónico del futuro.
49. En el nuevo diseño de INTEL se ha contado hasta con los más pequeños
detalles. En cuanto a compatibilidad no parece que vaya a haber ningún
problema: todas las aplicaciones diseñadas para 32 bits correrán sin
problemas bajo la arquitectura de 64.
Microprocesador PENTIUM 4
El PENTIUM 4 corresponde al último diseño de INTEL para dar respuesta
a las nuevas necesidades que el avance de las nuevas tecnologías
implica. Lo más llamativo de este micro es que se trata de un desarrollo
completamente nuevo, no se ha apoyado en diseños anteriores como
ocurría, parece que este es el avance más importante de INTEL desde el
año 1995.
Con lo anterior expuesto es fácil de deducir que el PENTIUM 4, precisa de
una placa base diseñada de forma específica. El formato en el que se
suministra es para socket 423, aunque existen varios rumores por parte
de INTEL, sobre un cambio de formato inminente hacia los 478 pines.
Además el sistema de refrigeración precisa de una caja y fuente de
alimentación especiales denominadas ATX 2.03.
La idea es sencilla: se sigue basando el aumento de rendimiento en una
serie de predicciones que, en caso de cumplirse, aumentan
significativamente la efectividad de la CPU. El problema viene cuando
estas predicciones no son correctas. Así este nuevo chip de INTEL
dispone de una canalización distribuida en 20 fases. Esto significa que
cuando se realiza una predicción un total de 20 microinstrucciones
pueden quedar en espera de confirmar si la citada predicción ha sido
correcta.
Otro de los avances es el incremento de velocidad de proceso. Toda la
campaña de INTEL asegura que se soporta un bus de sistema de
50. 400MHz. Si se pretende ser serio, realmente no es esta la velocidad de
bus a la que se puede trabajar sino que se aplica un doble DDR para
obtener mejores resultados. Realmente se mantienen los 100 MHz
habituales con un factor multiplicador que empieza a resultar desorbitado.
El micro de 1,4GHz y bajo la premisa expuesta de un funcionamiento a
100 MHz, es necesario configurar la placa base con un factor
multiplicador de x14. Se alcanzan los 3,2 GB/s frente a 1 GB/s obtenido
por el PENTIUM II con un bus de 133 MHz o los 0,5 GB/s del Celeron con
un bus de 66MHz.
Más de un Micro En Una Misma Placa: Es habitual para los
servidores usar placas donde dos microprocesadores trabajan en
paralelo. Se trata de casos especiales donde, en lugar de una
CPU, se usan dos o más. Hay fundamentalmente dos tipos de
arquitecturas para el microprocesador:
o Asociación Estrecha (tightly coupled).
o Asociación Flexible (loosely coupled).
Habitualmente se usa la arquitectura Pipeline. Esta técnica permite que,
mientras se está decodificando una instrucción, otra, en paralelo, se está
ejecutando. Esto consigue que en un solo ciclo de reloj se realicen dos
instrucciones.
El OVERCLOKING: Es el término que se aplica al hecho de
incrementar la velocidad del procesador por encima de la que ha
sido diseñado, con el objeto de aumentar la velocidad del sistema
sin añadir nuevos componentes. Este sistema se ha usado por
distribuidores poco profesionales dando, en su día, ligar a un
escándalo provocado por la falsificación de micros: se serigrafía
con una velocidad superior y se vendían como microprocesadores
de más frecuencia.
51. Todos los micros se pueden trucar, aunque algunos aguantan mejor que
otro el overcloking. Los 386 y 486 de INTEL Y AMD aguantaban grandes
incrementos de frecuencia. Igualmente ocurría con los 486 de CYRIX. Los
MOTOROLA 680x0 eran menos adecuados, ya que el overcloking
requiere un subsistema de memoria fiable por parte del microprocesador y
el MOTOROLA 68040 no dispone de memoria cache de segundo nivel.
Puede darse el caso de que un microprocesador diseñado para trabajar a
100MHz, no consiga funcionar correctamente a esa velocidad pero si a
75MHz. Esto no implica que el micro sea defectuoso, ya que se garantiza
el correcto funcionamiento a una frecuencia determinada. Las condiciones
de laboratorio no coinciden con las habituales de trabajo.
El overcloking no produce generalmente ningún daño. La única
consecuencia directa es el sobrecalentamiento que se soluciona mediante
el uso de un ventilador/disipador. Un problema poco documentado sobre
el overcloking es la electromigración, que consiste en la erosión de las
pistas debido al aumento de frecuencia. No todos los micros responde
igual, el resto de los componentes del ordenador si que guardaran una
dependencia con el incremento de velocidad. Si una vez modificados los
parámetros de funcionamiento del micro el ordenador no arranca, se
podrá probar, siempre y cuando la BIOS lo permita, a añadir estados de
espera o bajar la velocidad.
Las tarjetas aceleradoras también llamadas ICE son unas placas
destinadas a aumentar la velocidad del PC mediante su inserción en una
de INTEL.
Fabricantes Destacados
AMD
APPLE
AYRIX
52. INTEL
MOTOROLA
TEXAS INSTRUMENTS
Conclusión
El ordenador recibe y envía la información a través de los periféricos por
medio de los canales. La UCP es la encargada de procesar la información
que le llega al ordenador. El intercambio de información se tiene que
hacer con los periféricos y la UCPs un sistema complejo que puede llegar
a estar constituido por millones de componentes electrónicos elementales.
53. Esto que en le teoría parece tan fácil es bastante mas complicado en la
práctica, ya que aparte de los bus de datos y de direcciones existen
también casi dos docenas más de líneas de señal en la comunicación
entre la CPU y la memoria, a las cuales también se acude. Dentro de la
tecnología SCSI hay 2 generaciones y una tercera que está a la vuelta de
la esquina. La primera generación permitía un ancho de banda de 8 bits y
unos ratios de transferencia de hasta 5 MBps. El mayor problema de esta
especificación fue que para que un producto se denominara SCSI solo
debía cumplir 4 códigos de operación de los 64 disponibles por lo que
proliferaron en el mercado gran cantidad de dispositivos SCSI no
compatibles entre sí.
El microprocesador lo que hace es procesar ordenes sencilla, para
procesar ordenes mayores deberemos construir un programa. Con un
micro de 16 bits solo se puede direccionar hasta 64 k de memoria, pero
ya sabemos que se debe acceder a más de ellas, esto lo logramos con el
esquema de direccionamiento de 20 bits utilizado por el microprocesador
Una vez seleccionada y analizada la instrucción deberá accionar los
circuitos correspondientes de otras unidades, para que se cumplimente la
instrucción, a través del secuenciador o reloj. El chip más importante de
cualquier placa madre es el procesador.
Las teclas están sobre los puntos de intersección de las líneas
conductoras horizontales y verticales. Cuando se pulsa una tecla. Se
establece un contacto eléctrico entre la línea conductora vertical y
horizontal que pasan por debajo de la misma realizar las operaciones con
los datos procesados por el ordenador. Puede realizar las operaciones
aritméticas básicas: suma, resta, multiplicación y división, así como,
controlada por la UC operaciones como la de desplazamiento. Este
desplazamiento se puede realizar hacia la derecha o hacia la izquierda.
La UAL utiliza un registro denominado acumulador donde almacena los
resultados de las operaciones antes de ser enviados a la memoria.
54. Cuando vamos a acceder a la dirección de memoria especificada en el
CP, esta dirección deberá transferirse al RDM, a través del cual
accederemos a dicha dirección. Esto se realiza al iniciar cada ciclo de
instrucción.
La memoria está compuesta de chips. Lo único que realizan estos chips
es almacenar la información hasta que esta es requerida. El número de
chips de que consta la memoria es el que determina la capacidad de la
misma.
Anexos