SlideShare una empresa de Scribd logo
1 de 56
REPÚBLICA BOLIVARIANA DE VENEZUELA
    MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN
                       SUPERIOR
              CONVENIO NUEVO RETO PERIODO 2.010-2
                   Cátedra: Sistemas Mecanizados II.
                         Mención: Informática




FACILITADOR:                        PARTICIPANTES:
                                    Abreu, Ronmer      C.I: V-11.833.207
Ana Sánchez                         Mata, Aryanna      CI: V-17.039.511
                                    Grillet, Yelitza   CI: V-14.604.676
                                    López, Levic       CI: V-9.937.176
                                    Ruiz Zaida S.      C.I: V-13.336.968
                                    Silva, Ynexa       CI: V- 8.938.077
                                    Suarez Abraham     CI: V-17.339.449
                                    Vásquez, Marcos    CI: V-12.923.517


                   Ciudad Guayana, Enero de 2011.
INTRODUCCION




La UCP es la encargada de procesar la información que le llega al
ordenador. El intercambio de información se tiene que hacer con los
periféricos y la UCP. El ordenador es en realidad el Microprocesador, o
sea, un conmutador, es el cerebro y razón de ser del ente denominado
computadora. Todo lo demás que le rodea y se le es conectado son
dispositivos mediante los cuales el cerebro se alimenta de energía e
interactúa con el medio ambiente y por lo tanto con los usuarios.
EVOLUCIÓN HISTÓRICA DE LAS COMPUTADORAS


Evolución Electrónica.


El desarrollo de la electrónica se produjo a partir de los inicios del siglo
XCX, como consecuencia del núcleo de conocimientos acumulados sobre
la electricidad en las décadas procedentes. Así, Thomas Alva Edison
había   observado,    mientras    ensayaba     sus   lámparas     eléctricas
incandescentes, un ennegrecimiento en su interior motivado por la
emisión de electrones por efecto del calor. El fenómeno, no aprovechado
prácticamente por Edison, recibió, no obstante, el nombre del investigador
estadounidense.


Posteriormente se confirmó que la electricidad se puede propagar a un en
ausencia de un medio material transmisor. Estos acontecimientos
confluyeron en los trabajos del ingeniero inglés John Ambrose Fleming,
quien ideo una aplicación práctica del efecto Edison para la recepción de
ondas de radio. Al calentar el polo negativo de un tubo vacío alimentando
por una batería se estableció una corriente continua de electrones hacia
el polo positivo, mientras que al cambiar la polaridad no se producía
corriente. El dispositivo resultante, que solo permitía el paso de la
corriente eléctrica en uno de los sentidos, recibió el nombre de válvula o
diodo, mejorando posteriormente con la incorporación de un tercer
electrodo que dio lugar a los tríodos. Estas lámparas, unidas a todos los
demás tipos de tubos y válvulas de vacío, constituyeron los fundamentos
de la moderna técnica electrónica.


La industria electrónica experimento un importante desarrollo a partir de la
segunda guerra mundial.


En 1948, la invención del transistor componente constituido por un
semiconductor que actúa al amplificar, modular y detectar oscilaciones
eléctricas dotó a este sector de un artificio que sustituyo a la válvula o
bulbo y permitió la fabricación de sistemas complejos, fundamento de las
computadoras. El tamaño de los circuitos se redujo considerablemente y
aun mayor fue esta disminución tras la aparición en la década de 1970 de
los circuitos integrados, formados por elementos fijos.


 Génesis


Se inicia con los trabajos de varios destacados físicos, tales como
Coulomb, Ampère, Gauss, Faraday, Henry y Maxwell. Estos trabajos
quedaron recogidos, en 1865, en el marco formal de la teoría del
electromagnetismo, formulada por Maxwell (deducida de las ecuaciones
que llevan su nombre); teoría que, sin embargo, debió esperar hasta 1888
para su demostración.


La mencionada demostración la realizó Hertz con la generación, en el
laboratorio, de ondas electromagnéticas. Más tarde, en 1896, Marconi
logró transmitir y detectar estas ondas (llamadas hertzianas) y abrió el
camino a posteriores avances tan importantes como la televisión y las
telecomunicaciones.


El nacimiento de la electrónica, como rama de la ciencia, puede situarse
en 1895, año en el que Lorentz postuló la existencia de partículas
cargadas       llamadas   electrones,     lo   cual       fue   demostrado,
experimentalmente, por Thomson dos años más tarde.Braun, en 1897,
hizo pública su invención del primer tubo electrónico, rudimentario
antecesor de los tubos de rayos catódicos que forman parte de los
televisores.
 Las Válvulas


La electrónica no asumió las connotaciones tecnológicas que la
caracterizan hasta los inicios del siglo XX, con la invención de los
primeros componentes y, en particular en 1904, con la creación de la
válvula termoiónica o diodo, por parte del físico británico John Ambrose
Fleming.


El diodo está compuesto esencialmente por dos electrodos metálicos
contenidos en un tubo vacío, uno de los cuales (el cátodo) es calentado
por un filamento. Debido a este calentamiento, el cátodo emite electrones
(efecto termoiónico), que son acelerados hacia el otro electrodo (el ánodo)
cuando este último se mantiene positivo respecto al cátodo. De tal forma
que, intercalado en un circuito, el diodo muestra la importante propiedad
de conducir corriente únicamente cuando la tensión que se le aplica tiene
un determinado sentido. De esta manera, permite la rectificación de una
corriente alterna.


La corriente que se obtiene conectando un electrodoméstico a una de las
tomas que hay en las paredes de las casas (corriente de red), tiene la
característica de invertir continuamente el sentido con que circula por un
circuito, y por tanto se llama corriente alterna (la corriente de red es
alterna debido a la técnica de su producción, lo cual no compete a la
electrónica. De todas maneras, en muchos casos, es necesario disponer
de una corriente continua; es decir, que nunca invierta su sentido de
circulación. Para esto se emplean unos determinados dispositivos que
rectifican la corriente, transformándola de alterna a continua.


En 1905, el físico estadounidense Lee De Forest, perfeccionando el
invento de Fleming, creó el triodo. El aporte de Forest consistió en la
introducción de un tercer elemento (la rejilla), cerca del cátodo. La
proximidad entre el cátodo y la rejilla hace que, si a esta última se le
aplica una pequeña tensión, influya sustancialmente sobre el flujo de
electrones en el interior del tubo. Por tanto, el triodo actúa como
amplificador (el nombre de audión, que originalmente dio De Forest a su
invento, traduce el intento de aplicar esta característica a las señales de
sonido).El invento de los dispositivos mencionados proporcionó la base
tecnológica para el rápido desarrollo de las radiocomunicaciones. Para
1912 en los Estados Unidos se constituyó una asociación de
radiotécnicos. Allí mismo también se construyó, en 1920, la primera
emisora de radio comercial.


En las décadas de 1920 y 1930 se introdujeron mejoras a los tubos
electrónicos originarios (que culminaron con la introducción del pentodo),
aumentando su flexibilidad y su campo de aplicaciones. Entre otras cosas,
se hizo posible la invención de la televisión (1930) y de la radio de
modulación de frecuencia (1933).Los tubos de vacío dieron paso a una
importante aplicación, como fue la realización de los primeros
calculadores electrónicos en los años siguientes de la Segunda Guerra
Mundial. Mientras tanto, físicos como Block, Schottky, Sommerfeld,
Winger y otros realizaban excelentes progresos en el estudio de una
importante     clase      de    sustancias    sólidas:      los    semiconductores.
En 1945 se creó un grupo de trabajo, compuesto por físicos teóricos y
experimentales, un químico y un ingeniero electrónico, en los Bell
Telephone Laboratories, para encontrar una alternativa al empleo de los
tubos electrónicos en las telecomunicaciones. Ciertamente los tubos
presentan inconvenientes, entre los cuales se cuenta una escasa
fiabilidad debida a sus elevadas temperaturas de funcionamiento. En
1947 los físicos John Bardeen, Walter Brattain y William Schockley
obtuvieron un efecto de amplificación en un dispositivo compuesto por dos
sondas   de        oro   prensadas   sobre    un      cristal     de   germanio   (un
semiconductor): nacía así el transistor, que actualmente es el elemento
fundamental de todo dispositivo electrónico (en 1965 estos físicos
recibieron    el    Premio     Nóbel).Más    tarde,    el   primer     ejemplar   fue
perfeccionado por Schockley con la introducción del transistor de unión,
totalmente de material semiconductor, gracias a los progresos efectuados
por los laboratorios Bell en la obtención de materiales de base (germanio
y silicio) con un elevado grado de pureza.


La comercialización del transistor en 1951 sentó las bases para el
desarrollo cualitativo y cuantitativo de la tecnología electrónica en la
segunda    mitad   del   siglo.   El   transistor   proporcionó   las   mismas
funcionalidades del tríodo, siendo más pequeño, eficiente, fiable,
económico y duradero. Esto permitió la existencia de una gama de
aplicaciones antes impensables y la reducción de costos y del tamaño de
los dispositivos electrónicos de uso común (radio, televisión, etc.),
abriéndose así el camino hacia el fenómeno de la electrónica de
consumo.La aparición del transistor también proporcionó un gran impulso
al desarrollo de los ordenadores. En 1959 la IBM presentó el primer
ordenador (el 7090) de estado sólido, es decir, con transistores.


En la actualidad, los componentes con semiconductor como el transistor,
han sustituido casi por completo a los tubos de vacío. Estos últimos
únicamente se emplean en algunas aplicaciones particulares, en las que
hacen parte microondas, o con tensiones de funcionamiento muy altas.


 Los Circuitos Integrados


Una tercera parte de la evolución de la electrónica se abrió a finales de
los años cincuenta con la introducción del circuito integrado por parte de
Kilby, de la Texas Instrument, y de Noyce y Moore, de la Fairchild
Semiconductor Company. La idea fue incluir un circuito completo en una
sola pastilla de semiconductor: el Chip, y hacer de las conexiones entre
los dispositivos parte integrante de su proceso de producción, reduciendo
así las dimensiones, peso y el costo con relación al número de elementos
activos.
El desarrollo de la microelectrónica, como se denomina la electrónica de
los circuitos integrados es impresionante. A partir de su comercialización
(1961), el número máximo de componentes integrados en un chip se
duplicó cada año desde los 100 iniciales. En la segunda mitad de los años
setenta, al introducirse la integración a gran escala (VLSI) y superar los
10.000 componentes, se ingresó en la época actual, en la que es normal
encontrar varios millones de componentes integrados en un chip muy
pequeño, por ejemplo en los microprocesadores de los ordenadores
personales.




Generaciones de las Computadoras.


 Generación Cero (1942 - 1945)


Aparecieron los primeros ordenadores analógicos: comenzaron a
construirse a principios del siglo XX los primeros modelos realizaban los
cálculos mediante ejes y engranajes giratorios. Con estas máquinas se
calculaban las aproximaciones numéricas de ecuaciones demasiado
difíciles como para poder ser resueltas mediante otros métodos.


La generación cero que abarcó la década de la segunda guerra mundial
un equipo de científicos y matemáticos crearon lo que se considera el
primer ordenador digital totalmente eléctrico: EL COLOSSUS, este
incorporaba 1500 válvulas o tubos de vacío y era ya operativo. Fue
utilizado por el equipo dirigido por Alan Turíng para decodificar los
mensajes de radio cifrado de los Alemanes.


 Primera Generación (1951 a 1958)


Las computadoras de la primera Generación emplearon bulbos para
procesar información. Los operadores ingresaban los datos y programas
en código especial por medio de tarjetas perforadas. El almacenamiento
interno se lograba con un tambor que giraba rápidamente, sobre el cual
un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas
computadoras de bulbos eran mucho más grandes y generaban más calor
que los modelos contemporáneos.


Eckert y Mauchly contribuyeron al desarrollo de computadoras de la 1era
Generación formando una compañía privada y construyendo UNIVAC I,
que el Comité del censo utilizó para evaluar el censo de 1950. La IBM
tenía el monopolio de los equipos de procesamiento de datos a base de
tarjetas perforadas y estaba teniendo un gran auge en productos como
rebanadores de carne, básculas para comestibles, relojes y otros
artículos; sin embargo no había logrado el contrato para el Censo de
1950.


Comenzó entonces a construir computadoras electrónicas y su primera
entrada fue con la IBM 701 en 1953. Después de un lento pero buen
comienzo la IBM 701 se convirtió en un producto comercialmente viable.
Sin embargo en 1954 fue introducido el modelo IBM 650, el cual es la
razón por la que IBM disfruta hoy de una gran parte del mercado de las
computadoras. La administración de la IBM asumió un gran riesgo y
estimó una venta de 50 computadoras. Este número era mayor que la
cantidad de computadoras instaladas en esa época en Estados Unidos de
Norte América de hecho la IBM instaló 1000 computadoras. El resto es
historia. Aunque caras y de uso limitado las computadoras fueron
aceptadas rápidamente por las Compañías privadas y de Gobierno. A la
mitad de los años 50 IBM y Remington Rand se consolidaban como
líderes en la fabricación de computadoras.
 Segunda Generación (1959-1964)


El invento del transistor hizo posible una nueva Generación de
computadoras, más rápidas, más pequeñas y con menores necesidades
de ventilación. Sin embargo el costo seguía siendo una porción
significativa del presupuesto de una Compañía. Las computadoras de la
segunda generación también utilizaban redes de núcleos magnéticos en
lugar de tambores giratorios para el almacenamiento primario. Estos
núcleos contenían pequeños anillos de material magnético, enlazados
entre sí, en los cuales podían almacenarse datos e instrucciones.


Los programas de computadoras también mejoraron. El COBOL
(Common Busines Oriented Languaje) desarrollado durante la 1era
generación estaba ya disponible comercialmente, este representa uno de
los mas grandes avances en cuanto a portabilidad de programas entre
diferentes computadoras; es decir, es uno de los primeros programas que
se pueden ejecutar en diversos equipos de computo después de un
sencillo procesamiento de compilación. Los programas escritos para una
computadora podían transferirse a otra con un mínimo esfuerzo. Grace
Murria Hooper (1906-1992), quien en 1952 había inventado el primer
compilador fue una de las principales figuras de CODASYL (Comité on
Data SYstems Languages), que se encargo de desarrollar el proyecto
COBOL El escribir un programa ya no requería entender plenamente el
hardware de la computación. Las computadoras de la 2da Generación
eran sustancialmente más pequeñas y rápidas que las de bulbos, y se
usaban para nuevas aplicaciones, como en los sistemas para reservación
en líneas aéreas, control de tráfico aéreo y simulaciones para uso
general, las empresas comenzaron a aplicar las computadoras a tareas
de almacenamiento de registros, como manejo de inventarios, nómina y
contabilidad.
La marina de Estados Unidos de Norte América utilizó las computadoras
de la Segunda Generación para crear el primer simulador de vuelo.
(Whirlwind I). HoneyWell se colocó como el primer competidor durante la
segunda generación de computadoras. Burroughs, Univac, NCR, CDC,
HoneyWell, los más grandes competidores de IBM durante los años
sesenta (60) se conocieron como el grupo BUNCH.


Algunas de las computadoras que se construyeron ya con transistores
fueron la IBM 1401, las Honeywell 800 y su serie 5000, UNIVAC M460, las
IBM 7090 y 7094, NCR 315, las RCA 501 y 601, Control Data Corporatión
con su conocido modelo CDC16O4, y muchas otras, que constituían un
mercado de gran competencia, en rápido crecimiento. En esta generación
se construyen las supercomputadoras Remington Rand UNIVAC LARC, e
IBM Stretch (1961).


 Tercera Generación (1964-1971)


Circuitos    Integrados,     Compatibilidad     con     Equipo      Mayor,
Multiprogramación, Mini-computadora.


Las computadoras de la tercera generación emergieron con el desarrollo
de los circuitos integrados (pastillas de silicio) en las cuales se colocan
miles de componentes electrónicos, en una integración en miniatura, las
computadoras nuevamente se hicieron más pequeñas, más rápidas,
desprendían menos calor y eran energéticamente más eficientes.


El descubrimiento en 1958 del primer Circuito Integrado (Chip) por el
ingeniero Jack S. Kilby (nacido en 1928) de Texas Instruments, así como
los trabajos que realizaba, por su parte, el Dr. Robert Noyce de Fairchild
Semicon ductors, acerca de los circuitos integrados, dieron origen a la
tercera generación de computadoras.
Antes del advenimiento de los circuitos integrados, las computadoras
estaban diseñadas para aplicaciones matemáticas o de negocios, pero no
para las dos cosas. Los circuitos integrados permitieron a los fabricantes
de computadoras incrementar la flexibilidad de los programas, y
estandarizar sus modelos.


La IBM 360 una de las primeras computadoras comerciales que usó
circuitos integrados, podía realizar tanto análisis numéricos como
administración ó procesamiento de archivos. IBM marca el inicio de esta
generación, cuando el 7 de abril de 1964 presenta la impresionante IBM
360, con su tecnología SLT (Solid Logic Technology). Esta máquina causó
tal impacto en el mundo de la computación que se fabricaron más de
30000, al grado que IBM llegó a conocerse como sinónimo de
computación.


También       en   ese   año,   Control     Data   Corporation    presenta    la
supercomputadora CDC 6600, que se consideró como la más poderosa
de las computadoras de la época, ya que tenía la capacidad de ejecutar
unos 3.000.000 de instrucciones por segundo (mips).


Se empiezan a utilizar los medios magnéticos de almacenamiento, como
cintas magnéticas de 9 canales, enormes discos rígidos, etc. Algunos
sistemas todavía usan las tarjetas perforadas para la entrada de datos,
pero las lectoras de tarjetas ya alcanzan velocidades respetables.


Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor
tamaño    y    podían    todavía   correr   sus    programas     actuales.   Las
computadoras trabajaban a tal velocidad que proporcionaban la
capacidad de correr más de un programa de manera simultánea
(multiprogramación).
Por ejemplo la computadora podía estar calculando la nomina y
aceptando pedidos al mismo tiempo. Minicomputadoras, Con la
introducción del modelo 360 IBM acaparó el 70% del mercado, para evitar
competir directamente con IBM la empresa Digital Equipment Corporation
(DEC) redirigió sus esfuerzos hacia computadoras pequeñas. Mucho
menos costosas de comprar y de operar que las computadoras grandes,
las minicomputadoras se desarrollaron durante la segunda generación
pero alcanzaron sumador auge entre 1960 y 70.


 Cuarta Generación (1971 a 1981)


Microprocesador, Chips de Memória, Microminiaturización. Dos mejoras
en la tecnología de las computadoras marcan el inicio de la cuarta
generación: el reemplazo de las memorias con núcleos magnéticos, por
las de chips de silicio y la colocación de Muchos más componentes en un
Chip: producto de la microminiaturización de los circuitos electrónicos. El
tamaño reducido del microprocesador y de chips hizo posible la creación
de las computadoras personales (PC).


En 1971, intel Corporation, que era una pequeña compañía fabricante de
semi-conductores    ubicada    en   Silicon     Valley,   presenta     el   primer
microprocesador     o   Chip   de   4   bits,    que      en   un    espacio   de
aproximadamente 4 x 5 mm contenía 2 250 transistores. Este primer
microprocesador fue bautizado como el 4004.


Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía
de San Francisco, que por su gran producción de silicio, a partir de 1960
se convierte en una zona totalmente industrializada donde se asienta una
gran   cantidad    de   empresas    fabricantes      de    semiconductores      y
microprocesadores. Actualmente es conocida en todo el mundo como la
región más importante para las industrias relativas a la computación:
creación de programas y fabricación de componentes.
Actualmente ha surgido una enorme cantidad de fabricantes de
microcomputadoras o computadoras personales, que utilizando diferentes
estructuras o arquitecturas se pelean literalmente por el mercado de la
computación, el cual ha llegado a crecer tanto que es uno de los más
grandes a nivel mundial; sobre todo, a partir de 1990, cuando se logran
sorprendentes avances en Internet.


Esta generación de computadoras se caracterizó por grandes avances
tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las
primeras microcomputadoras, entre las cuales, las más famosas fueron
las fabricadas por Apple Computer, Radio Shack y Commodore Busíness
Machines. IBM se integra al mercado de las microcomputadoras con su
Personal Computer, de donde les ha quedado como sinónimo el nombre
de PC, y lo más importante; se incluye un sistema operativo
estandarizado, el MS- DOS (MicroSoft Disk Operating System).


    Las Principales Tecnologías que Dominan este Mercado son:
      IBM y sus compatibles llamadas clones, fabricadas por infinidad de
      compañías con base en los procesadores 8088, 8086, 80286,
      80386, 80486, 80586 o Pentium, Pentium II, Pentium III y Celeron
      de Intel y en segundo término Apple Computer, con sus Macintosh
      y las Power Macintosh, que tienen gran capacidad de generación
      de gráficos y sonidos gracias a sus poderosos procesadores
      Motorola serie 68000 y PowerPC, respectivamente. Este último
      microprocesador ha sido fabricado utilizando la tecnología RISC
      (Reduced Instruc tion Set Computing), por Apple Computer Inc.,
      Motorola Inc. e IBM Corporation, conjuntamente.


Los sistemas operativos han alcanzado un notable desarrollo, sobre todo
por la posibilidad de generar gráficos a gran des velocidades, lo cual
permite utilizar las interfaces gráficas de usuario (Graphic User Interface,
GUI), que son pantallas con ventanas, iconos (figuras) y menús
desplegables que facilitan las tareas de comunicación entre el usuario y la
computadora, tales como la selección de comandos del sistema operativo
para realizar operaciones de copiado o formato con una simple pulsación
de cualquier botón del ratón (mouse) sobre uno de los iconos o menús.


 Quinta Generación y la Inteligencia Artificial (1982-1989)


Cada vez se hace más difícil la identificación de las generaciones de
computadoras, porque los grandes avances y nuevos descubrimientos ya
no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes
consideran que la cuarta y quinta generación han terminado, y las ubican
entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos
consideran que la sexta generación está en desarrollo desde 1990 hasta
la fecha.


Siguiendo la pista a los acontecimientos tecnológicos en materia de
computación e informática, podemos puntualizar algunas fechas y
características   de   lo   que     podría   ser   la   quinta   generación   de
computadoras. Con base en los grandes acontecimientos tecnológicos en
materia de microelectrónica y computación (software) como CADI CAM,
CAE, CASE, inteligencia artificial, sistemas expertos, redes neuronales,
teoría del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones,
etc., a de la década de los años ochenta se establecieron las bases de lo
que se puede conocer como quinta generación de computadoras.


Hay que mencionar dos grandes avances tecnológicos, que sirvan como
parámetro para el inicio de dicha generación: la creación en 1982 de la
primera supercomputadora con capacidad de proceso paralelo, diseñada
por   Seymouy     Cray,     quien    ya   experimentaba     desde    1968     con
supercomputadoras, y que funda en 1976 la Cray Research Inc.; y el
anuncio por parte del gobierno japonés del proyecto "quinta generación",
que según se estableció en el acuerdo con seis de las más grandes
empresas japonesas de computación, debería terminar en 1992.


El proceso paralelo es aquél que se lleva a cabo en computadoras que
tienen    la   capacidad     de     trabajar   simultáneamente     con   varios
microprocesadores.         Aunque    en    teoría   el   trabajo   con   varios
microprocesadores debería ser mucho más rápido, es necesario llevar a
cabo una programación especial que permita asignar diferentes tareas de
un mismo proceso a los diversos microprocesadores que intervienen.


También se debe adecuar la memoria para que pueda atender los
requerimientos de los procesadores al mismo tiempo. Para solucionar
este problema se tuvieron que diseñar módulos de memoria compartida
capaces de asignar áreas de caché para cada procesador.


Según este proyecto, al que se sumaron los países tecnológicamente más
avanzados para no quedar atrás de Japón, la característica principal sería
la aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las
computadoras de esta generación contienen una gran cantidad de
microprocesadores trabajando en paralelo y pueden reconocer voz e
imágenes. También tienen la capacidad de comunicarse con un lenguaje
natural e irán adquiriendo la habilidad para tomar decisiones con base en
procesos de aprendizaje fundamentados en sistemas expertos e
inteligencia artificial.


El almacenamiento de información se realiza en dispositivos magneto
ópticos con capacidades de decenas de Gigabytes; se establece el DVD
(Digital VideoDisk o Digital Versatile Disk) como estándar para el
almacenamiento de video y sonido; la capacidad de almacenamiento de
datos crece de manera exponencial posibilitando guardar más información
en una de estas unidades, que toda la que había en la Biblioteca de
Alejandría. Los componentes de los microprocesadores actuales utilizan
tecnologías de alta y ultra integración, denominadas VLSI (Very Large
Sca/e Integration) y ULSI (Ultra Lar- ge Scale Integration).


Sin embargo, independientemente de estos "milagros" de la tecnología
moderna, no se distingue la brecha donde finaliza la quinta y comienza la
sexta generación. Personalmente, no hemos visto la realización cabal de
lo expuesto en el proyecto japonés debido al fracaso, quizás
momentáneo, de la inteligencia artificial.


El único pronóstico que se ha venido realizando sin interrupciones en el
transcurso de esta generación, es la conectividad entre computadoras,
que a partir de 1994, con el advenimiento de la red Internet y del World
Wide Web, ha adquirido una importancia vital en las grandes, medianas y
pequeñas empresas y, entre los usuarios particulares de computadoras.


El propósito de la Inteligencia Artificial es equipar a las Computadoras con
"Inteligencia Humana" y con la capacidad de razonar para encontrar
soluciones. Otro factor fundamental del diseño, la capacidad de la
Computadora para reconocer patrones y secuencias de procesamiento
que haya encontrado previamente, (programación Heurística) que permita
a la Computadora recordar resultados previos e incluirlos en el
procesamiento, en esencia, la Computadora aprenderá a partir de sus
propias experiencias usará sus Datos originales para obtener la respuesta
por medio del razonamiento y conservará esos resultados para
posteriores tareas de procesamiento y toma de decisiones.


 Sexta Generación 1990 Hasta la Fecha


Como supuestamente la sexta generación de computadoras está en
marcha desde principios de los años noventas, debemos por lo menos,
esbozar las características que deben tener las computadoras de esta
generación. También se mencionan algunos de los avances tecnológicos
de la última década del siglo XX y lo que se espera lograr en el siglo XXI.


Las computadoras de esta generación cuentan con arquitecturas
combinadas     Paralelo/Vectorial,   con      cientos   de   microprocesadores
vectoriales trabajando al mismo tiempo; se han creado computadoras
capaces de realizar más de un millón de millones de operaciones
aritméticas de punto flotante por segundo (teraflops); las redes de área
mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente
utilizando medios de comunicación a través de fibras ópticas y satélites,
con anchos de banda impresionantes. Las tecnologías de esta generación
ya han sido desarrolla das o están en ese proceso. Algunas de ellas son:
inteligencia / artificial distribuida; teoría del caos, sistemas difusos,
holografía, transistores ópticos, etcétera.




ESTRUCTURA INTERNA DE UN COMPUTADOR


Componentes Básicos de un Computador


Un Computador es un sistema compuesto de cinco elementos
diferenciados: una CPU (unidad central de Procesamiento), dispositivo de
entrada, dispositivos de almacenamiento, dispositivos de salida y una red
de comunicaciones, denominada bus, que enlaza todos los elementos del
sistema y conecta a éste con el mundo exterior.


 UCP o CPU (Central Processing Unit)


Es la unidad central de procesamiento o procesador que interpreta y lleva
a cabo las instrucciones de los programas, efectúa manipulaciones
aritméticas y lógicas con los datos y se comunica con las demás partes
del sistema. Una UCP es una colección compleja de circuitos electrónicos.
Cuando se incorporan todos estos circuitos en un chip de silicio, a este
chip se le denomina microprocesador. La UCP y otros chips y
componentes electrónicos se ubican en un tablero de circuitos o tarjeta
madre.


 Los Factores Relevantes de los Chips de UCP son:


    Compatibilidad: No todo el software es compatible con todas las
      UCP. En algunos casos se pueden resolver los problemas de
      compatibilidad usando software especial.


    Velocidad: La velocidad de una computadora está determinada
      por la velocidad de su reloj interno, el dispositivo cronométrico que
      produce pulsos eléctricos para sincronizar las operaciones de la
      computadora. Las computadoras se describen en función de su
      velocidad de reloj, que se mide en mega hertz. La velocidad
      también está determinada por la arquitectura del procesador, es
      decir el diseño que establece de qué manera están colocados en el
      chip los componentes individuales de la CPU. Desde la perspectiva
      del usuario, el punto crucial es que "más rápido" casi siempre
      significa "mejor".


    El Procesador: El chip más importante de cualquier placa madre
      es el procesador. Sin el la computadora no podría funcionar. A
      menudo este componente se determina CPU, que describe a la
      perfección su papel dentro del sistema. El procesador es realmente
      el elemento central del proceso de procesamiento de datos. Los
      procesadores se describen en términos de su tamaño de palabra,
      su velocidad y la capacidad de su RAM asociada.


    Tamaño de la Palabra: Es el número de bits que se maneja como
      una unidad en un sistema de computación en particular.
 Velocidad del Procesador: Se mide en diferentes unidades según
     el tipo de computador:


   MHz (Megahertz): Para microcomputadoras. Un oscilador de
     cristal controla la ejecución de instrucciones dentro del procesador.
     La velocidad del procesador de un micro se mide por su frecuencia
     de oscilación o por el número de ciclos de reloj por segundo. El
     tiempo transcurrido para un ciclo de reloj es 1/frecuencia.


   MIPS (Millones de instrucciones por segundo): Para estaciones
     de trabajo, minis y macro-computadoras. Por ejemplo una
     computadora de 100 MIPS puede ejecutar 100 millones de
     instrucciones                por              segundo.
     FLOPS (floating point operations per second, operaciones de punto
     flotante   por   segundo):    Para   las   supercomputadoras.    Las
     operaciones de punto flotante incluyen cifras muy pequeñas o muy
     altas. Hay súper computadoras para las cuales se puede hablar de
     GFLOPS (Gigaflops, es decir 1.000 millones de FLOPS).


   Capacidad de la RAM: Se mide en términos del número de bytes
     que puede almacenar. Habitualmente se mide en KB y MB, aunque
     ya hay computadoras en las que se debe hablar de GB.


 Dispositivos De Entrada


   El Teclado: Es un dispositivo periférico de entrada, que convierte
     la acción mecánica de pulsar una serie de pulsos eléctricos
     codificados que permiten identificarla. Las teclas que lo constituyen
     sirven para entrar caracteres alfanuméricos y comandos a una
     computadora. En un teclado se puede distinguir a cuatro
     subconjuntos de teclas:
o Teclado Alfanumérico: Con las teclas dispuestas como en una
      maquina de escribir.
   o Teclado Numérico: (ubicado a la derecha del anterior) con
      teclas dispuestas como en una calculadora.
   o Teclado de Funciones: (desde F1 hasta F12) son teclas cuya
      función depende del programa en ejecución.
   o Teclado de Cursor: para ir con el cursor de un lugar a otro en
      un texto. El cursor se mueve según el sentido de las flechas de
      las teclas, ir al comienzo de un párrafo (" HOME "), avanzar /
      retroceder una pagina ("PAGE UP/PAGE DOWN "), eliminar
      caracteres ("delete"), etc. Cada tecla tiene su contacto, que se
      encuentra debajo de ella, al oprimirla se" Cierra" y al soltarla se
      "Abre", de esta manera constituye una llave "si – no". Debajo
      del teclado existe una matriz con pistas conductoras que puede
      pensarse en forma rectangular, siendo en realidad de formato
      irregular. Si no hay teclas oprimidas, no se toca ningún
      conductor horizontal con otro vertical. Las teclas están sobre los
      puntos de intersección de las líneas conductoras horizontales y
      verticales. Cuando se pulsa una tecla. Se establece un contacto
      eléctrico entre la línea conductora vertical y horizontal que
      pasan por debajo de la misma.


 El Mouse O Ratón: El ratón o Mouse informático es un dispositivo
   señalador o de entrada, recibe esta denominación por su
   apariencia.
   Para poder indicar la trayectoria que recorrió, a medida que se
   desplaza, el Mouse debe enviar al computador señales eléctricas
   binarias que permitan reconstruir su trayectoria, con el fin que la
   misma sea repetida por una flecha en el monitor. Para ello el
   Mouse debe realizar dos funciones:
o Conversión Analógica-Digital: Esta genera por cada fracción
          de milímetro que se mueve, uno o más pulsos eléctricos.
       o Port Serie: Dichos pulsos se envían hacia la interfaz a la cual
          esta conectado el valor de la cuenta, junto con la información
          acerca de sí se pulsa alguna de sus dos o tres teclas ubicada
          en su parte superior.


    Existen dos Tecnologías Principales en Fabricación de
       Ratones:


       o Ratones Mecánicos: Estos constan de una bola situada en su
          parte inferior. La bola, al moverse el ratón, roza unos contactos
          en forma de rueda que indican el movimiento del cursor en la
          pantalla del sistema informático.
       o Ratones Ópticos: Estos tienen un pequeño haz de luz láser en
          lugar de la bola rodante de los mecánicos. Un censor óptico
          situado dentro del cuerpo del ratón detecta el movimiento del
          reflejo al mover el ratón sobre el espejo e indica la posición del
          cursor en la pantalla de la computadora.


    El Escáner O Digitalizador De Imágenes: Son periféricos
       diseñados para registrar caracteres escritos, o gráficos en forma de
       fotografías o dibujos, impresos en una hoja de papel facilitando su
       introducción a la computadora convirtiéndolos en información
       binaria comprensible para ésta.


El funcionamiento de un escáner es similar al de una fotocopiadora. Se
coloca una hoja de papel que contiene una imagen sobre una superficie
de cristal transparente, bajo el cristal existe una lente especial que realiza
un barrido de la imagen existente en el papel; al realizar el barrido, la
información existente en la hoja de papel es convertida en una sucesión
de información en forma de unos y ceros que se introducen en la
computadora. En fin, que dejándonos de tanto formalismo sintáctico, en
el caso que nos ocupa se trata de coger una imagen (fotografía, dibujo o
texto) y convertirla a un formato que podamos almacenar y modificar con
el ordenador. Realmente un escáner no es ni más ni menos que los ojos
del ordenador.


Los escáneres captaban las imágenes únicamente en blanco y negro o,
como mucho, con un número muy limitado de matices de gris, entre 16 y
256. Posteriormente aparecierón escáner que podían captar color,
aunque el proceso requería tres pasadas por encima de la imagen, una
para cada color primario (rojo, azul y verde). Hoy en día la práctica
totalidad de los escáner captan hasta 16,7 millones de colores distintos en
una única pasada, e incluso algunos llegan hasta los 68.719 millones de
colores.


En todos los ordenadores se utiliza lo que se denomina sistema binario,
que es un sistema matemático en el cual la unidad superior no es el 10
como en el sistema decimal al que estamos acostumbrados, sino el 2. Un
BIT cualquiera puede, por tanto, tomar 2 valores, que pueden representar
colores (blanco y negro, por ejemplo); si en vez de un BIT tenemos 8, los
posibles valores son 2 elevado a 8 = 256 colores; si son 16 bits, 2 elevado
a 16 = 65.536 colores; si son 24 bits, 2 elevado a 24 = 16.777216 colores,
una imagen a 24 bits de color" es una imagen en la cual cada punto
puede tener hasta 16,7 millones de colores distintos; esta cantidad de
colores se considera suficiente para casi todos los usos normales de una
imagen, por lo que se le suele denominar color real.


 Dispositivos de Almacenamiento.


    Disco Duro: Este esta compuestos por varios platos, es decir,
      varios discos de material magnético montados sobre un eje central
      sobre el que se mueven. Para leer y escribir datos en estos platos
se usan las cabezas de lectura / escritura que mediante un proceso
   electromagnético codifican / decodifican la información que han de
   leer o escribir. La cabeza de lectura / escritura en un disco duro
   está muy cerca de la superficie, de forma que casi da vuelta sobre
   ella, sobre el colchón de aire formado por su propio movimiento.
   Debido a esto, están cerrados herméticamente, porque cualquier
   partícula       de       polvo        puede         dañarlos.
   Este dividen en unos círculos concéntricos cilíndricos (coincidentes
   con las pistas de los disquetes), que empiezan en la parte exterior
   del disco (primer cilindro) y terminan en la parte interior (ultimo).
   Asimismo, estos cilindros se dividen en sectores, cuyo numero esta
   determinado por el tipo de disco y su formato, siendo todos ellos de
   un tamaño fijo en cualquier disco. Cilindros como sectores se
   identifican con una serie de números que se les asigna,
   empezando por el 1, pues el numero 0 de cada cilindro se reservan
   para propósitos de identificación mas que para almacenamientos
   de datos. Estos escritos / leídos en el disco deben ajustarse al
   tamaño fijado del almacenamiento de los sectores. Habitualmente,
   los sistemas de discos duros contienen mas de una unidad en su
   interior, por lo que el numero de caras puede ser mas de dos.
   Estas se identifican con un número, siendo el 0 para la primera. En
   general su organización es igual a los disquetes. La capacidad del
   disco resulta de multiplicar el número de caras por el de pistas por
   cara y por el de sectores por pista, al total por el número de bytes
   por sector.


 Diskettes 3 ½: Son disco de almacenamiento de alta densidad de
   1,44 MB, este presenta dos agujeros en la parte inferior del mismo,
   uno para proteger al disco contra escritura y el otro solo para
   diferenciarlo del disco de doble densidad.
 Maletón-Ópticos De 5,25: Este se basa en la misma tecnología
      que sus hermanos pequeños de 3,5", su ventajas: Gran fiabilidad y
      durabilidad   de   los   datos     a     la     vez   que     una   velocidad
      razonablemente elevada Los discos van desde los 650 MB hasta
      los 5,2 GB de almacenamiento, o lo que es lo mismo: desde la
      capacidad de un solo CD-ROM hasta la de 8.


 Dispositivos de Salida.


    Las Impresoras: Esta es la que permite obtener en un soporte de
      papel   una     ¨hardcopy¨:      copia        visualizable,   perdurable   y
      transportable de la información procesada por un computador. Las
      primeras impresoras nacieron muchos años antes que el PC e
      incluso antes que los monitores, siendo durante años el método
      más usual para presentar los resultados de los cálculos en aquellos
      primitivos ordenadores, todo un avance respecto a las tarjetas y
      cintas perforadas que se usaban hasta entonces.


    La velocidad de una impresora se suele medir por parámetros:


      o Ppm: Páginas por minuto que es capaz de imprimir.
      o Cps: Caracteres (letras) por segundo que es capaz de imprimir.
      o Ppp: puntos por pulgada (cuadrada) que imprime una
         impresora.


    Tipo De Impresoras


      o Impacto Por Matriz De Aguja O Punto: Fueron las primeras
         que surgieron en el mercado. Se las denomina "de impacto"
         porque imprimen mediante el impacto de unas pequeñas piezas
         (la matriz de impresión) sobre una cinta impregnada en tinta y
         matriz de aguja por que su cabezal móvil de impresión contiene
una matriz de agujas móviles en conductos del mismo,
  dispuestas en una columna (de 9 agujas por ejemplo) o más
  columnas. Para escribir cualquier cosa en color se tiene que
  sustituir la cinta de tinta negra por otro con tintas de los colores
  básicos (generalmente magenta, cyan y amarillo). Este método
  tiene el inconveniente de que el texto negro se fabricaba
  mezclando los tres colores básicos, lo que era más lento, más
  caro en tinta y deja un negro con un cierto matiz verdoso.
o Chorro O Inyección De Tinta: Se le denomina "inyección"
  porque la tinta suele ser impulsada hacia el papel por unos
  mecanismos que se denominan inyectores, mediante la
  aplicación de una carga eléctrica que hace saltar una minúscula
  gota de tinta por cada inyector. Esta destaca por la utilización
  del color, incorporan soporte para el uso simultáneo de los
  cartuchos de negro y de color. La resolución de estas
  impresoras es en teoría bastante elevada, hasta de 1.440 Ppp,
  pero en realidad la colocación de los puntos de tinta sobre el
  papel resulta bastante deficiente, por lo que no es raro
  encontrar que el resultado de una impresora láser de 300 Ppp
  sea mucho mejor que el de una de tinta del doble de resolución.
  Por otra parte, suelen existir papeles especiales, mucho más
  caros que los clásicos folios de papelería, para alcanzar
  resultados óptimos a la máxima resolución o una gama de
  colores más viva y realista. Este tipo de impresoras es utilizado
  generalmente por el usuario doméstico, además del oficinista
  que   no     necesita   trabajar   con   papel   continuo   ni   con
  reproducciones múltiples pero sí ocasionalmente con color
  (logotipos, gráficos, pequeñas imágenes, etc.) con una calidad
  aceptable.
o Láser: Son las de mayor calidad del mercado, si entendemos
  por calidad la resolución sobre papel normal que se puede
  obtener, unos 600 Ppp reales. En ellas la impresión se consigue
mediante      un    láser     que   va   dibujando    la   imagen
        electrostáticamente en un elemento llamado tambor que va
        girando hasta impregnarse de un polvo muy fino llamado tonel
        (como el de fotocopiadoras) que se le adhiere debido a la carga
        eléctrica. Por último, el tambor sigue girando y se encuentra con
        la hoja, en la cual imprime el tonel que formará la imagen
        definitiva. Las láser son muy resistentes, mucho más rápidas y
        mucho más silenciosas que las impresoras matriciales o de
        tinta, y aunque la inversión inicial en una láser es mayor que en
        una de las otras, el tonel sale más barato a la larga que los
        cartuchos de tinta, por lo que a la larga se recupera la inversión.
        Por todo ello, las láser son idóneas para entornos de oficina con
        una intensa actividad de impresión, donde son más importantes
        la velocidad, la calidad y el escaso coste de mantenimiento que
        el color o la inversión inicial.


   El Monitor: Es la pantalla en la que se ve la información
     suministrada por el ordenador. En el caso más habitual se trata de
     un aparato basado en un tubo de rayos catódicos (CRT) como el
     de los televisores, mientras que en los portátiles es una pantalla
     plana de cristal líquido (LCD). La resolución se define como el
     número de puntos que puede representar el monitor por pantalla,
     en horizontal x vertical. Así, un monitor cuya resolución máxima
     sea de 1024x768 puntos puede representar hasta 768 líneas
     horizontales de 1024 puntos cada una, probablemente además de
     otras resoluciones inferiores, como 640x480 u 800x600. Cuan
     mayor sea la resolución de un monitor, mejor será la calidad de la
     imagen en pantalla, y mayor será la calidad (y por consiguiente el
     precio) del monitor.


 Red De Comunicaciones
Un sistema computacional es un sistema complejo que puede llegar a
estar constituido por millones de componentes electrónicos elementales.
Esta naturaleza multinivel de los sistemas complejos es esencial para
comprender tanto su descripción como su diseño. En cada nivel se
analiza su estructura y su función en el sentido siguiente:


    Estructura: La forma en que se interrelacionan las componentes.
      Por su particular importancia se considera la estructura de
      interconexión tipo bus. EI bus representa básicamente una serie de
      cables mediante los cuales pueden cargarse datos en la memoria y
      desde allí transportarse a la CPU. Por así decirlo es la autopista de
      los datos dentro del PC ya que comunica todos los componentes
      del ordenador con el microprocesador. El bus se controla y maneja
      desde la CPU.


    Función: La operación de cada componente individual como parte
      de la estructura




El Microprocesador


Es un circuito electrónico que actúa como Unidad Central de Proceso de
un ordenador, proporcionando el control de las operaciones de cálculo. Se
identifica rápido en una tarjeta madre porque esta acoplado a la misma en
un socket, tiene forma cuadrada con un pequeño ventilador arriba y
generan mucho calor. El microprocesador es el elemento más importante
del computador, es el cerebro de la máquina, se encarga de controlar todo
el sistema. Un parámetro importante es la velocidad del procesador que
se mide en mega-herzios (Mhz), es decir cantidad de “ordenes” por
segundo que pueden ser ejecutadas por el procesador.
Parte Interna


 Unidad Aritmética Lógica (UAL)


Conocida como ALU (siglas en inglés de arithmetic logic unit), Es un
circuito digital que calcula operaciones aritméticas (como suma, resta,
multiplicación, etc.) y operaciones lógicas (si, y, o, no) o (and, or, not),
entre dos números.


En el computar, unidad de la lógica aritmética (ALU) es un circuito digital
que realiza operaciones aritmética y lógica. El ALU es un bloque de
edificio fundamental de la unidad central de proceso (CPU) de una
computadora. Muchos tipos de circuitos electrónicos necesitan realizar
algún tipo de operación aritmética, así que incluso el circuito dentro de un
reloj digital tendrá una ALU minúscula que se mantiene sumando 1 al
tiempo actual, y se mantiene comprobando si debe activar el pitido del
temporizador, etc.


Por mucho, los más complejos circuitos electrónicos son los que están
construidos dentro de los chips de microprocesadores modernos como el
Intel Core i7 o el Phenom II. Por lo tanto, estos procesadores tienen
dentro de ellos un ALU muy complejo y potente. De hecho, un
microprocesador moderno (y los mainframes) pueden tener múltiples
núcleos, cada núcleo con múltiples unidades de ejecución, cada una de
ellas con múltiples ALU.


    Sistemas Numéricos: Una ALU debe procesar números usando el
      mismo formato que el resto del circuito digital. Para los
      procesadores modernos, este formato casi siempre es la
      representación del número binario de complemento a dos. Las
primeras computadoras usaron una amplia variedad de sistemas
      de numeración, incluyendo complemento a uno, formato signo-
      magnitud, e incluso verdaderos sistemas decimales, con diez tubos
      por dígito. Las ALU para cada uno de estos sistemas numéricos
      mostraban diferentes diseños, y esto influenció la preferencia
      actual por el complemento a dos, debido a que ésta es la
      representación más simple, para el circuito electrónico de la ALU,
      para calcular adiciones y sustracciones, etc.


 Decodificador de Instrucciones


Allí se interpretan las instrucciones que van llegando y que componen el
programa. Aquí entra en juego los compiladores e intérpretes. En si
interpreta y pone en práctica la instrucción. El registro de instrucción (IR)
mantiene la instrucción actual. La PC sostiene la dirección en la memoria
de la siguiente instrucción a ser ejecutada.


    Ejecutar la Instrucción: Del registro de instrucción, los datos que
      forman la instrucción son descifrados por la unidad de control. Esto
      entonces pasa la información descifrada como una secuencia de
      señales de control a las unidades de función relevantes de la CPU
      para realizar las acciones requeridas por la instrucción como la
      lectura de valores de registros, pasándolos a la unidad Aritmética
      lógica (ALU) para añadirlos juntos y escribiendo el resultado de
      vuelta al registro. Una señal de condición es enviada de regreso a
      la unidad de control por ALU si está implicado.


 Bloque de Registros


Los registros son celdas de memoria en donde queda almacenado un
dato temporalmente. Existe un registro especial llamado indicadores,
estado o flags, que refleja el estado operativo del Microprocesador. El
almacenamiento temporal proporciona el área de almacenamiento
requerido para los dispositivos relativamente lentos respecto a la UCP,
que es mucho más rápida. También proporciona el área que hace posible
al bloqueo de registros.


 Bus de Datos


Es el encargado de transmitir los caracteres y es aquel por donde la CPU
recibe datos del exterior o por donde la CPU manda datos al exterior. Es
un sistema digital que transfiere datos entre los componentes de una
computadora o entre computadoras. Está formado por cables o pistas en
un circuito impreso, dispositivos como resistencias y condensadores
además de circuitos integrados.


Es el conjunto de líneas por donde se transmiten los datos. A los
microprocesadores se les suele dividir en función del número de bits que
forman el dato. Inicialmente eran de 4 bits; después se fueron fabricando
circuitos con mayor capacidad como los de 8, 16, 32 y 64 bits. Esta
evolución ha sido forzada por la informática, que cada vez necesita unas
prestaciones mayores. Industrialmente se siguen utilizando los de 8 y 16
bits.
 Bus de Direcciones


Aquel, que es el utilizado por la CPU para mandar el valor de la dirección
de memoria o de un periférico externo al que la CPU quiere acceder. Por
el se selecciona la posición de memoria o el dispositivo al que se va a
escribir o leer los datos. La dimensión o número de líneas que lo
componen, depende del microprocesador que utilicemos. El bus de
direcciones es un canal del microprocesador totalmente independiente del
bus de datos donde se establece la dirección de memoria del dato en
tránsito.
El bus de dirección consiste en el conjunto de líneas eléctricas necesarias
para establecer una dirección. La capacidad de la memoria que se puede
direccionar depende de la cantidad de bits que conforman el bus de
direcciones, siendo 2n (dos elevado a la ene) el tamaño máximo en bytes
del banco de memoria que se podrá direccionar con n líneas. Por ejemplo,
para direccionar una memoria de 256 bytes, son necesarias al menos 8
líneas, pues 28 = 256. Adicionalmente pueden ser necesarias líneas de
control para señalar cuando la dirección está disponible en el bus. Esto
depende del diseño del propio bus.


 Bus de Control


Es aquel que usa una serie de líneas por las que salen o entran diversas
señales de control utilizadas para mandar acciones a otras partes del
ordenador. Es el encargado de conducir las señales IRQ de solicitud de
interrupción que hacen los dispositivos al microprocesador.


El bus de control además de datos y direcciones, hay otras líneas que
sirve para controlar el sistema. Una de esas líneas es la de reset
(inicialización del microprocesador).


 Terminales de Alimentación


Es por donde se reciben los voltajes desde la fuente de alimentación del
ordenador. Los terminales de alimentación son los que se colocan en los
extremos del cable que trae la alimentación de la batería hasta el equipo;
por regla general son más gruesos que los de audio, ya que deberán
soportar una carga más elevada. Estos terminales por lo general tienen
un aro metálico en el extremo, el cual queda en el centro del tornillo para
hacer una fijación perfecta. También podemos encontrar del mismo estilo
que los de audio pero preparados para corriente eléctrica.
 Reloj del Sistema


Es un circuito oscilador o cristal de cuarzo, que oscila varios millones de
veces por segundo. Es el que le marca el compás, el que le dicta a qué
velocidad va a ejecutarse cualquier operación. Uno de los factores a tener
en cuenta al comprar un ordenador es su velocidad, que se mide en
MHz. De hecho, esa velocidad es la del reloj del sistema, el "corazón".


    El Reloj de una Computadora se Utiliza para dos Funciones
      Principales:


      o Para sincronizar las diversas operaciones que realizan los
          diferentes sub-componentes del sistema informático.
      o Para saber la hora.


El reloj físicamente es un circuito integrado que emite una cantidad de
pulsos por segundo, de manera constante. Al número de pulsos que emite
el reloj cada segundo se llama Frecuencia del Reloj; dicha frecuencia se
mide en Ciclos por Segundo, también llamados Hertzios, siendo cada
ciclo un pulso del reloj. Como la frecuencia del reloj es de varios millones
de pulsos por segundo se expresa habitualmente en Megaherzios.
El reloj marca la velocidad de proceso de la computadora generando una
señal periódica que es utilizada por todos los componentes del sistema
informático para sincronizar y coordinar las actividades operativas,
evitando el que un componente maneje unos datos incorrectamente o que
la velocidad de transmisión de datos entre dos componentes sea distinta.


Cuanto mayor sea la frecuencia del reloj mayor será la velocidad de
proceso de la computadora y podrá realizar mayor cantidad de
instrucciones elementales en un segundo. El rango de frecuencia de los
microprocesadores oscila entre los 4,77 megaherzios del primer PC
diseñado por IBM y los 200 megaherzios de las actuales computadoras
basadas en los chips Intel Pentium




Parte Externa


 Disipador de Calor


Es una estructura metálica (por lo general de aluminio) que va montado
encima del Microprocesador para ayudarlo a liberar el calor. Es un
disipador sencillo que aumentan el área de radiación, permitiendo que la
energía salga rápidamente del sistema. También los hay con refrigeración
líquida, por medio de circuitos cerrados. En los procesadores más
modernos se aplica en la parte superior del procesador, una lámina
metálica denominada IHS que va a ser la superficie de contacto del
disipador para mejorar la refrigeración uniforme del die y proteger las
resistencias internas de posible toma de contacto al aplicar pasta térmica.
Varios modelos de procesadores, en especial, los Athlon XP, han sufrido
cortocircuitos debido a una incorrecta aplicación de la pasta térmica.




 FanCooler


También conocidos como Electro-ventiladores; estos son unos pequeños
ventiladores de color negro que van montados en el disipador de calor y a
su vez en el Microprocesador, que permite enfriar el disipador de calor del
Microprocesador y a este ultimo también. Por lo general giran entre 3500
y 4500 r.p.m. y trabajan a 12 Volts.




Tipos de Microprocesadores
 Según la Posición para Instalarlo


    Horizontales: Tienen forma cuadrada con una ligera muesca en
      una de sus esquinas que indica el primer Pin. Por lo general van
      acompañados de un disipador de calor y un fancooler y se instalan
      de forma horizontal, de allí su nombre. Están presentes en equipos
      de la familia X86 que no vallan montados en el Slot1, sino
      directamente en el Socket de la tarjeta madre. Socket 3-5 para
      equipos 80-486,586,686, AMD y Cyrix; Socket 7 para equipos
      Pentium I, algunos AMD y Cyrix ; Socket 370 [2] FTPGA o PPGA
      para equipos Pentium III Intel Coopermine o algunos Celeron. Las
      velocidades varían desde 33 Mhz para 80-286, 200 Mhz para
      Pentium I, 1.1 Ghz para Celeron y Pentium III y 1.2 a 2 Ghz para
      algunos Pentium IV. La característica de Velocidad, Memoria
      Caché y Voltaje del Microprocesador casi siempre son indicadas
      por el fabricante en la parte frontal del Microprocesador.


    Verticales: Se caracterizan porque están montados en una tarjeta
      electrónica con disipador de calor y fanCooler incorporado y se
      instalan verticalmente en un Slot parecido a una ranura de
      expansión. Las velocidades varían desde 233 Mhz para algunos
      Pentium II hasta 800 Mhz para Pentium III. La característica de
      Velocidad, Memoria Caché y Voltaje del Microprocesador casi
      siempre son indicadas por el fabricante en una de las partes
      laterales del Disipador de calor del Microprocesador.


 Según sus Características Físicas


    Microprocesadores de Slot.


    Microprocesadores de Pastilla.
 Microprocesador 4004


Aparece en 1971 gracias a tres ingenieros: Robert Noyce, Gordon Moore
y Andrew Grove. Su Bus de datos era de 4 bits, un bus de direcciones
multiplexado de 12 bits que gestionaba hasta 45 bytes y un set de
instrucciones de 45. Estaba formado por 2300 transistores e integraba
unas 1000 puertas lógicas, implementado todo en 24mm2 con tecnología
PMOS y su formato era DIP (Dual Inline Package) cerámico de 16 pines.
Su velocidad de proceso era de 60000 operaciones por segundo a una
frecuencia de trabajo de 108 KHz.


 Microprocesador 4040


Es otro desarrollo de INTEL. Aparece en 1972 bajo un formato DIP de 24
pines. Usaba tecnología PMOS, 4 bits de bus de datos y 12 bits para
manejar un bus de direcciones multiplexado. El Intel 4040 fue el sucesor
del Intel 4004. Diseñado por Federico Faggin (quien propuso la
arquitectura y condujo el proyecto) y Tom Innes. El 4040 fue usado
primariamente en juegos, pruebas, desarrollo, y equipos del control. El
paquete del 4040 era más de dos veces el ancho del 4004 y tenía 24
pines en lugar de los 16 del 4004. El 4040 agregó 14 instrucciones, un
espacio más grande para el stack (7 niveles en vez de 3), un espacio para
programas de 8KB, 8 registros adicionales, y habilidades de interrupción
(incluyendo sombras (shadows) de los primeros 8 registros).


 Microprocesador 8008


Aparece en abril de 1972 con una velocidad de proceso de 300KHz.
Disponía de un bus de 8 bits y un bus de direccionamiento de memoria
multiplexado capaz de manejar 16KB, formado por 14 bits. Su Formato
era DIP cerámico de 18 pines con tecnología PMOS, integrando 3300
transistores. Su set de instrucciones era de 66. Los Homónimos del 8008
de Intel fueron el 6800 de Motorola, el 6502 de Mos Techonology y el
difundido Z80 de ZILOG.


En 1969 Computer Terminal Corp. (ahora Datapoint) visitó Intel. Vic Poor,
vicepresidente de Investigación y Desarrollo en CTC quería integrar la
CPU (unos cien componentes TTL) de su nueva Terminal Data-point 2200
en unos pocos chips y reducir el costo y el tamaño del circuito electrónico.
Ted Hoff observó la arquitectura, el conjunto de instrucciones y el diseño
lógico que había presentado CTC y estimó que Intel podría integrarlo en
un sólo chip, así que Intel y CTC firmaron un contrato para desarrollar el
chip. El chip, internamente llamado 1201, sería un dispositivo de 8 bits.
Pensado para la aplicación de terminal inteligente, debería ser más
complejo que el 4004.


Al principio parecía que el 1201 saldría antes que el 4004 ya que Federico
Faggin tenía que desarrollar cuatro chips, siendo el 4004 el último de
ellos. Sin embargo, después de algunos meses de trabajo con el 1201, el
diseñador, Hal Feeney, fue puesto a diseñar un chip de memoria, con lo
que el proyecto del 1201 fue puesto en el "freezer". Mientras tanto, CTC
también contrató a la empresa Texas Instruments para hacer el diseño del
mismo chip como fuente alternativa. Al final de 1970 Intel continuó con el
proyecto del 1201 bajo la dirección de Faggin y Feeney fue puesto
nuevamente a trabajar en este proyecto.


En junio de 1971, TI puso un aviso en la revista Electronics donde se
detallaban las capacidades de este integrado MOS LSI. Con la leyenda
"CPU en un chip" se acompañaba la descripción del circuito a medida
para la terminal Datamation 2200. El aviso decía "TI lo desarrolló y lo está
produciendo para Computer Terminal Corp.". Las dimensiones indicadas
eran 5,46 por 5,71 mm, un chip enorme aun para la tecnología de 1971 y
era 225% más grande que el tamaño estimado por Intel. El chip de Texas
Instruments, sin embargo, jamás funcionó y no se puso en el mercado.


TI patentó la arquitectura del 1201, que fue realizado por CTC con
algunos cambios de Intel, con lo que luego hubo batallas legales entre
Intel y TI. Durante el verano (en el hemisferio norte) de 1971, mientras el
trabajo con el 1201 estaba progresando rápidamente, Data-point decidió
que no necesitaba más el 1201. La recesión económica de 1970 había
bajado el costo de los circuitos TTL de tal manera que ya no era rentable
el circuito a medida. Data-point le dejó usar la arquitectura a Intel y a
cambio la última no le cobraba más los costos de desarrollo.


Intel decidió cambiarle el nombre al 1201: se llamaría 8008. El primero de
abril de 1972 se lanzó este microprocesador al mercado con un conjunto
de chips de soporte, como una familia de productos llamado MCS-8.
Estos chips de soporte eran integrados existentes con los nombres
cambiados. El interés del mercado por el MCS-8 fue muy alto, sin
embargo las ventas fueron bajas. Para solucionar este inconveniente, se
diseñaron herramientas de hardware y software, entrenamiento y
sistemas de desarrollo. Estos últimos son computadoras especializadas
para desarrollar y depurar programas (quitarles los errores) para el
microprocesador específico. Un año después, Intel recibía más dinero de
los sistemas de desarrollo que de los microprocesadores y chips de
soporte. A título informativo cabe destacar que este microprocesador de
ocho bits poseía alrededor de 3500 transistores, direccionaba 16 KBytes y
la frecuencia máxima de reloj (clock) era de 108 KHz


 Los Microprocesadores 8086 y 8088


En junio de 1978 Intel lanzó al mercado el primer microprocesador de 16
bits: el 8086. En junio de 1979 apareció el 8088 (internamente igual que el
8086 pero con bus de datos de 8 bits) y en 1980 los coprocesadores 8087
(matemático) y 8089 (de entrada y salida). El primer fabricante que
desarrolló software y hardware para estos chips fue la propia Intel.
Reconociendo la necesidad de dar soporte a estos circuitos integrados, la
empresa invirtió gran cantidad de dinero en un gran y moderno edificio en
Santa Clara, California, dedicado al diseño, fabricación y venta de sus
sistemas de desarrollo que, como se explicó anteriormente, son
computadoras autosuficientes con el hardware y software necesario para
desarrollar software de microprocesadores.


Los sistemas de desarrollo son factores clave para asegurar las ventas de
una empresa fabricantes de chips. La inmensa mayoría de ventas son a
otras empresas, las cuales usan estos chips en aparatos electrónicos,
diseñados, fabricados y comercializados por ellas mismas. A estas
empresas se las llama "fabricantes de equipo original", o en inglés, OEM
(Original Equipment Manufacturer). El disminuir el tiempo de desarrollo de
hardware y software para las OEM es esencial, ya que el mercado de
estos productos es muy competitivo. Necesitan soporte pues los meses
que les puede llevar el desarrollo de las herramientas apropiadas les
pueden significar pérdidas por millones de dólares. Además quieren ser
los primeros fabricantes en el mercado, con lo cual pueden asegurarse las
ventas en dos áreas importantes: a corto plazo, ya que al principio la
demanda es mucho mayor que la oferta, y a largo plazo, ya que el primer
producto marca a menudo los estándares.
De esta manera la empresa Intel había desarrollado una serie completa
de software que se ejecutaba en una microcomputadora basada en
el 8085 llamada "Intellec Microcomputer Development System". Los
programas incluían ensambladores cruzados (éstos son programas que
se ejecutan en un microprocesador y generan código de máquina que se
ejecuta en otro), compiladores de PL/M, Fortran y Pascal y varios
programas de ayuda. Además había un programa traductor llamado CON
V86 que convertía código fuente 8080/8085 a código fuente 8086/8088. Si
se observan de cerca ambos conjuntos de instrucciones, queda claro que
la transformación es sencilla si los registros se traducen así: A -> AL, B ->
CH, C -> CL, D -> DH, E -> DL, H -> BH y L -> BL.


Puede parecer complicado traducir LDAX B (por ejemplo) ya que el 8088
no puede utilizar el registro CX para direccionamiento indirecto, sin
embargo, se puede hacer con la siguiente secuencia: MOV SI, CX; MOV
AL, [SI]. Esto aprovecha el hecho que no se utiliza el registro SI. Por
supuesto el programa resultante es más largo (en cantidad de bytes) y a
veces más lento de correr que en su antecesor 8085. Este programa de
conversión sólo servía para no tener que volver a escribir los programas
en una primera etapa. Luego debería reescribirse el código fuente en
assembler para poder obtener las ventajas de velocidad ofrecidas por el
8088. Luego debía correr el programa en la iSBC 86/12 Single Board
Computer basado en el 8086. Debido a lo engorroso que resultaba tener
dos plaquetas diferentes, la empresa Godbout Electronics (también de
California) desarrolló una placa donde estaban el 8085 y el 8088, donde
se utilizaba un ensamblador cruzado provisto por la compañía Microsoft.
Bajo control de software, podían conmutarse los microprocesadores. El
sistema operativo utilizado era el CP/M (de Digital Research).


El desarrollo más notable para la familia 8086/8088 fue la elección de la
CPU 8088 por parte de IBM (International Business Machines) cuando en
1981 entró en el campo de las computadoras personales.
Esta computadora se desarrolló bajo un proyecto con el nombre "Acorn"
(Proyecto "Bellota") pero se vendió bajo un nombre menos imaginativo,
pero más correcto: "Computadora Personal IBM", con un precio inicial
entre 1260 dólares y 3830 dólares según la configuración (con 48KB de
memoria RAM y una unidad de discos flexibles con capacidad de 160KB
costaba 2235 dólares). Esta computadora entró en competencia directa
con las ofrecidas por Apple (basado en el 6502) y por Radio Shack
(basado en el Z-80).
 Microprocesador 80286


En el año 1982 nace el 286 o primer microprocesador para ordenadores
AT aunque no ve la luz hasta 1984 con distintos formatos en encapsulado
PGA. Algunos estaban soldados a la placa base, otros se colocaban
sobre un zócalo. Aparece un competidor serio de INTEL: AMD.


El 80286 dispone de un SET de instrucciones más amplio que los micros
anteriores, disponiendo de un bus de datos de 16 bits y un bus de
direcciones de 24 bits. Esto conseguía que la memoria pudiese
direccionar hasta 224= 16.777.216 bytes= 16MB. La velocidad evoluciono
desde los primeros AT-02 y AT-03 de 6 y 8 MHz respectivamente hasta los
12, 16 y 20MHz. Incorporaba un nuevo modo de trabajo: el modo
protegido. Este sistema consistiría en la posibilidad de poder trabajar en
multitarea o, lo que es lo mismo, aplicar pequeñas particiones de tiempo a
diferentes trabajos que se ejecutan de forma alternativa gestionando
hasta 16MB de RAM; también permitía el modo real, emulando varios
8086 con 1024 KB de memoria. El 80286 se popularizo gracias a su
implementación en las maquinas 5170 AT de IBM.




 Microprocesador 80386


Aparece el 386DX con arquitectura tanto interna como externa de 32 bits.
Fue el primero en incluir posibilidades de gráficos en color de alta
resolución así como sonido. Este micro, dependiendo del fabricante,
trabaja entre 16 y 40MHz. Su formato también variaba según el
fabricante, un 386sx INTEL de 100 pines a un 386DX AMD de 132. El
386DX era capaz de direccionar hasta 232= 4.294.967.296 bytes = 4Gb
de memoria, pero tenia el serio inconveniente del precio. El 386sx
aparece como respuesta al alto precio del 386 ``puro'' o DX. Se diferencia
por trabajar solo con 16 bits de datos externo y un bus de direcciones de
24bits, además de tener un rango de frecuencia de trabajo de 16 hasta 25
MHz. Existe un modelo de 386 con mayor escala de integración que es el
386SL utilizado en ordenadores portátiles. Este microprocesador permitía
un nuevo modo de funcionamiento: el modo virtual.


 Microprocesador 80486


En 1989 aparecen los i486DX. El motivo del cambio de nomenclatura se
debe a la oficina de patentes de EE.UU. dicha oficina no reconoce tres
dígitos como marca registrada, lo que le favorece a la competencia de
empresas como CYRIX o AMD que pueden llamar a sus productos con el
mismo nombre que INTEL.


Se trata de un microprocesador que incorpora la propia CPU, además de
un coprocesador matemático, un controlador de memoria de caché de
128 bits y dos memorias caché de 4 KB cada una, que trabajan como
búfer intermedio entre la memoria principal y el micro, trabajando tanto de
forma externa como interna con una estructura de 32 bits. Tiene una alta
integración y rendimiento, no era cierto el comentario que afirmaba que un
386DX con coprocesador matemático ofrecía el mismo rendimiento que
un 486DX.
Los distintos modelos que se encuentran en el mercado son SX, DX, SLC,
DLC, DX2, Y DX4 con velocidades comprendidas entre 25 y 133 MHz.
Los micros DX2 Y DX4 lo que hacen es multiplexar la frecuencia por lo
que la velocidad interna del micro es distinta a la externa. Los homónimos
del DX y SX en portátiles son el DLC y el SLC, de mayor escala de
integración aunque menor rendimiento.


 Microprocesador PENTIUM
El Pentium (o ``586''), de unos 6,4 cm2 aproximadamente, presentó
graves problemas en sus inicios debido a un error de fabricación en su
modelo a 60 MHz. En el año 1994 se detectaron PENTIUM defectuosos.
Este error era provocado, bajo determinadas circunstancias, al realizar
una operación de coma flotante y se detectaba en el BIT 13 de la mantisa.
Estos errores aparecían con las funciones: FDIV, FDIVR, FPTAN,
FPATAN, FPREM y FPREM1 tanto en simple, doble o precisión extendida.
INTEL dispuso un `` chequeo oficial ''.


Posteriormente aparecieron distintos modelos que duplicaban la velocidad
del bus, trabajando a 75, 90, 100, 120, 133, 150, 166, 180 y 200 MHz que
funcionaban perfectamente. Una de las novedades que incorpora es el
trabajar a partir del P/66 a 3,3v de alimentación en lugar de con 5v. Esta
novedad ya fue implementada por su competidor AMD en el modelo 486
DX2 Y DX4. La cache utilizada es de 16KB. En AMD, el PENTIUM recibe
el nombre de K.5 y en CYRIX, el de 6x86.


    Funcionamiento de un PENTIUM


La RAM envía datos o instrucciones codificadas a la BIU (o unidad de
interfaz con el BUS) en Ráfagas de 64 bits. Estos datos son enviados por
dos rutas cada una de las memorias caché de que dispone el micro. En
una se almacenaran los datos y en la otra las instrucciones que indican
que debe hacerse con esos datos. Existe una zona llamada Unidad de
predicción de bifurcaciones. Esta unidad se encargara de inspeccionar las
dos ALUs que tiene el microprocesador para determinar cual será la
encargada de gestionar las nuevas instrucciones. Es unidad asegura el
rendimiento optimo del microprocesador, evitando que una ALU este sin
trabajar mientras existan instrucciones que procesar.


Una nueva memoria, llamada búfer del prefetch recupera los códigos de
instrucciones y los convierte a un lenguaje que la ALU seleccionada
pueda entender. En caso de precisar realizar operaciones con números
decimales (llamados de coma flotante) se usara el procesador interno
especializado para tal fin.


A partir de este momento, cada ALU procesara las instrucciones que le
correspondan de manera independiente, recogiendo los datos que le sean
precisos desde las caché de datos (registros) y las instrucciones desde
cada decodificador de instrucciones. Superaran los 32 bits. Una vez
finalizado el proceso, las dos ALUs, así como el procesador de coma
flotante, entregaran sus resultados a la caché de datos, desde donde
serán reenviados a la memoria RAM.


 Microprocesador PENTIUM PRO


El Pentium PRO (microprocesador incluido en lo que INTEL ha llamado la
familia P6) es otro de los microprocesadores que INTEL ha orientado a
aplicaciones y sistemas operativos de 32bits. Implementado con 5,5
millones   de   transistores,   es   muy   diferente   de   los   PENTIUM
convencionales. Al igual que el PENTIUM convencional, dispone de 8 KB
de memoria caché interna para datos y otros 8 KB para instrucciones,
pero en el caso de PENTIUM PRO la memoria caché es de nivel 2 (L2) en
lugar de nivel 1 (L1) usado por el PENTIUM convencional. Se pueden
encontrar versiones de PENTIUM PRO con 256 KB y 512 KB de memoria
L2 asociativo de cuatro vías. Trabajando a 32bits, el PENTIUM PRO
ofrece prácticamente el doble de velocidad para una misma frecuencia
que un PENTIUM convencional. En caso de trabajar con un sistema
operativo de 16 bits, las diferencias en prestaciones son mínimas.


 Microprocesador PENTIUM MMX


El PENTIUM MMX o P55C es otro micro de INTEL con la innovación de la
tecnología MMX. Este microprocesador maneja 257 instrucciones. Estas
nuevas instrucciones están orientadas a los multimedia y se define como
el cambio más radical desde el 386 aparecido en 1985. Otra novedad de
este tipo de microprocesadores es referente al consumo de corriente. No
todo el micro trabaja a la misma tensión de alimentación, sino que usa un
voltaje dual. Aunque dicha tensión se determina de forma específica en
cada micro, es habitual que los valores oscilen en torno a 2,8v para el
núcleo del microprocesador y 3,3v para el sistema de operaciones de
entrada/salida.


Los modelos aparecidos en el mercado funcionaron a 166, 200 y 233
MHz, aunque existieron versiones a 133 MHz para ordenadores portátiles.
Una pega de los microprocesadores MMX es que mientras se está
usando este set de instrucciones multimedia, no puede trabajar el
coprocesador matemático. Dispone de la doble de cache, es decir, 16KB
para datos y 16 para instrucciones, por lo que la mejora está asegurada.


 Microprocesador PENTIUM II


El Pentium II consigue aunar la potencia del Pentium pro con las ventajas
multimedia del Pentium mmx. Diseñado para 233, 266, 300 MHz dispone
de una memoria cache interna de 512 KB. Otra novedad incluida es el tipo
de zócalo que Intel lanza como nuevo estándar para su microprocesador:
El SEC (Single Edge Connect).
Cabe destacar que la memoria cache integrada ya no va integrada en el
propio microprocesador. En el caso del Pentium II, la memoria cache de
segundo nivel va en el circuito impreso que sirve de soporte para el
microprocesador.


    El nuevo diseño externo del Pentium (similar al cartucho de
      una consola de juegos) tienes dos funciones primordiales:
o Aislamiento que permite apantallar el microprocesador de los
          demás componentes y viceversa: impedir que el resto de los
          componentes interfieran sobre el correcto funcionamiento del
          microprocesador.
      o Soporte del disipador ventilador que, dadas las condiciones de
          refrigeración necesarias en el microprocesador, debe ser
          voluminoso.


Al igual que otros productos INTEL este microprocesador viene precedido
de errores de diseño: unos días más tarde del lanzamiento del Pentium II,
se observo un error. Se trata de un error relacionado con la unidad de
coma flotante. En concreto afecta a la conversión de números en coma
flotante a enteros. Este error afectaba también a microprocesadores
Pentium Pro. De cara a enviar pasados enfrentamientos, INTEL firmo con
la   empresa   NATIONAL      SEMICONDUCTORS         (fabricante   de   los
microprocesadores CYRIX) un convenio por el que le permite desarrollar
sus propios micros basándose en la tecnología del Pentium II. Este
proceso se basa en la denominada ``ingeniería inversa'', mediante la cual
INTEL se guarda sus secretos de desarrollo y únicamente proporciona a
CIRYX una base a partir de la cual trabajar.


 Microprocesador PENTIUM CELERON


Aunque no sea la idea con la que INTEL pretende vender este producto,
el Pentium Celeron se puede entender como el Pentium II Sx. Se trata de
un microprocesador de batalla, inferior al Pentium II pero con un mejor
precio. Esto consiguió que perdurase más tiempo que el propio Pentium
II, siendo la punta de lanza de la compañía INTEL hasta la aparición del
Pentium III. Este micro apareció bajo dos encapsulados diferentes: el
SEPP y el PPGA. El primero fue el más común, recordando al típico
formato del Pentium II.
Aunque también estaba optimizado para trabajar con aplicaciones de
32bits, la critica a este microprocesador venia por la ausencia de memoria
cache L2. Esto afectaba a toda la gama comprendida entre los 266 y
300MHz; el resto incluían una L2 de 128KB sincronía con la velocidad del
microprocesador. En cuanto a caché de primero nivel, todos los modelos
disponen de 32KB, repartidos en igual capacidad de datos e
instrucciones.
Implementados con 7,5 millones de transistores hasta los modelos de
300MHz y con 9,1 millones el resto, estos micros heredan las
instrucciones MMX y siguen manteniendo una comunicación con el bus
de 66MHz.


 Microprocesador PENTIUM III


El PENTIUM III es la sucesión dentro de la factoría INTEL del PENTIUM
II. Clasificado dentro de la familia P6 y con las características propias de
la misma como el rendimiento en ejecución dinámica o un bus de sistema
multitransaccional, funciona con un bus externo de 100 MHz. Hereda la
tecnología MMX además de 70 nuevas instrucciones orientadas al manejo
de gráficos 3-D, video, audio. También se contemplan otras tecnologías
multimedia como el reconocimiento de voz o la tecnología denominada
SIMD.


Debe tenerse en cuenta que admitió frecuencias de trabajo vertiginosas
en su tiempo de 450, 500 y 550MHz funcionando con un Chipset 440BX.
Incluye, además, 512 KB de memoria cache de segundo nivel. Incluye 8
nuevos registros de 128 bits, además de los 8 registros FP ya existentes
de 64 bits, donde cada registro soporta 4 valores de coma flotante de
simple precisión IEEE. INTEL incluyo una novedad: cada microprocesador
era numerado de forma única, con lo que desaparecía el anonimato del
usuario. Si bien esta identificación es camufable, esta novedad no fue del
agrado de muchos usuarios, especialmente los ínter-nautas.
Las importantes mejoras en gráficos 3D con mas polígonos y efectos
complementan la animación así como el tratamiento de imágenes. Este
tratamiento dispone de algoritmos optimizados que permiten manejar
imágenes más grandes y complejas en menos tiempo. En cuanto al video,
lo más destacable es, sin duda, la posibilidad de edición y codificación de
ficheros en formato comprimido MPEG 2 en tiempo real junto al resto de
características heredadas del tratamiento de imágenes. Esto consigue
una reproducción de video más real sin cortes entre imágenes.


El conjunto de prestaciones se complementa con el reconocimiento de
voz que es una de las características más atractivas. Para dar soporte al
manejar de voz promovido por MICROSOFT con su nuevo Windows
2000, INTEL ha creado la plataforma idónea dando mayor precisión y
efectividad a las aplicaciones reconocimiento.


 Microprocesador ITANIUM


Desde la aparición del PENTIUM convencional pasando por el PENTIUM
II, III e incluso el XEON, no ha habido nada nuevo, si no que más bien se
ha tratado de transformaciones sobre una misma base. El Merced ve la
luz y desde noviembre de 1999 se produce en pequeñas cantidades aun
hasta mitad del 2000, fecha en el que el proceso de producción explotara
el producto bajo el nombre comercial de ITANIUM.
Como siempre, AMD sigue la pista de cerca del gran gigante y, casi de
forma   paralela,   ha    anunciado     su   réplica   al   ITANIUM:     el
SLEDGEHAMMER. Ambos micros tienen una característica común que
les diferencia de los demás: la capacidad de trabajo a 64bits. La marca
ITANIUM representa la fuerza y prestaciones de las características únicas
de procesador que proporcionan a los clientes una base fiable y con
capacidad de respuesta para el comercio electrónico del futuro.
En el nuevo diseño de INTEL se ha contado hasta con los más pequeños
detalles. En cuanto a compatibilidad no parece que vaya a haber ningún
problema: todas las aplicaciones diseñadas para 32 bits correrán sin
problemas bajo la arquitectura de 64.


 Microprocesador PENTIUM 4


El PENTIUM 4 corresponde al último diseño de INTEL para dar respuesta
a las nuevas necesidades que el avance de las nuevas tecnologías
implica. Lo más llamativo de este micro es que se trata de un desarrollo
completamente nuevo, no se ha apoyado en diseños anteriores como
ocurría, parece que este es el avance más importante de INTEL desde el
año 1995.


Con lo anterior expuesto es fácil de deducir que el PENTIUM 4, precisa de
una placa base diseñada de forma específica. El formato en el que se
suministra es para socket 423, aunque existen varios rumores por parte
de INTEL, sobre un cambio de formato inminente hacia los 478 pines.
Además el sistema de refrigeración precisa de una caja y fuente de
alimentación especiales denominadas ATX 2.03.


La idea es sencilla: se sigue basando el aumento de rendimiento en una
serie   de   predicciones   que,   en   caso   de   cumplirse,   aumentan
significativamente la efectividad de la CPU. El problema viene cuando
estas predicciones no son correctas. Así este nuevo chip de INTEL
dispone de una canalización distribuida en 20 fases. Esto significa que
cuando se realiza una predicción un total de 20 microinstrucciones
pueden quedar en espera de confirmar si la citada predicción ha sido
correcta.


Otro de los avances es el incremento de velocidad de proceso. Toda la
campaña de INTEL asegura que se soporta un bus de sistema de
400MHz. Si se pretende ser serio, realmente no es esta la velocidad de
bus a la que se puede trabajar sino que se aplica un doble DDR para
obtener mejores resultados. Realmente se mantienen los 100 MHz
habituales con un factor multiplicador que empieza a resultar desorbitado.
El micro de 1,4GHz y bajo la premisa expuesta de un funcionamiento a
100 MHz, es necesario configurar la placa base con un factor
multiplicador de x14. Se alcanzan los 3,2 GB/s frente a 1 GB/s obtenido
por el PENTIUM II con un bus de 133 MHz o los 0,5 GB/s del Celeron con
un bus de 66MHz.


    Más de un Micro En Una Misma Placa: Es habitual para los
      servidores usar placas donde dos microprocesadores trabajan en
      paralelo. Se trata de casos especiales donde, en lugar de una
      CPU, se usan dos o más. Hay fundamentalmente dos tipos de
      arquitecturas para el microprocesador:


      o Asociación Estrecha (tightly coupled).
      o Asociación Flexible (loosely coupled).


Habitualmente se usa la arquitectura Pipeline. Esta técnica permite que,
mientras se está decodificando una instrucción, otra, en paralelo, se está
ejecutando. Esto consigue que en un solo ciclo de reloj se realicen dos
instrucciones.


    El OVERCLOKING: Es el término que se aplica al hecho de
      incrementar la velocidad del procesador por encima de la que ha
      sido diseñado, con el objeto de aumentar la velocidad del sistema
      sin añadir nuevos componentes. Este sistema se ha usado por
      distribuidores poco profesionales dando, en su día, ligar a un
      escándalo provocado por la falsificación de micros: se serigrafía
      con una velocidad superior y se vendían como microprocesadores
      de más frecuencia.
Todos los micros se pueden trucar, aunque algunos aguantan mejor que
otro el overcloking. Los 386 y 486 de INTEL Y AMD aguantaban grandes
incrementos de frecuencia. Igualmente ocurría con los 486 de CYRIX. Los
MOTOROLA 680x0 eran menos adecuados, ya que el overcloking
requiere un subsistema de memoria fiable por parte del microprocesador y
el MOTOROLA 68040 no dispone de memoria cache de segundo nivel.
Puede darse el caso de que un microprocesador diseñado para trabajar a
100MHz, no consiga funcionar correctamente a esa velocidad pero si a
75MHz. Esto no implica que el micro sea defectuoso, ya que se garantiza
el correcto funcionamiento a una frecuencia determinada. Las condiciones
de laboratorio no coinciden con las habituales de trabajo.


El overcloking no produce generalmente ningún daño. La única
consecuencia directa es el sobrecalentamiento que se soluciona mediante
el uso de un ventilador/disipador. Un problema poco documentado sobre
el overcloking es la electromigración, que consiste en la erosión de las
pistas debido al aumento de frecuencia. No todos los micros responde
igual, el resto de los componentes del ordenador si que guardaran una
dependencia con el incremento de velocidad. Si una vez modificados los
parámetros de funcionamiento del micro el ordenador no arranca, se
podrá probar, siempre y cuando la BIOS lo permita, a añadir estados de
espera o bajar la velocidad.
Las tarjetas aceleradoras también llamadas ICE son unas placas
destinadas a aumentar la velocidad del PC mediante su inserción en una
de INTEL.


 Fabricantes Destacados


    AMD
    APPLE
    AYRIX
 INTEL
    MOTOROLA
    TEXAS INSTRUMENTS




                              Conclusión




El ordenador recibe y envía la información a través de los periféricos por
medio de los canales. La UCP es la encargada de procesar la información
que le llega al ordenador. El intercambio de información se tiene que
hacer con los periféricos y la UCPs un sistema complejo que puede llegar
a estar constituido por millones de componentes electrónicos elementales.
Esto que en le teoría parece tan fácil es bastante mas complicado en la
práctica, ya que aparte de los bus de datos y de direcciones existen
también casi dos docenas más de líneas de señal en la comunicación
entre la CPU y la memoria, a las cuales también se acude. Dentro de la
tecnología SCSI hay 2 generaciones y una tercera que está a la vuelta de
la esquina. La primera generación permitía un ancho de banda de 8 bits y
unos ratios de transferencia de hasta 5 MBps. El mayor problema de esta
especificación fue que para que un producto se denominara SCSI solo
debía cumplir 4 códigos de operación de los 64 disponibles por lo que
proliferaron en el mercado gran cantidad de dispositivos SCSI no
compatibles entre sí.


El microprocesador lo que hace es procesar ordenes sencilla, para
procesar ordenes mayores deberemos construir un programa. Con un
micro de 16 bits solo se puede direccionar hasta 64 k de memoria, pero
ya sabemos que se debe acceder a más de ellas, esto lo logramos con el
esquema de direccionamiento de 20 bits utilizado por el microprocesador
Una vez seleccionada y analizada la instrucción deberá accionar los
circuitos correspondientes de otras unidades, para que se cumplimente la
instrucción, a través del secuenciador o reloj. El chip más importante de
cualquier placa madre es el procesador.


Las teclas están sobre los puntos de intersección de las líneas
conductoras horizontales y verticales. Cuando se pulsa una tecla. Se
establece un contacto eléctrico entre la línea conductora vertical y
horizontal que pasan por debajo de la misma realizar las operaciones con
los datos procesados por el ordenador. Puede realizar las operaciones
aritméticas básicas: suma, resta, multiplicación y división, así como,
controlada por la UC operaciones como la de desplazamiento. Este
desplazamiento se puede realizar hacia la derecha o hacia la izquierda.
La UAL utiliza un registro denominado acumulador donde almacena los
resultados de las operaciones antes de ser enviados a la memoria.
Cuando vamos a acceder a la dirección de memoria especificada en el
CP, esta dirección deberá transferirse al RDM, a través del cual
accederemos a dicha dirección. Esto se realiza al iniciar cada ciclo de
instrucción.


La memoria está compuesta de chips. Lo único que realizan estos chips
es almacenar la información hasta que esta es requerida. El número de
chips de que consta la memoria es el que determina la capacidad de la
misma.




                               Anexos
Microprocesador 4004




Microprocesador 4040
Microprocesador 8008




Microprocesador 80286

Más contenido relacionado

La actualidad más candente

La actualidad más candente (20)

Electrónica, evolución y vocación
Electrónica, evolución y vocaciónElectrónica, evolución y vocación
Electrónica, evolución y vocación
 
Medio de trasmision
Medio de trasmisionMedio de trasmision
Medio de trasmision
 
Electronica
ElectronicaElectronica
Electronica
 
Comienzo de la Electrónica
Comienzo de la Electrónica Comienzo de la Electrónica
Comienzo de la Electrónica
 
Historia De La ElectróNica
Historia De La ElectróNicaHistoria De La ElectróNica
Historia De La ElectróNica
 
Historia de la electrónica
Historia de la electrónicaHistoria de la electrónica
Historia de la electrónica
 
Jhon
JhonJhon
Jhon
 
La Electrónica
La Electrónica La Electrónica
La Electrónica
 
Electrónica
ElectrónicaElectrónica
Electrónica
 
La eletrecidad
La eletrecidad La eletrecidad
La eletrecidad
 
Historia de la electronica
Historia de la electronicaHistoria de la electronica
Historia de la electronica
 
Historia de la electronica
Historia de la electronica Historia de la electronica
Historia de la electronica
 
Electrónica
Electrónica Electrónica
Electrónica
 
Banco taller 10 enero
Banco taller 10 eneroBanco taller 10 enero
Banco taller 10 enero
 
La electrónica
La electrónicaLa electrónica
La electrónica
 
Historia de la electronica
Historia de la electronicaHistoria de la electronica
Historia de la electronica
 
Julian
JulianJulian
Julian
 
Electricidad atravez de_la_historia
Electricidad atravez de_la_historiaElectricidad atravez de_la_historia
Electricidad atravez de_la_historia
 
Historia de las telecomunicaciones
Historia de las telecomunicacionesHistoria de las telecomunicaciones
Historia de las telecomunicaciones
 
electronica en audio
electronica en audioelectronica en audio
electronica en audio
 

Destacado

Pensum de informatica
Pensum de informaticaPensum de informatica
Pensum de informaticaRafael Verde)
 
Ensamblaje de sistemas siguiendo instrucciones y esquemas
Ensamblaje de sistemas siguiendo instrucciones y esquemasEnsamblaje de sistemas siguiendo instrucciones y esquemas
Ensamblaje de sistemas siguiendo instrucciones y esquemasconocimientoscibertecnologcos
 
2.4 Ensamblo sistemas siguiendo instrucciones y esquemas.
2.4 Ensamblo sistemas siguiendo instrucciones y esquemas.2.4 Ensamblo sistemas siguiendo instrucciones y esquemas.
2.4 Ensamblo sistemas siguiendo instrucciones y esquemas.Angie Benavides
 
Pensum informatica
Pensum informaticaPensum informatica
Pensum informaticaUnid4d DCyT
 
Ensamblaje y puesta en marcha de un Sistema Informático
Ensamblaje y puesta en marcha de un Sistema InformáticoEnsamblaje y puesta en marcha de un Sistema Informático
Ensamblaje y puesta en marcha de un Sistema InformáticoTotus Muertos
 
3.2 detecto fallas en sistema tecnológicos sencillos (mediante un proceso de ...
3.2 detecto fallas en sistema tecnológicos sencillos (mediante un proceso de ...3.2 detecto fallas en sistema tecnológicos sencillos (mediante un proceso de ...
3.2 detecto fallas en sistema tecnológicos sencillos (mediante un proceso de ...Alejandrarayaloca
 
sistema de información
sistema de informaciónsistema de información
sistema de informaciónyohanabarbiero
 
PLAN DE AREA TECNOLOGIA E INFORMATICA
PLAN DE AREA TECNOLOGIA E INFORMATICAPLAN DE AREA TECNOLOGIA E INFORMATICA
PLAN DE AREA TECNOLOGIA E INFORMATICAYaritza Paola Barros
 

Destacado (9)

Pensum de informatica
Pensum de informaticaPensum de informatica
Pensum de informatica
 
PRESENTACION SISTEMAS MECANIZADOS II
PRESENTACION SISTEMAS MECANIZADOS IIPRESENTACION SISTEMAS MECANIZADOS II
PRESENTACION SISTEMAS MECANIZADOS II
 
Ensamblaje de sistemas siguiendo instrucciones y esquemas
Ensamblaje de sistemas siguiendo instrucciones y esquemasEnsamblaje de sistemas siguiendo instrucciones y esquemas
Ensamblaje de sistemas siguiendo instrucciones y esquemas
 
2.4 Ensamblo sistemas siguiendo instrucciones y esquemas.
2.4 Ensamblo sistemas siguiendo instrucciones y esquemas.2.4 Ensamblo sistemas siguiendo instrucciones y esquemas.
2.4 Ensamblo sistemas siguiendo instrucciones y esquemas.
 
Pensum informatica
Pensum informaticaPensum informatica
Pensum informatica
 
Ensamblaje y puesta en marcha de un Sistema Informático
Ensamblaje y puesta en marcha de un Sistema InformáticoEnsamblaje y puesta en marcha de un Sistema Informático
Ensamblaje y puesta en marcha de un Sistema Informático
 
3.2 detecto fallas en sistema tecnológicos sencillos (mediante un proceso de ...
3.2 detecto fallas en sistema tecnológicos sencillos (mediante un proceso de ...3.2 detecto fallas en sistema tecnológicos sencillos (mediante un proceso de ...
3.2 detecto fallas en sistema tecnológicos sencillos (mediante un proceso de ...
 
sistema de información
sistema de informaciónsistema de información
sistema de información
 
PLAN DE AREA TECNOLOGIA E INFORMATICA
PLAN DE AREA TECNOLOGIA E INFORMATICAPLAN DE AREA TECNOLOGIA E INFORMATICA
PLAN DE AREA TECNOLOGIA E INFORMATICA
 

Similar a TRABAJO N° 1 DE SISTEMAS MECANIZADOS II

Presentación de Unidad - Ing Sistemas
Presentación de Unidad - Ing SistemasPresentación de Unidad - Ing Sistemas
Presentación de Unidad - Ing SistemasAndreaSubeldia
 
historia de la electronica
historia de la electronicahistoria de la electronica
historia de la electronicadayis17
 
resumen de los hechos y descubrimientos de la electrónica a través de las his...
resumen de los hechos y descubrimientos de la electrónica a través de las his...resumen de los hechos y descubrimientos de la electrónica a través de las his...
resumen de los hechos y descubrimientos de la electrónica a través de las his...gustavo colmenares
 
historia electronica.ppt
historia electronica.ppthistoria electronica.ppt
historia electronica.pptCarlos Martir
 
ensayo Ingenieria electronica
ensayo Ingenieria electronicaensayo Ingenieria electronica
ensayo Ingenieria electronicadiego herrera
 
MapaconceptualIngenieriaelectronica
MapaconceptualIngenieriaelectronicaMapaconceptualIngenieriaelectronica
MapaconceptualIngenieriaelectronica'Jonathan Velasquez'
 
Arthuro Osorio Nociones de Electronica
Arthuro Osorio Nociones de ElectronicaArthuro Osorio Nociones de Electronica
Arthuro Osorio Nociones de Electronicaarthurosoosoriopardo
 
Republica bolivariana de venezuela(comienzo de la electronica)
Republica bolivariana de venezuela(comienzo de la electronica)Republica bolivariana de venezuela(comienzo de la electronica)
Republica bolivariana de venezuela(comienzo de la electronica)pereira1999
 
Linea de tiempo radiocomunicaciones UACM
Linea de tiempo radiocomunicaciones UACMLinea de tiempo radiocomunicaciones UACM
Linea de tiempo radiocomunicaciones UACMVic-Thor Cruz Garcia
 
So1 generaciones
So1   generacionesSo1   generaciones
So1 generacionesarturo8888
 
Recopilacion de la Historia de la Historia general orientada a la Electronica
Recopilacion de la Historia de la Historia general orientada a la ElectronicaRecopilacion de la Historia de la Historia general orientada a la Electronica
Recopilacion de la Historia de la Historia general orientada a la ElectronicaKevin Moreira Saavedra
 
Electricidad Basica
Electricidad BasicaElectricidad Basica
Electricidad Basicadavinzon
 
Electricidad Basica
Electricidad BasicaElectricidad Basica
Electricidad Basicadavinzon
 
Electricidad Basica
Electricidad BasicaElectricidad Basica
Electricidad Basicaguestdff0b65
 
Electrónica componentes analógicos.Historia de la electrónica desde descubrim...
Electrónica componentes analógicos.Historia de la electrónica desde descubrim...Electrónica componentes analógicos.Historia de la electrónica desde descubrim...
Electrónica componentes analógicos.Historia de la electrónica desde descubrim...ElisaMartinez48529
 
Historia de la electronica
Historia de la electronicaHistoria de la electronica
Historia de la electronicaPAGM626
 
rolabo presentacion
rolabo presentacionrolabo presentacion
rolabo presentacionjonathan9402
 

Similar a TRABAJO N° 1 DE SISTEMAS MECANIZADOS II (20)

Presentación de Unidad - Ing Sistemas
Presentación de Unidad - Ing SistemasPresentación de Unidad - Ing Sistemas
Presentación de Unidad - Ing Sistemas
 
historia de la electronica
historia de la electronicahistoria de la electronica
historia de la electronica
 
resumen de los hechos y descubrimientos de la electrónica a través de las his...
resumen de los hechos y descubrimientos de la electrónica a través de las his...resumen de los hechos y descubrimientos de la electrónica a través de las his...
resumen de los hechos y descubrimientos de la electrónica a través de las his...
 
historia electronica.ppt
historia electronica.ppthistoria electronica.ppt
historia electronica.ppt
 
ensayo Ingenieria electronica
ensayo Ingenieria electronicaensayo Ingenieria electronica
ensayo Ingenieria electronica
 
MapaconceptualIngenieriaelectronica
MapaconceptualIngenieriaelectronicaMapaconceptualIngenieriaelectronica
MapaconceptualIngenieriaelectronica
 
Arthuro Osorio Nociones de Electronica
Arthuro Osorio Nociones de ElectronicaArthuro Osorio Nociones de Electronica
Arthuro Osorio Nociones de Electronica
 
Republica bolivariana de venezuela(comienzo de la electronica)
Republica bolivariana de venezuela(comienzo de la electronica)Republica bolivariana de venezuela(comienzo de la electronica)
Republica bolivariana de venezuela(comienzo de la electronica)
 
Linea de tiempo radiocomunicaciones UACM
Linea de tiempo radiocomunicaciones UACMLinea de tiempo radiocomunicaciones UACM
Linea de tiempo radiocomunicaciones UACM
 
So1 generaciones
So1   generacionesSo1   generaciones
So1 generaciones
 
Recopilacion de la Historia de la Historia general orientada a la Electronica
Recopilacion de la Historia de la Historia general orientada a la ElectronicaRecopilacion de la Historia de la Historia general orientada a la Electronica
Recopilacion de la Historia de la Historia general orientada a la Electronica
 
Electricidad Basica
Electricidad BasicaElectricidad Basica
Electricidad Basica
 
Electricidad Basica
Electricidad BasicaElectricidad Basica
Electricidad Basica
 
Electricidad Basica
Electricidad BasicaElectricidad Basica
Electricidad Basica
 
Electronica
ElectronicaElectronica
Electronica
 
Electrónica componentes analógicos.Historia de la electrónica desde descubrim...
Electrónica componentes analógicos.Historia de la electrónica desde descubrim...Electrónica componentes analógicos.Historia de la electrónica desde descubrim...
Electrónica componentes analógicos.Historia de la electrónica desde descubrim...
 
Decimo 1
Decimo 1Decimo 1
Decimo 1
 
Historia de la electronica
Historia de la electronicaHistoria de la electronica
Historia de la electronica
 
rolabo presentacion
rolabo presentacionrolabo presentacion
rolabo presentacion
 
Informe tp3
Informe tp3Informe tp3
Informe tp3
 

Último

ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...JAVIER SOLIS NOYOLA
 
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxzulyvero07
 
Herramientas de Inteligencia Artificial.pdf
Herramientas de Inteligencia Artificial.pdfHerramientas de Inteligencia Artificial.pdf
Herramientas de Inteligencia Artificial.pdfMARIAPAULAMAHECHAMOR
 
Introducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleIntroducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleJonathanCovena1
 
RETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxRETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxAna Fernandez
 
Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.José Luis Palma
 
Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arteRaquel Martín Contreras
 
cortes de luz abril 2024 en la provincia de tungurahua
cortes de luz abril 2024 en la provincia de tungurahuacortes de luz abril 2024 en la provincia de tungurahua
cortes de luz abril 2024 en la provincia de tungurahuaDANNYISAACCARVAJALGA
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadAlejandrino Halire Ccahuana
 
La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.amayarogel
 
MAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMarjorie Burga
 
texto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticostexto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticosisabeltrejoros
 
Heinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoHeinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoFundación YOD YOD
 
Registro Auxiliar - Primaria 2024 (1).pptx
Registro Auxiliar - Primaria  2024 (1).pptxRegistro Auxiliar - Primaria  2024 (1).pptx
Registro Auxiliar - Primaria 2024 (1).pptxFelicitasAsuncionDia
 
Resolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdf
Resolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdfResolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdf
Resolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdfDemetrio Ccesa Rayme
 
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIARAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIACarlos Campaña Montenegro
 

Último (20)

Sesión de clase: Defendamos la verdad.pdf
Sesión de clase: Defendamos la verdad.pdfSesión de clase: Defendamos la verdad.pdf
Sesión de clase: Defendamos la verdad.pdf
 
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
 
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
 
Herramientas de Inteligencia Artificial.pdf
Herramientas de Inteligencia Artificial.pdfHerramientas de Inteligencia Artificial.pdf
Herramientas de Inteligencia Artificial.pdf
 
Introducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleIntroducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo Sostenible
 
Repaso Pruebas CRECE PR 2024. Ciencia General
Repaso Pruebas CRECE PR 2024. Ciencia GeneralRepaso Pruebas CRECE PR 2024. Ciencia General
Repaso Pruebas CRECE PR 2024. Ciencia General
 
RETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxRETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docx
 
Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.
 
Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arte
 
La Trampa De La Felicidad. Russ-Harris.pdf
La Trampa De La Felicidad. Russ-Harris.pdfLa Trampa De La Felicidad. Russ-Harris.pdf
La Trampa De La Felicidad. Russ-Harris.pdf
 
cortes de luz abril 2024 en la provincia de tungurahua
cortes de luz abril 2024 en la provincia de tungurahuacortes de luz abril 2024 en la provincia de tungurahua
cortes de luz abril 2024 en la provincia de tungurahua
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdad
 
La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.
 
Power Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptxPower Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptx
 
MAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grande
 
texto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticostexto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticos
 
Heinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoHeinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativo
 
Registro Auxiliar - Primaria 2024 (1).pptx
Registro Auxiliar - Primaria  2024 (1).pptxRegistro Auxiliar - Primaria  2024 (1).pptx
Registro Auxiliar - Primaria 2024 (1).pptx
 
Resolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdf
Resolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdfResolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdf
Resolucion de Problemas en Educacion Inicial 5 años ED-2024 Ccesa007.pdf
 
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIARAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
 

TRABAJO N° 1 DE SISTEMAS MECANIZADOS II

  • 1. REPÚBLICA BOLIVARIANA DE VENEZUELA MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN SUPERIOR CONVENIO NUEVO RETO PERIODO 2.010-2 Cátedra: Sistemas Mecanizados II. Mención: Informática FACILITADOR: PARTICIPANTES: Abreu, Ronmer C.I: V-11.833.207 Ana Sánchez Mata, Aryanna CI: V-17.039.511 Grillet, Yelitza CI: V-14.604.676 López, Levic CI: V-9.937.176 Ruiz Zaida S. C.I: V-13.336.968 Silva, Ynexa CI: V- 8.938.077 Suarez Abraham CI: V-17.339.449 Vásquez, Marcos CI: V-12.923.517 Ciudad Guayana, Enero de 2011.
  • 2. INTRODUCCION La UCP es la encargada de procesar la información que le llega al ordenador. El intercambio de información se tiene que hacer con los periféricos y la UCP. El ordenador es en realidad el Microprocesador, o sea, un conmutador, es el cerebro y razón de ser del ente denominado computadora. Todo lo demás que le rodea y se le es conectado son dispositivos mediante los cuales el cerebro se alimenta de energía e interactúa con el medio ambiente y por lo tanto con los usuarios.
  • 3. EVOLUCIÓN HISTÓRICA DE LAS COMPUTADORAS Evolución Electrónica. El desarrollo de la electrónica se produjo a partir de los inicios del siglo XCX, como consecuencia del núcleo de conocimientos acumulados sobre la electricidad en las décadas procedentes. Así, Thomas Alva Edison había observado, mientras ensayaba sus lámparas eléctricas incandescentes, un ennegrecimiento en su interior motivado por la emisión de electrones por efecto del calor. El fenómeno, no aprovechado prácticamente por Edison, recibió, no obstante, el nombre del investigador estadounidense. Posteriormente se confirmó que la electricidad se puede propagar a un en ausencia de un medio material transmisor. Estos acontecimientos confluyeron en los trabajos del ingeniero inglés John Ambrose Fleming, quien ideo una aplicación práctica del efecto Edison para la recepción de ondas de radio. Al calentar el polo negativo de un tubo vacío alimentando por una batería se estableció una corriente continua de electrones hacia el polo positivo, mientras que al cambiar la polaridad no se producía corriente. El dispositivo resultante, que solo permitía el paso de la corriente eléctrica en uno de los sentidos, recibió el nombre de válvula o diodo, mejorando posteriormente con la incorporación de un tercer electrodo que dio lugar a los tríodos. Estas lámparas, unidas a todos los demás tipos de tubos y válvulas de vacío, constituyeron los fundamentos de la moderna técnica electrónica. La industria electrónica experimento un importante desarrollo a partir de la segunda guerra mundial. En 1948, la invención del transistor componente constituido por un semiconductor que actúa al amplificar, modular y detectar oscilaciones
  • 4. eléctricas dotó a este sector de un artificio que sustituyo a la válvula o bulbo y permitió la fabricación de sistemas complejos, fundamento de las computadoras. El tamaño de los circuitos se redujo considerablemente y aun mayor fue esta disminución tras la aparición en la década de 1970 de los circuitos integrados, formados por elementos fijos.  Génesis Se inicia con los trabajos de varios destacados físicos, tales como Coulomb, Ampère, Gauss, Faraday, Henry y Maxwell. Estos trabajos quedaron recogidos, en 1865, en el marco formal de la teoría del electromagnetismo, formulada por Maxwell (deducida de las ecuaciones que llevan su nombre); teoría que, sin embargo, debió esperar hasta 1888 para su demostración. La mencionada demostración la realizó Hertz con la generación, en el laboratorio, de ondas electromagnéticas. Más tarde, en 1896, Marconi logró transmitir y detectar estas ondas (llamadas hertzianas) y abrió el camino a posteriores avances tan importantes como la televisión y las telecomunicaciones. El nacimiento de la electrónica, como rama de la ciencia, puede situarse en 1895, año en el que Lorentz postuló la existencia de partículas cargadas llamadas electrones, lo cual fue demostrado, experimentalmente, por Thomson dos años más tarde.Braun, en 1897, hizo pública su invención del primer tubo electrónico, rudimentario antecesor de los tubos de rayos catódicos que forman parte de los televisores.
  • 5.  Las Válvulas La electrónica no asumió las connotaciones tecnológicas que la caracterizan hasta los inicios del siglo XX, con la invención de los primeros componentes y, en particular en 1904, con la creación de la válvula termoiónica o diodo, por parte del físico británico John Ambrose Fleming. El diodo está compuesto esencialmente por dos electrodos metálicos contenidos en un tubo vacío, uno de los cuales (el cátodo) es calentado por un filamento. Debido a este calentamiento, el cátodo emite electrones (efecto termoiónico), que son acelerados hacia el otro electrodo (el ánodo) cuando este último se mantiene positivo respecto al cátodo. De tal forma que, intercalado en un circuito, el diodo muestra la importante propiedad de conducir corriente únicamente cuando la tensión que se le aplica tiene un determinado sentido. De esta manera, permite la rectificación de una corriente alterna. La corriente que se obtiene conectando un electrodoméstico a una de las tomas que hay en las paredes de las casas (corriente de red), tiene la característica de invertir continuamente el sentido con que circula por un circuito, y por tanto se llama corriente alterna (la corriente de red es alterna debido a la técnica de su producción, lo cual no compete a la electrónica. De todas maneras, en muchos casos, es necesario disponer de una corriente continua; es decir, que nunca invierta su sentido de circulación. Para esto se emplean unos determinados dispositivos que rectifican la corriente, transformándola de alterna a continua. En 1905, el físico estadounidense Lee De Forest, perfeccionando el invento de Fleming, creó el triodo. El aporte de Forest consistió en la introducción de un tercer elemento (la rejilla), cerca del cátodo. La proximidad entre el cátodo y la rejilla hace que, si a esta última se le
  • 6. aplica una pequeña tensión, influya sustancialmente sobre el flujo de electrones en el interior del tubo. Por tanto, el triodo actúa como amplificador (el nombre de audión, que originalmente dio De Forest a su invento, traduce el intento de aplicar esta característica a las señales de sonido).El invento de los dispositivos mencionados proporcionó la base tecnológica para el rápido desarrollo de las radiocomunicaciones. Para 1912 en los Estados Unidos se constituyó una asociación de radiotécnicos. Allí mismo también se construyó, en 1920, la primera emisora de radio comercial. En las décadas de 1920 y 1930 se introdujeron mejoras a los tubos electrónicos originarios (que culminaron con la introducción del pentodo), aumentando su flexibilidad y su campo de aplicaciones. Entre otras cosas, se hizo posible la invención de la televisión (1930) y de la radio de modulación de frecuencia (1933).Los tubos de vacío dieron paso a una importante aplicación, como fue la realización de los primeros calculadores electrónicos en los años siguientes de la Segunda Guerra Mundial. Mientras tanto, físicos como Block, Schottky, Sommerfeld, Winger y otros realizaban excelentes progresos en el estudio de una importante clase de sustancias sólidas: los semiconductores. En 1945 se creó un grupo de trabajo, compuesto por físicos teóricos y experimentales, un químico y un ingeniero electrónico, en los Bell Telephone Laboratories, para encontrar una alternativa al empleo de los tubos electrónicos en las telecomunicaciones. Ciertamente los tubos presentan inconvenientes, entre los cuales se cuenta una escasa fiabilidad debida a sus elevadas temperaturas de funcionamiento. En 1947 los físicos John Bardeen, Walter Brattain y William Schockley obtuvieron un efecto de amplificación en un dispositivo compuesto por dos sondas de oro prensadas sobre un cristal de germanio (un semiconductor): nacía así el transistor, que actualmente es el elemento fundamental de todo dispositivo electrónico (en 1965 estos físicos recibieron el Premio Nóbel).Más tarde, el primer ejemplar fue
  • 7. perfeccionado por Schockley con la introducción del transistor de unión, totalmente de material semiconductor, gracias a los progresos efectuados por los laboratorios Bell en la obtención de materiales de base (germanio y silicio) con un elevado grado de pureza. La comercialización del transistor en 1951 sentó las bases para el desarrollo cualitativo y cuantitativo de la tecnología electrónica en la segunda mitad del siglo. El transistor proporcionó las mismas funcionalidades del tríodo, siendo más pequeño, eficiente, fiable, económico y duradero. Esto permitió la existencia de una gama de aplicaciones antes impensables y la reducción de costos y del tamaño de los dispositivos electrónicos de uso común (radio, televisión, etc.), abriéndose así el camino hacia el fenómeno de la electrónica de consumo.La aparición del transistor también proporcionó un gran impulso al desarrollo de los ordenadores. En 1959 la IBM presentó el primer ordenador (el 7090) de estado sólido, es decir, con transistores. En la actualidad, los componentes con semiconductor como el transistor, han sustituido casi por completo a los tubos de vacío. Estos últimos únicamente se emplean en algunas aplicaciones particulares, en las que hacen parte microondas, o con tensiones de funcionamiento muy altas.  Los Circuitos Integrados Una tercera parte de la evolución de la electrónica se abrió a finales de los años cincuenta con la introducción del circuito integrado por parte de Kilby, de la Texas Instrument, y de Noyce y Moore, de la Fairchild Semiconductor Company. La idea fue incluir un circuito completo en una sola pastilla de semiconductor: el Chip, y hacer de las conexiones entre los dispositivos parte integrante de su proceso de producción, reduciendo así las dimensiones, peso y el costo con relación al número de elementos activos.
  • 8. El desarrollo de la microelectrónica, como se denomina la electrónica de los circuitos integrados es impresionante. A partir de su comercialización (1961), el número máximo de componentes integrados en un chip se duplicó cada año desde los 100 iniciales. En la segunda mitad de los años setenta, al introducirse la integración a gran escala (VLSI) y superar los 10.000 componentes, se ingresó en la época actual, en la que es normal encontrar varios millones de componentes integrados en un chip muy pequeño, por ejemplo en los microprocesadores de los ordenadores personales. Generaciones de las Computadoras.  Generación Cero (1942 - 1945) Aparecieron los primeros ordenadores analógicos: comenzaron a construirse a principios del siglo XX los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se calculaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. La generación cero que abarcó la década de la segunda guerra mundial un equipo de científicos y matemáticos crearon lo que se considera el primer ordenador digital totalmente eléctrico: EL COLOSSUS, este incorporaba 1500 válvulas o tubos de vacío y era ya operativo. Fue utilizado por el equipo dirigido por Alan Turíng para decodificar los mensajes de radio cifrado de los Alemanes.  Primera Generación (1951 a 1958) Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas
  • 9. en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y generaban más calor que los modelos contemporáneos. Eckert y Mauchly contribuyeron al desarrollo de computadoras de la 1era Generación formando una compañía privada y construyendo UNIVAC I, que el Comité del censo utilizó para evaluar el censo de 1950. La IBM tenía el monopolio de los equipos de procesamiento de datos a base de tarjetas perforadas y estaba teniendo un gran auge en productos como rebanadores de carne, básculas para comestibles, relojes y otros artículos; sin embargo no había logrado el contrato para el Censo de 1950. Comenzó entonces a construir computadoras electrónicas y su primera entrada fue con la IBM 701 en 1953. Después de un lento pero buen comienzo la IBM 701 se convirtió en un producto comercialmente viable. Sin embargo en 1954 fue introducido el modelo IBM 650, el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. La administración de la IBM asumió un gran riesgo y estimó una venta de 50 computadoras. Este número era mayor que la cantidad de computadoras instaladas en esa época en Estados Unidos de Norte América de hecho la IBM instaló 1000 computadoras. El resto es historia. Aunque caras y de uso limitado las computadoras fueron aceptadas rápidamente por las Compañías privadas y de Gobierno. A la mitad de los años 50 IBM y Remington Rand se consolidaban como líderes en la fabricación de computadoras.
  • 10.  Segunda Generación (1959-1964) El invento del transistor hizo posible una nueva Generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones. Los programas de computadoras también mejoraron. El COBOL (Common Busines Oriented Languaje) desarrollado durante la 1era generación estaba ya disponible comercialmente, este representa uno de los mas grandes avances en cuanto a portabilidad de programas entre diferentes computadoras; es decir, es uno de los primeros programas que se pueden ejecutar en diversos equipos de computo después de un sencillo procesamiento de compilación. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. Grace Murria Hooper (1906-1992), quien en 1952 había inventado el primer compilador fue una de las principales figuras de CODASYL (Comité on Data SYstems Languages), que se encargo de desarrollar el proyecto COBOL El escribir un programa ya no requería entender plenamente el hardware de la computación. Las computadoras de la 2da Generación eran sustancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general, las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad.
  • 11. La marina de Estados Unidos de Norte América utilizó las computadoras de la Segunda Generación para crear el primer simulador de vuelo. (Whirlwind I). HoneyWell se colocó como el primer competidor durante la segunda generación de computadoras. Burroughs, Univac, NCR, CDC, HoneyWell, los más grandes competidores de IBM durante los años sesenta (60) se conocieron como el grupo BUNCH. Algunas de las computadoras que se construyeron ya con transistores fueron la IBM 1401, las Honeywell 800 y su serie 5000, UNIVAC M460, las IBM 7090 y 7094, NCR 315, las RCA 501 y 601, Control Data Corporatión con su conocido modelo CDC16O4, y muchas otras, que constituían un mercado de gran competencia, en rápido crecimiento. En esta generación se construyen las supercomputadoras Remington Rand UNIVAC LARC, e IBM Stretch (1961).  Tercera Generación (1964-1971) Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación, Mini-computadora. Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura, las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes. El descubrimiento en 1958 del primer Circuito Integrado (Chip) por el ingeniero Jack S. Kilby (nacido en 1928) de Texas Instruments, así como los trabajos que realizaba, por su parte, el Dr. Robert Noyce de Fairchild Semicon ductors, acerca de los circuitos integrados, dieron origen a la tercera generación de computadoras.
  • 12. Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos. La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos. IBM marca el inicio de esta generación, cuando el 7 de abril de 1964 presenta la impresionante IBM 360, con su tecnología SLT (Solid Logic Technology). Esta máquina causó tal impacto en el mundo de la computación que se fabricaron más de 30000, al grado que IBM llegó a conocerse como sinónimo de computación. También en ese año, Control Data Corporation presenta la supercomputadora CDC 6600, que se consideró como la más poderosa de las computadoras de la época, ya que tenía la capacidad de ejecutar unos 3.000.000 de instrucciones por segundo (mips). Se empiezan a utilizar los medios magnéticos de almacenamiento, como cintas magnéticas de 9 canales, enormes discos rígidos, etc. Algunos sistemas todavía usan las tarjetas perforadas para la entrada de datos, pero las lectoras de tarjetas ya alcanzan velocidades respetables. Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación).
  • 13. Por ejemplo la computadora podía estar calculando la nomina y aceptando pedidos al mismo tiempo. Minicomputadoras, Con la introducción del modelo 360 IBM acaparó el 70% del mercado, para evitar competir directamente con IBM la empresa Digital Equipment Corporation (DEC) redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de comprar y de operar que las computadoras grandes, las minicomputadoras se desarrollaron durante la segunda generación pero alcanzaron sumador auge entre 1960 y 70.  Cuarta Generación (1971 a 1981) Microprocesador, Chips de Memória, Microminiaturización. Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales (PC). En 1971, intel Corporation, que era una pequeña compañía fabricante de semi-conductores ubicada en Silicon Valley, presenta el primer microprocesador o Chip de 4 bits, que en un espacio de aproximadamente 4 x 5 mm contenía 2 250 transistores. Este primer microprocesador fue bautizado como el 4004. Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de San Francisco, que por su gran producción de silicio, a partir de 1960 se convierte en una zona totalmente industrializada donde se asienta una gran cantidad de empresas fabricantes de semiconductores y microprocesadores. Actualmente es conocida en todo el mundo como la región más importante para las industrias relativas a la computación: creación de programas y fabricación de componentes.
  • 14. Actualmente ha surgido una enorme cantidad de fabricantes de microcomputadoras o computadoras personales, que utilizando diferentes estructuras o arquitecturas se pelean literalmente por el mercado de la computación, el cual ha llegado a crecer tanto que es uno de los más grandes a nivel mundial; sobre todo, a partir de 1990, cuando se logran sorprendentes avances en Internet. Esta generación de computadoras se caracterizó por grandes avances tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las primeras microcomputadoras, entre las cuales, las más famosas fueron las fabricadas por Apple Computer, Radio Shack y Commodore Busíness Machines. IBM se integra al mercado de las microcomputadoras con su Personal Computer, de donde les ha quedado como sinónimo el nombre de PC, y lo más importante; se incluye un sistema operativo estandarizado, el MS- DOS (MicroSoft Disk Operating System).  Las Principales Tecnologías que Dominan este Mercado son: IBM y sus compatibles llamadas clones, fabricadas por infinidad de compañías con base en los procesadores 8088, 8086, 80286, 80386, 80486, 80586 o Pentium, Pentium II, Pentium III y Celeron de Intel y en segundo término Apple Computer, con sus Macintosh y las Power Macintosh, que tienen gran capacidad de generación de gráficos y sonidos gracias a sus poderosos procesadores Motorola serie 68000 y PowerPC, respectivamente. Este último microprocesador ha sido fabricado utilizando la tecnología RISC (Reduced Instruc tion Set Computing), por Apple Computer Inc., Motorola Inc. e IBM Corporation, conjuntamente. Los sistemas operativos han alcanzado un notable desarrollo, sobre todo por la posibilidad de generar gráficos a gran des velocidades, lo cual permite utilizar las interfaces gráficas de usuario (Graphic User Interface, GUI), que son pantallas con ventanas, iconos (figuras) y menús
  • 15. desplegables que facilitan las tareas de comunicación entre el usuario y la computadora, tales como la selección de comandos del sistema operativo para realizar operaciones de copiado o formato con una simple pulsación de cualquier botón del ratón (mouse) sobre uno de los iconos o menús.  Quinta Generación y la Inteligencia Artificial (1982-1989) Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la cuarta y quinta generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha. Siguiendo la pista a los acontecimientos tecnológicos en materia de computación e informática, podemos puntualizar algunas fechas y características de lo que podría ser la quinta generación de computadoras. Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación (software) como CADI CAM, CAE, CASE, inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la década de los años ochenta se establecieron las bases de lo que se puede conocer como quinta generación de computadoras. Hay que mencionar dos grandes avances tecnológicos, que sirvan como parámetro para el inicio de dicha generación: la creación en 1982 de la primera supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda en 1976 la Cray Research Inc.; y el anuncio por parte del gobierno japonés del proyecto "quinta generación",
  • 16. que según se estableció en el acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar en 1992. El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la capacidad de trabajar simultáneamente con varios microprocesadores. Aunque en teoría el trabajo con varios microprocesadores debería ser mucho más rápido, es necesario llevar a cabo una programación especial que permita asignar diferentes tareas de un mismo proceso a los diversos microprocesadores que intervienen. También se debe adecuar la memoria para que pueda atender los requerimientos de los procesadores al mismo tiempo. Para solucionar este problema se tuvieron que diseñar módulos de memoria compartida capaces de asignar áreas de caché para cada procesador. Según este proyecto, al que se sumaron los países tecnológicamente más avanzados para no quedar atrás de Japón, la característica principal sería la aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes. También tienen la capacidad de comunicarse con un lenguaje natural e irán adquiriendo la habilidad para tomar decisiones con base en procesos de aprendizaje fundamentados en sistemas expertos e inteligencia artificial. El almacenamiento de información se realiza en dispositivos magneto ópticos con capacidades de decenas de Gigabytes; se establece el DVD (Digital VideoDisk o Digital Versatile Disk) como estándar para el almacenamiento de video y sonido; la capacidad de almacenamiento de datos crece de manera exponencial posibilitando guardar más información en una de estas unidades, que toda la que había en la Biblioteca de Alejandría. Los componentes de los microprocesadores actuales utilizan
  • 17. tecnologías de alta y ultra integración, denominadas VLSI (Very Large Sca/e Integration) y ULSI (Ultra Lar- ge Scale Integration). Sin embargo, independientemente de estos "milagros" de la tecnología moderna, no se distingue la brecha donde finaliza la quinta y comienza la sexta generación. Personalmente, no hemos visto la realización cabal de lo expuesto en el proyecto japonés debido al fracaso, quizás momentáneo, de la inteligencia artificial. El único pronóstico que se ha venido realizando sin interrupciones en el transcurso de esta generación, es la conectividad entre computadoras, que a partir de 1994, con el advenimiento de la red Internet y del World Wide Web, ha adquirido una importancia vital en las grandes, medianas y pequeñas empresas y, entre los usuarios particulares de computadoras. El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia Humana" y con la capacidad de razonar para encontrar soluciones. Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones.  Sexta Generación 1990 Hasta la Fecha Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas, debemos por lo menos, esbozar las características que deben tener las computadoras de esta
  • 18. generación. También se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo/Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera. ESTRUCTURA INTERNA DE UN COMPUTADOR Componentes Básicos de un Computador Un Computador es un sistema compuesto de cinco elementos diferenciados: una CPU (unidad central de Procesamiento), dispositivo de entrada, dispositivos de almacenamiento, dispositivos de salida y una red de comunicaciones, denominada bus, que enlaza todos los elementos del sistema y conecta a éste con el mundo exterior.  UCP o CPU (Central Processing Unit) Es la unidad central de procesamiento o procesador que interpreta y lleva a cabo las instrucciones de los programas, efectúa manipulaciones aritméticas y lógicas con los datos y se comunica con las demás partes del sistema. Una UCP es una colección compleja de circuitos electrónicos.
  • 19. Cuando se incorporan todos estos circuitos en un chip de silicio, a este chip se le denomina microprocesador. La UCP y otros chips y componentes electrónicos se ubican en un tablero de circuitos o tarjeta madre.  Los Factores Relevantes de los Chips de UCP son:  Compatibilidad: No todo el software es compatible con todas las UCP. En algunos casos se pueden resolver los problemas de compatibilidad usando software especial.  Velocidad: La velocidad de una computadora está determinada por la velocidad de su reloj interno, el dispositivo cronométrico que produce pulsos eléctricos para sincronizar las operaciones de la computadora. Las computadoras se describen en función de su velocidad de reloj, que se mide en mega hertz. La velocidad también está determinada por la arquitectura del procesador, es decir el diseño que establece de qué manera están colocados en el chip los componentes individuales de la CPU. Desde la perspectiva del usuario, el punto crucial es que "más rápido" casi siempre significa "mejor".  El Procesador: El chip más importante de cualquier placa madre es el procesador. Sin el la computadora no podría funcionar. A menudo este componente se determina CPU, que describe a la perfección su papel dentro del sistema. El procesador es realmente el elemento central del proceso de procesamiento de datos. Los procesadores se describen en términos de su tamaño de palabra, su velocidad y la capacidad de su RAM asociada.  Tamaño de la Palabra: Es el número de bits que se maneja como una unidad en un sistema de computación en particular.
  • 20.  Velocidad del Procesador: Se mide en diferentes unidades según el tipo de computador:  MHz (Megahertz): Para microcomputadoras. Un oscilador de cristal controla la ejecución de instrucciones dentro del procesador. La velocidad del procesador de un micro se mide por su frecuencia de oscilación o por el número de ciclos de reloj por segundo. El tiempo transcurrido para un ciclo de reloj es 1/frecuencia.  MIPS (Millones de instrucciones por segundo): Para estaciones de trabajo, minis y macro-computadoras. Por ejemplo una computadora de 100 MIPS puede ejecutar 100 millones de instrucciones por segundo. FLOPS (floating point operations per second, operaciones de punto flotante por segundo): Para las supercomputadoras. Las operaciones de punto flotante incluyen cifras muy pequeñas o muy altas. Hay súper computadoras para las cuales se puede hablar de GFLOPS (Gigaflops, es decir 1.000 millones de FLOPS).  Capacidad de la RAM: Se mide en términos del número de bytes que puede almacenar. Habitualmente se mide en KB y MB, aunque ya hay computadoras en las que se debe hablar de GB.  Dispositivos De Entrada  El Teclado: Es un dispositivo periférico de entrada, que convierte la acción mecánica de pulsar una serie de pulsos eléctricos codificados que permiten identificarla. Las teclas que lo constituyen sirven para entrar caracteres alfanuméricos y comandos a una computadora. En un teclado se puede distinguir a cuatro subconjuntos de teclas:
  • 21. o Teclado Alfanumérico: Con las teclas dispuestas como en una maquina de escribir. o Teclado Numérico: (ubicado a la derecha del anterior) con teclas dispuestas como en una calculadora. o Teclado de Funciones: (desde F1 hasta F12) son teclas cuya función depende del programa en ejecución. o Teclado de Cursor: para ir con el cursor de un lugar a otro en un texto. El cursor se mueve según el sentido de las flechas de las teclas, ir al comienzo de un párrafo (" HOME "), avanzar / retroceder una pagina ("PAGE UP/PAGE DOWN "), eliminar caracteres ("delete"), etc. Cada tecla tiene su contacto, que se encuentra debajo de ella, al oprimirla se" Cierra" y al soltarla se "Abre", de esta manera constituye una llave "si – no". Debajo del teclado existe una matriz con pistas conductoras que puede pensarse en forma rectangular, siendo en realidad de formato irregular. Si no hay teclas oprimidas, no se toca ningún conductor horizontal con otro vertical. Las teclas están sobre los puntos de intersección de las líneas conductoras horizontales y verticales. Cuando se pulsa una tecla. Se establece un contacto eléctrico entre la línea conductora vertical y horizontal que pasan por debajo de la misma.  El Mouse O Ratón: El ratón o Mouse informático es un dispositivo señalador o de entrada, recibe esta denominación por su apariencia. Para poder indicar la trayectoria que recorrió, a medida que se desplaza, el Mouse debe enviar al computador señales eléctricas binarias que permitan reconstruir su trayectoria, con el fin que la misma sea repetida por una flecha en el monitor. Para ello el Mouse debe realizar dos funciones:
  • 22. o Conversión Analógica-Digital: Esta genera por cada fracción de milímetro que se mueve, uno o más pulsos eléctricos. o Port Serie: Dichos pulsos se envían hacia la interfaz a la cual esta conectado el valor de la cuenta, junto con la información acerca de sí se pulsa alguna de sus dos o tres teclas ubicada en su parte superior.  Existen dos Tecnologías Principales en Fabricación de Ratones: o Ratones Mecánicos: Estos constan de una bola situada en su parte inferior. La bola, al moverse el ratón, roza unos contactos en forma de rueda que indican el movimiento del cursor en la pantalla del sistema informático. o Ratones Ópticos: Estos tienen un pequeño haz de luz láser en lugar de la bola rodante de los mecánicos. Un censor óptico situado dentro del cuerpo del ratón detecta el movimiento del reflejo al mover el ratón sobre el espejo e indica la posición del cursor en la pantalla de la computadora.  El Escáner O Digitalizador De Imágenes: Son periféricos diseñados para registrar caracteres escritos, o gráficos en forma de fotografías o dibujos, impresos en una hoja de papel facilitando su introducción a la computadora convirtiéndolos en información binaria comprensible para ésta. El funcionamiento de un escáner es similar al de una fotocopiadora. Se coloca una hoja de papel que contiene una imagen sobre una superficie de cristal transparente, bajo el cristal existe una lente especial que realiza un barrido de la imagen existente en el papel; al realizar el barrido, la información existente en la hoja de papel es convertida en una sucesión de información en forma de unos y ceros que se introducen en la
  • 23. computadora. En fin, que dejándonos de tanto formalismo sintáctico, en el caso que nos ocupa se trata de coger una imagen (fotografía, dibujo o texto) y convertirla a un formato que podamos almacenar y modificar con el ordenador. Realmente un escáner no es ni más ni menos que los ojos del ordenador. Los escáneres captaban las imágenes únicamente en blanco y negro o, como mucho, con un número muy limitado de matices de gris, entre 16 y 256. Posteriormente aparecierón escáner que podían captar color, aunque el proceso requería tres pasadas por encima de la imagen, una para cada color primario (rojo, azul y verde). Hoy en día la práctica totalidad de los escáner captan hasta 16,7 millones de colores distintos en una única pasada, e incluso algunos llegan hasta los 68.719 millones de colores. En todos los ordenadores se utiliza lo que se denomina sistema binario, que es un sistema matemático en el cual la unidad superior no es el 10 como en el sistema decimal al que estamos acostumbrados, sino el 2. Un BIT cualquiera puede, por tanto, tomar 2 valores, que pueden representar colores (blanco y negro, por ejemplo); si en vez de un BIT tenemos 8, los posibles valores son 2 elevado a 8 = 256 colores; si son 16 bits, 2 elevado a 16 = 65.536 colores; si son 24 bits, 2 elevado a 24 = 16.777216 colores, una imagen a 24 bits de color" es una imagen en la cual cada punto puede tener hasta 16,7 millones de colores distintos; esta cantidad de colores se considera suficiente para casi todos los usos normales de una imagen, por lo que se le suele denominar color real.  Dispositivos de Almacenamiento.  Disco Duro: Este esta compuestos por varios platos, es decir, varios discos de material magnético montados sobre un eje central sobre el que se mueven. Para leer y escribir datos en estos platos
  • 24. se usan las cabezas de lectura / escritura que mediante un proceso electromagnético codifican / decodifican la información que han de leer o escribir. La cabeza de lectura / escritura en un disco duro está muy cerca de la superficie, de forma que casi da vuelta sobre ella, sobre el colchón de aire formado por su propio movimiento. Debido a esto, están cerrados herméticamente, porque cualquier partícula de polvo puede dañarlos. Este dividen en unos círculos concéntricos cilíndricos (coincidentes con las pistas de los disquetes), que empiezan en la parte exterior del disco (primer cilindro) y terminan en la parte interior (ultimo). Asimismo, estos cilindros se dividen en sectores, cuyo numero esta determinado por el tipo de disco y su formato, siendo todos ellos de un tamaño fijo en cualquier disco. Cilindros como sectores se identifican con una serie de números que se les asigna, empezando por el 1, pues el numero 0 de cada cilindro se reservan para propósitos de identificación mas que para almacenamientos de datos. Estos escritos / leídos en el disco deben ajustarse al tamaño fijado del almacenamiento de los sectores. Habitualmente, los sistemas de discos duros contienen mas de una unidad en su interior, por lo que el numero de caras puede ser mas de dos. Estas se identifican con un número, siendo el 0 para la primera. En general su organización es igual a los disquetes. La capacidad del disco resulta de multiplicar el número de caras por el de pistas por cara y por el de sectores por pista, al total por el número de bytes por sector.  Diskettes 3 ½: Son disco de almacenamiento de alta densidad de 1,44 MB, este presenta dos agujeros en la parte inferior del mismo, uno para proteger al disco contra escritura y el otro solo para diferenciarlo del disco de doble densidad.
  • 25.  Maletón-Ópticos De 5,25: Este se basa en la misma tecnología que sus hermanos pequeños de 3,5", su ventajas: Gran fiabilidad y durabilidad de los datos a la vez que una velocidad razonablemente elevada Los discos van desde los 650 MB hasta los 5,2 GB de almacenamiento, o lo que es lo mismo: desde la capacidad de un solo CD-ROM hasta la de 8.  Dispositivos de Salida.  Las Impresoras: Esta es la que permite obtener en un soporte de papel una ¨hardcopy¨: copia visualizable, perdurable y transportable de la información procesada por un computador. Las primeras impresoras nacieron muchos años antes que el PC e incluso antes que los monitores, siendo durante años el método más usual para presentar los resultados de los cálculos en aquellos primitivos ordenadores, todo un avance respecto a las tarjetas y cintas perforadas que se usaban hasta entonces.  La velocidad de una impresora se suele medir por parámetros: o Ppm: Páginas por minuto que es capaz de imprimir. o Cps: Caracteres (letras) por segundo que es capaz de imprimir. o Ppp: puntos por pulgada (cuadrada) que imprime una impresora.  Tipo De Impresoras o Impacto Por Matriz De Aguja O Punto: Fueron las primeras que surgieron en el mercado. Se las denomina "de impacto" porque imprimen mediante el impacto de unas pequeñas piezas (la matriz de impresión) sobre una cinta impregnada en tinta y matriz de aguja por que su cabezal móvil de impresión contiene
  • 26. una matriz de agujas móviles en conductos del mismo, dispuestas en una columna (de 9 agujas por ejemplo) o más columnas. Para escribir cualquier cosa en color se tiene que sustituir la cinta de tinta negra por otro con tintas de los colores básicos (generalmente magenta, cyan y amarillo). Este método tiene el inconveniente de que el texto negro se fabricaba mezclando los tres colores básicos, lo que era más lento, más caro en tinta y deja un negro con un cierto matiz verdoso. o Chorro O Inyección De Tinta: Se le denomina "inyección" porque la tinta suele ser impulsada hacia el papel por unos mecanismos que se denominan inyectores, mediante la aplicación de una carga eléctrica que hace saltar una minúscula gota de tinta por cada inyector. Esta destaca por la utilización del color, incorporan soporte para el uso simultáneo de los cartuchos de negro y de color. La resolución de estas impresoras es en teoría bastante elevada, hasta de 1.440 Ppp, pero en realidad la colocación de los puntos de tinta sobre el papel resulta bastante deficiente, por lo que no es raro encontrar que el resultado de una impresora láser de 300 Ppp sea mucho mejor que el de una de tinta del doble de resolución. Por otra parte, suelen existir papeles especiales, mucho más caros que los clásicos folios de papelería, para alcanzar resultados óptimos a la máxima resolución o una gama de colores más viva y realista. Este tipo de impresoras es utilizado generalmente por el usuario doméstico, además del oficinista que no necesita trabajar con papel continuo ni con reproducciones múltiples pero sí ocasionalmente con color (logotipos, gráficos, pequeñas imágenes, etc.) con una calidad aceptable. o Láser: Son las de mayor calidad del mercado, si entendemos por calidad la resolución sobre papel normal que se puede obtener, unos 600 Ppp reales. En ellas la impresión se consigue
  • 27. mediante un láser que va dibujando la imagen electrostáticamente en un elemento llamado tambor que va girando hasta impregnarse de un polvo muy fino llamado tonel (como el de fotocopiadoras) que se le adhiere debido a la carga eléctrica. Por último, el tambor sigue girando y se encuentra con la hoja, en la cual imprime el tonel que formará la imagen definitiva. Las láser son muy resistentes, mucho más rápidas y mucho más silenciosas que las impresoras matriciales o de tinta, y aunque la inversión inicial en una láser es mayor que en una de las otras, el tonel sale más barato a la larga que los cartuchos de tinta, por lo que a la larga se recupera la inversión. Por todo ello, las láser son idóneas para entornos de oficina con una intensa actividad de impresión, donde son más importantes la velocidad, la calidad y el escaso coste de mantenimiento que el color o la inversión inicial.  El Monitor: Es la pantalla en la que se ve la información suministrada por el ordenador. En el caso más habitual se trata de un aparato basado en un tubo de rayos catódicos (CRT) como el de los televisores, mientras que en los portátiles es una pantalla plana de cristal líquido (LCD). La resolución se define como el número de puntos que puede representar el monitor por pantalla, en horizontal x vertical. Así, un monitor cuya resolución máxima sea de 1024x768 puntos puede representar hasta 768 líneas horizontales de 1024 puntos cada una, probablemente además de otras resoluciones inferiores, como 640x480 u 800x600. Cuan mayor sea la resolución de un monitor, mejor será la calidad de la imagen en pantalla, y mayor será la calidad (y por consiguiente el precio) del monitor.  Red De Comunicaciones
  • 28. Un sistema computacional es un sistema complejo que puede llegar a estar constituido por millones de componentes electrónicos elementales. Esta naturaleza multinivel de los sistemas complejos es esencial para comprender tanto su descripción como su diseño. En cada nivel se analiza su estructura y su función en el sentido siguiente:  Estructura: La forma en que se interrelacionan las componentes. Por su particular importancia se considera la estructura de interconexión tipo bus. EI bus representa básicamente una serie de cables mediante los cuales pueden cargarse datos en la memoria y desde allí transportarse a la CPU. Por así decirlo es la autopista de los datos dentro del PC ya que comunica todos los componentes del ordenador con el microprocesador. El bus se controla y maneja desde la CPU.  Función: La operación de cada componente individual como parte de la estructura El Microprocesador Es un circuito electrónico que actúa como Unidad Central de Proceso de un ordenador, proporcionando el control de las operaciones de cálculo. Se identifica rápido en una tarjeta madre porque esta acoplado a la misma en un socket, tiene forma cuadrada con un pequeño ventilador arriba y generan mucho calor. El microprocesador es el elemento más importante del computador, es el cerebro de la máquina, se encarga de controlar todo el sistema. Un parámetro importante es la velocidad del procesador que se mide en mega-herzios (Mhz), es decir cantidad de “ordenes” por segundo que pueden ser ejecutadas por el procesador.
  • 29. Parte Interna  Unidad Aritmética Lógica (UAL) Conocida como ALU (siglas en inglés de arithmetic logic unit), Es un circuito digital que calcula operaciones aritméticas (como suma, resta, multiplicación, etc.) y operaciones lógicas (si, y, o, no) o (and, or, not), entre dos números. En el computar, unidad de la lógica aritmética (ALU) es un circuito digital que realiza operaciones aritmética y lógica. El ALU es un bloque de edificio fundamental de la unidad central de proceso (CPU) de una computadora. Muchos tipos de circuitos electrónicos necesitan realizar algún tipo de operación aritmética, así que incluso el circuito dentro de un reloj digital tendrá una ALU minúscula que se mantiene sumando 1 al tiempo actual, y se mantiene comprobando si debe activar el pitido del temporizador, etc. Por mucho, los más complejos circuitos electrónicos son los que están construidos dentro de los chips de microprocesadores modernos como el Intel Core i7 o el Phenom II. Por lo tanto, estos procesadores tienen dentro de ellos un ALU muy complejo y potente. De hecho, un microprocesador moderno (y los mainframes) pueden tener múltiples núcleos, cada núcleo con múltiples unidades de ejecución, cada una de ellas con múltiples ALU.  Sistemas Numéricos: Una ALU debe procesar números usando el mismo formato que el resto del circuito digital. Para los procesadores modernos, este formato casi siempre es la representación del número binario de complemento a dos. Las
  • 30. primeras computadoras usaron una amplia variedad de sistemas de numeración, incluyendo complemento a uno, formato signo- magnitud, e incluso verdaderos sistemas decimales, con diez tubos por dígito. Las ALU para cada uno de estos sistemas numéricos mostraban diferentes diseños, y esto influenció la preferencia actual por el complemento a dos, debido a que ésta es la representación más simple, para el circuito electrónico de la ALU, para calcular adiciones y sustracciones, etc.  Decodificador de Instrucciones Allí se interpretan las instrucciones que van llegando y que componen el programa. Aquí entra en juego los compiladores e intérpretes. En si interpreta y pone en práctica la instrucción. El registro de instrucción (IR) mantiene la instrucción actual. La PC sostiene la dirección en la memoria de la siguiente instrucción a ser ejecutada.  Ejecutar la Instrucción: Del registro de instrucción, los datos que forman la instrucción son descifrados por la unidad de control. Esto entonces pasa la información descifrada como una secuencia de señales de control a las unidades de función relevantes de la CPU para realizar las acciones requeridas por la instrucción como la lectura de valores de registros, pasándolos a la unidad Aritmética lógica (ALU) para añadirlos juntos y escribiendo el resultado de vuelta al registro. Una señal de condición es enviada de regreso a la unidad de control por ALU si está implicado.  Bloque de Registros Los registros son celdas de memoria en donde queda almacenado un dato temporalmente. Existe un registro especial llamado indicadores, estado o flags, que refleja el estado operativo del Microprocesador. El
  • 31. almacenamiento temporal proporciona el área de almacenamiento requerido para los dispositivos relativamente lentos respecto a la UCP, que es mucho más rápida. También proporciona el área que hace posible al bloqueo de registros.  Bus de Datos Es el encargado de transmitir los caracteres y es aquel por donde la CPU recibe datos del exterior o por donde la CPU manda datos al exterior. Es un sistema digital que transfiere datos entre los componentes de una computadora o entre computadoras. Está formado por cables o pistas en un circuito impreso, dispositivos como resistencias y condensadores además de circuitos integrados. Es el conjunto de líneas por donde se transmiten los datos. A los microprocesadores se les suele dividir en función del número de bits que forman el dato. Inicialmente eran de 4 bits; después se fueron fabricando circuitos con mayor capacidad como los de 8, 16, 32 y 64 bits. Esta evolución ha sido forzada por la informática, que cada vez necesita unas prestaciones mayores. Industrialmente se siguen utilizando los de 8 y 16 bits.  Bus de Direcciones Aquel, que es el utilizado por la CPU para mandar el valor de la dirección de memoria o de un periférico externo al que la CPU quiere acceder. Por el se selecciona la posición de memoria o el dispositivo al que se va a escribir o leer los datos. La dimensión o número de líneas que lo componen, depende del microprocesador que utilicemos. El bus de direcciones es un canal del microprocesador totalmente independiente del bus de datos donde se establece la dirección de memoria del dato en tránsito.
  • 32. El bus de dirección consiste en el conjunto de líneas eléctricas necesarias para establecer una dirección. La capacidad de la memoria que se puede direccionar depende de la cantidad de bits que conforman el bus de direcciones, siendo 2n (dos elevado a la ene) el tamaño máximo en bytes del banco de memoria que se podrá direccionar con n líneas. Por ejemplo, para direccionar una memoria de 256 bytes, son necesarias al menos 8 líneas, pues 28 = 256. Adicionalmente pueden ser necesarias líneas de control para señalar cuando la dirección está disponible en el bus. Esto depende del diseño del propio bus.  Bus de Control Es aquel que usa una serie de líneas por las que salen o entran diversas señales de control utilizadas para mandar acciones a otras partes del ordenador. Es el encargado de conducir las señales IRQ de solicitud de interrupción que hacen los dispositivos al microprocesador. El bus de control además de datos y direcciones, hay otras líneas que sirve para controlar el sistema. Una de esas líneas es la de reset (inicialización del microprocesador).  Terminales de Alimentación Es por donde se reciben los voltajes desde la fuente de alimentación del ordenador. Los terminales de alimentación son los que se colocan en los extremos del cable que trae la alimentación de la batería hasta el equipo; por regla general son más gruesos que los de audio, ya que deberán soportar una carga más elevada. Estos terminales por lo general tienen un aro metálico en el extremo, el cual queda en el centro del tornillo para hacer una fijación perfecta. También podemos encontrar del mismo estilo que los de audio pero preparados para corriente eléctrica.
  • 33.  Reloj del Sistema Es un circuito oscilador o cristal de cuarzo, que oscila varios millones de veces por segundo. Es el que le marca el compás, el que le dicta a qué velocidad va a ejecutarse cualquier operación. Uno de los factores a tener en cuenta al comprar un ordenador es su velocidad, que se mide en MHz. De hecho, esa velocidad es la del reloj del sistema, el "corazón".  El Reloj de una Computadora se Utiliza para dos Funciones Principales: o Para sincronizar las diversas operaciones que realizan los diferentes sub-componentes del sistema informático. o Para saber la hora. El reloj físicamente es un circuito integrado que emite una cantidad de pulsos por segundo, de manera constante. Al número de pulsos que emite el reloj cada segundo se llama Frecuencia del Reloj; dicha frecuencia se mide en Ciclos por Segundo, también llamados Hertzios, siendo cada ciclo un pulso del reloj. Como la frecuencia del reloj es de varios millones de pulsos por segundo se expresa habitualmente en Megaherzios. El reloj marca la velocidad de proceso de la computadora generando una señal periódica que es utilizada por todos los componentes del sistema informático para sincronizar y coordinar las actividades operativas, evitando el que un componente maneje unos datos incorrectamente o que la velocidad de transmisión de datos entre dos componentes sea distinta. Cuanto mayor sea la frecuencia del reloj mayor será la velocidad de proceso de la computadora y podrá realizar mayor cantidad de instrucciones elementales en un segundo. El rango de frecuencia de los microprocesadores oscila entre los 4,77 megaherzios del primer PC
  • 34. diseñado por IBM y los 200 megaherzios de las actuales computadoras basadas en los chips Intel Pentium Parte Externa  Disipador de Calor Es una estructura metálica (por lo general de aluminio) que va montado encima del Microprocesador para ayudarlo a liberar el calor. Es un disipador sencillo que aumentan el área de radiación, permitiendo que la energía salga rápidamente del sistema. También los hay con refrigeración líquida, por medio de circuitos cerrados. En los procesadores más modernos se aplica en la parte superior del procesador, una lámina metálica denominada IHS que va a ser la superficie de contacto del disipador para mejorar la refrigeración uniforme del die y proteger las resistencias internas de posible toma de contacto al aplicar pasta térmica. Varios modelos de procesadores, en especial, los Athlon XP, han sufrido cortocircuitos debido a una incorrecta aplicación de la pasta térmica.  FanCooler También conocidos como Electro-ventiladores; estos son unos pequeños ventiladores de color negro que van montados en el disipador de calor y a su vez en el Microprocesador, que permite enfriar el disipador de calor del Microprocesador y a este ultimo también. Por lo general giran entre 3500 y 4500 r.p.m. y trabajan a 12 Volts. Tipos de Microprocesadores
  • 35.  Según la Posición para Instalarlo  Horizontales: Tienen forma cuadrada con una ligera muesca en una de sus esquinas que indica el primer Pin. Por lo general van acompañados de un disipador de calor y un fancooler y se instalan de forma horizontal, de allí su nombre. Están presentes en equipos de la familia X86 que no vallan montados en el Slot1, sino directamente en el Socket de la tarjeta madre. Socket 3-5 para equipos 80-486,586,686, AMD y Cyrix; Socket 7 para equipos Pentium I, algunos AMD y Cyrix ; Socket 370 [2] FTPGA o PPGA para equipos Pentium III Intel Coopermine o algunos Celeron. Las velocidades varían desde 33 Mhz para 80-286, 200 Mhz para Pentium I, 1.1 Ghz para Celeron y Pentium III y 1.2 a 2 Ghz para algunos Pentium IV. La característica de Velocidad, Memoria Caché y Voltaje del Microprocesador casi siempre son indicadas por el fabricante en la parte frontal del Microprocesador.  Verticales: Se caracterizan porque están montados en una tarjeta electrónica con disipador de calor y fanCooler incorporado y se instalan verticalmente en un Slot parecido a una ranura de expansión. Las velocidades varían desde 233 Mhz para algunos Pentium II hasta 800 Mhz para Pentium III. La característica de Velocidad, Memoria Caché y Voltaje del Microprocesador casi siempre son indicadas por el fabricante en una de las partes laterales del Disipador de calor del Microprocesador.  Según sus Características Físicas  Microprocesadores de Slot.  Microprocesadores de Pastilla.
  • 36.  Microprocesador 4004 Aparece en 1971 gracias a tres ingenieros: Robert Noyce, Gordon Moore y Andrew Grove. Su Bus de datos era de 4 bits, un bus de direcciones multiplexado de 12 bits que gestionaba hasta 45 bytes y un set de instrucciones de 45. Estaba formado por 2300 transistores e integraba unas 1000 puertas lógicas, implementado todo en 24mm2 con tecnología PMOS y su formato era DIP (Dual Inline Package) cerámico de 16 pines. Su velocidad de proceso era de 60000 operaciones por segundo a una frecuencia de trabajo de 108 KHz.  Microprocesador 4040 Es otro desarrollo de INTEL. Aparece en 1972 bajo un formato DIP de 24 pines. Usaba tecnología PMOS, 4 bits de bus de datos y 12 bits para manejar un bus de direcciones multiplexado. El Intel 4040 fue el sucesor del Intel 4004. Diseñado por Federico Faggin (quien propuso la arquitectura y condujo el proyecto) y Tom Innes. El 4040 fue usado primariamente en juegos, pruebas, desarrollo, y equipos del control. El paquete del 4040 era más de dos veces el ancho del 4004 y tenía 24 pines en lugar de los 16 del 4004. El 4040 agregó 14 instrucciones, un espacio más grande para el stack (7 niveles en vez de 3), un espacio para programas de 8KB, 8 registros adicionales, y habilidades de interrupción (incluyendo sombras (shadows) de los primeros 8 registros).  Microprocesador 8008 Aparece en abril de 1972 con una velocidad de proceso de 300KHz. Disponía de un bus de 8 bits y un bus de direccionamiento de memoria multiplexado capaz de manejar 16KB, formado por 14 bits. Su Formato era DIP cerámico de 18 pines con tecnología PMOS, integrando 3300
  • 37. transistores. Su set de instrucciones era de 66. Los Homónimos del 8008 de Intel fueron el 6800 de Motorola, el 6502 de Mos Techonology y el difundido Z80 de ZILOG. En 1969 Computer Terminal Corp. (ahora Datapoint) visitó Intel. Vic Poor, vicepresidente de Investigación y Desarrollo en CTC quería integrar la CPU (unos cien componentes TTL) de su nueva Terminal Data-point 2200 en unos pocos chips y reducir el costo y el tamaño del circuito electrónico. Ted Hoff observó la arquitectura, el conjunto de instrucciones y el diseño lógico que había presentado CTC y estimó que Intel podría integrarlo en un sólo chip, así que Intel y CTC firmaron un contrato para desarrollar el chip. El chip, internamente llamado 1201, sería un dispositivo de 8 bits. Pensado para la aplicación de terminal inteligente, debería ser más complejo que el 4004. Al principio parecía que el 1201 saldría antes que el 4004 ya que Federico Faggin tenía que desarrollar cuatro chips, siendo el 4004 el último de ellos. Sin embargo, después de algunos meses de trabajo con el 1201, el diseñador, Hal Feeney, fue puesto a diseñar un chip de memoria, con lo que el proyecto del 1201 fue puesto en el "freezer". Mientras tanto, CTC también contrató a la empresa Texas Instruments para hacer el diseño del mismo chip como fuente alternativa. Al final de 1970 Intel continuó con el proyecto del 1201 bajo la dirección de Faggin y Feeney fue puesto nuevamente a trabajar en este proyecto. En junio de 1971, TI puso un aviso en la revista Electronics donde se detallaban las capacidades de este integrado MOS LSI. Con la leyenda "CPU en un chip" se acompañaba la descripción del circuito a medida para la terminal Datamation 2200. El aviso decía "TI lo desarrolló y lo está produciendo para Computer Terminal Corp.". Las dimensiones indicadas eran 5,46 por 5,71 mm, un chip enorme aun para la tecnología de 1971 y
  • 38. era 225% más grande que el tamaño estimado por Intel. El chip de Texas Instruments, sin embargo, jamás funcionó y no se puso en el mercado. TI patentó la arquitectura del 1201, que fue realizado por CTC con algunos cambios de Intel, con lo que luego hubo batallas legales entre Intel y TI. Durante el verano (en el hemisferio norte) de 1971, mientras el trabajo con el 1201 estaba progresando rápidamente, Data-point decidió que no necesitaba más el 1201. La recesión económica de 1970 había bajado el costo de los circuitos TTL de tal manera que ya no era rentable el circuito a medida. Data-point le dejó usar la arquitectura a Intel y a cambio la última no le cobraba más los costos de desarrollo. Intel decidió cambiarle el nombre al 1201: se llamaría 8008. El primero de abril de 1972 se lanzó este microprocesador al mercado con un conjunto de chips de soporte, como una familia de productos llamado MCS-8. Estos chips de soporte eran integrados existentes con los nombres cambiados. El interés del mercado por el MCS-8 fue muy alto, sin embargo las ventas fueron bajas. Para solucionar este inconveniente, se diseñaron herramientas de hardware y software, entrenamiento y sistemas de desarrollo. Estos últimos son computadoras especializadas para desarrollar y depurar programas (quitarles los errores) para el microprocesador específico. Un año después, Intel recibía más dinero de los sistemas de desarrollo que de los microprocesadores y chips de soporte. A título informativo cabe destacar que este microprocesador de ocho bits poseía alrededor de 3500 transistores, direccionaba 16 KBytes y la frecuencia máxima de reloj (clock) era de 108 KHz  Los Microprocesadores 8086 y 8088 En junio de 1978 Intel lanzó al mercado el primer microprocesador de 16 bits: el 8086. En junio de 1979 apareció el 8088 (internamente igual que el 8086 pero con bus de datos de 8 bits) y en 1980 los coprocesadores 8087
  • 39. (matemático) y 8089 (de entrada y salida). El primer fabricante que desarrolló software y hardware para estos chips fue la propia Intel. Reconociendo la necesidad de dar soporte a estos circuitos integrados, la empresa invirtió gran cantidad de dinero en un gran y moderno edificio en Santa Clara, California, dedicado al diseño, fabricación y venta de sus sistemas de desarrollo que, como se explicó anteriormente, son computadoras autosuficientes con el hardware y software necesario para desarrollar software de microprocesadores. Los sistemas de desarrollo son factores clave para asegurar las ventas de una empresa fabricantes de chips. La inmensa mayoría de ventas son a otras empresas, las cuales usan estos chips en aparatos electrónicos, diseñados, fabricados y comercializados por ellas mismas. A estas empresas se las llama "fabricantes de equipo original", o en inglés, OEM (Original Equipment Manufacturer). El disminuir el tiempo de desarrollo de hardware y software para las OEM es esencial, ya que el mercado de estos productos es muy competitivo. Necesitan soporte pues los meses que les puede llevar el desarrollo de las herramientas apropiadas les pueden significar pérdidas por millones de dólares. Además quieren ser los primeros fabricantes en el mercado, con lo cual pueden asegurarse las ventas en dos áreas importantes: a corto plazo, ya que al principio la demanda es mucho mayor que la oferta, y a largo plazo, ya que el primer producto marca a menudo los estándares. De esta manera la empresa Intel había desarrollado una serie completa de software que se ejecutaba en una microcomputadora basada en el 8085 llamada "Intellec Microcomputer Development System". Los programas incluían ensambladores cruzados (éstos son programas que se ejecutan en un microprocesador y generan código de máquina que se ejecuta en otro), compiladores de PL/M, Fortran y Pascal y varios programas de ayuda. Además había un programa traductor llamado CON V86 que convertía código fuente 8080/8085 a código fuente 8086/8088. Si se observan de cerca ambos conjuntos de instrucciones, queda claro que
  • 40. la transformación es sencilla si los registros se traducen así: A -> AL, B -> CH, C -> CL, D -> DH, E -> DL, H -> BH y L -> BL. Puede parecer complicado traducir LDAX B (por ejemplo) ya que el 8088 no puede utilizar el registro CX para direccionamiento indirecto, sin embargo, se puede hacer con la siguiente secuencia: MOV SI, CX; MOV AL, [SI]. Esto aprovecha el hecho que no se utiliza el registro SI. Por supuesto el programa resultante es más largo (en cantidad de bytes) y a veces más lento de correr que en su antecesor 8085. Este programa de conversión sólo servía para no tener que volver a escribir los programas en una primera etapa. Luego debería reescribirse el código fuente en assembler para poder obtener las ventajas de velocidad ofrecidas por el 8088. Luego debía correr el programa en la iSBC 86/12 Single Board Computer basado en el 8086. Debido a lo engorroso que resultaba tener dos plaquetas diferentes, la empresa Godbout Electronics (también de California) desarrolló una placa donde estaban el 8085 y el 8088, donde se utilizaba un ensamblador cruzado provisto por la compañía Microsoft. Bajo control de software, podían conmutarse los microprocesadores. El sistema operativo utilizado era el CP/M (de Digital Research). El desarrollo más notable para la familia 8086/8088 fue la elección de la CPU 8088 por parte de IBM (International Business Machines) cuando en 1981 entró en el campo de las computadoras personales. Esta computadora se desarrolló bajo un proyecto con el nombre "Acorn" (Proyecto "Bellota") pero se vendió bajo un nombre menos imaginativo, pero más correcto: "Computadora Personal IBM", con un precio inicial entre 1260 dólares y 3830 dólares según la configuración (con 48KB de memoria RAM y una unidad de discos flexibles con capacidad de 160KB costaba 2235 dólares). Esta computadora entró en competencia directa con las ofrecidas por Apple (basado en el 6502) y por Radio Shack (basado en el Z-80).
  • 41.  Microprocesador 80286 En el año 1982 nace el 286 o primer microprocesador para ordenadores AT aunque no ve la luz hasta 1984 con distintos formatos en encapsulado PGA. Algunos estaban soldados a la placa base, otros se colocaban sobre un zócalo. Aparece un competidor serio de INTEL: AMD. El 80286 dispone de un SET de instrucciones más amplio que los micros anteriores, disponiendo de un bus de datos de 16 bits y un bus de direcciones de 24 bits. Esto conseguía que la memoria pudiese direccionar hasta 224= 16.777.216 bytes= 16MB. La velocidad evoluciono desde los primeros AT-02 y AT-03 de 6 y 8 MHz respectivamente hasta los 12, 16 y 20MHz. Incorporaba un nuevo modo de trabajo: el modo protegido. Este sistema consistiría en la posibilidad de poder trabajar en multitarea o, lo que es lo mismo, aplicar pequeñas particiones de tiempo a diferentes trabajos que se ejecutan de forma alternativa gestionando hasta 16MB de RAM; también permitía el modo real, emulando varios 8086 con 1024 KB de memoria. El 80286 se popularizo gracias a su implementación en las maquinas 5170 AT de IBM.  Microprocesador 80386 Aparece el 386DX con arquitectura tanto interna como externa de 32 bits. Fue el primero en incluir posibilidades de gráficos en color de alta resolución así como sonido. Este micro, dependiendo del fabricante, trabaja entre 16 y 40MHz. Su formato también variaba según el fabricante, un 386sx INTEL de 100 pines a un 386DX AMD de 132. El 386DX era capaz de direccionar hasta 232= 4.294.967.296 bytes = 4Gb de memoria, pero tenia el serio inconveniente del precio. El 386sx
  • 42. aparece como respuesta al alto precio del 386 ``puro'' o DX. Se diferencia por trabajar solo con 16 bits de datos externo y un bus de direcciones de 24bits, además de tener un rango de frecuencia de trabajo de 16 hasta 25 MHz. Existe un modelo de 386 con mayor escala de integración que es el 386SL utilizado en ordenadores portátiles. Este microprocesador permitía un nuevo modo de funcionamiento: el modo virtual.  Microprocesador 80486 En 1989 aparecen los i486DX. El motivo del cambio de nomenclatura se debe a la oficina de patentes de EE.UU. dicha oficina no reconoce tres dígitos como marca registrada, lo que le favorece a la competencia de empresas como CYRIX o AMD que pueden llamar a sus productos con el mismo nombre que INTEL. Se trata de un microprocesador que incorpora la propia CPU, además de un coprocesador matemático, un controlador de memoria de caché de 128 bits y dos memorias caché de 4 KB cada una, que trabajan como búfer intermedio entre la memoria principal y el micro, trabajando tanto de forma externa como interna con una estructura de 32 bits. Tiene una alta integración y rendimiento, no era cierto el comentario que afirmaba que un 386DX con coprocesador matemático ofrecía el mismo rendimiento que un 486DX. Los distintos modelos que se encuentran en el mercado son SX, DX, SLC, DLC, DX2, Y DX4 con velocidades comprendidas entre 25 y 133 MHz. Los micros DX2 Y DX4 lo que hacen es multiplexar la frecuencia por lo que la velocidad interna del micro es distinta a la externa. Los homónimos del DX y SX en portátiles son el DLC y el SLC, de mayor escala de integración aunque menor rendimiento.  Microprocesador PENTIUM
  • 43. El Pentium (o ``586''), de unos 6,4 cm2 aproximadamente, presentó graves problemas en sus inicios debido a un error de fabricación en su modelo a 60 MHz. En el año 1994 se detectaron PENTIUM defectuosos. Este error era provocado, bajo determinadas circunstancias, al realizar una operación de coma flotante y se detectaba en el BIT 13 de la mantisa. Estos errores aparecían con las funciones: FDIV, FDIVR, FPTAN, FPATAN, FPREM y FPREM1 tanto en simple, doble o precisión extendida. INTEL dispuso un `` chequeo oficial ''. Posteriormente aparecieron distintos modelos que duplicaban la velocidad del bus, trabajando a 75, 90, 100, 120, 133, 150, 166, 180 y 200 MHz que funcionaban perfectamente. Una de las novedades que incorpora es el trabajar a partir del P/66 a 3,3v de alimentación en lugar de con 5v. Esta novedad ya fue implementada por su competidor AMD en el modelo 486 DX2 Y DX4. La cache utilizada es de 16KB. En AMD, el PENTIUM recibe el nombre de K.5 y en CYRIX, el de 6x86.  Funcionamiento de un PENTIUM La RAM envía datos o instrucciones codificadas a la BIU (o unidad de interfaz con el BUS) en Ráfagas de 64 bits. Estos datos son enviados por dos rutas cada una de las memorias caché de que dispone el micro. En una se almacenaran los datos y en la otra las instrucciones que indican que debe hacerse con esos datos. Existe una zona llamada Unidad de predicción de bifurcaciones. Esta unidad se encargara de inspeccionar las dos ALUs que tiene el microprocesador para determinar cual será la encargada de gestionar las nuevas instrucciones. Es unidad asegura el rendimiento optimo del microprocesador, evitando que una ALU este sin trabajar mientras existan instrucciones que procesar. Una nueva memoria, llamada búfer del prefetch recupera los códigos de instrucciones y los convierte a un lenguaje que la ALU seleccionada
  • 44. pueda entender. En caso de precisar realizar operaciones con números decimales (llamados de coma flotante) se usara el procesador interno especializado para tal fin. A partir de este momento, cada ALU procesara las instrucciones que le correspondan de manera independiente, recogiendo los datos que le sean precisos desde las caché de datos (registros) y las instrucciones desde cada decodificador de instrucciones. Superaran los 32 bits. Una vez finalizado el proceso, las dos ALUs, así como el procesador de coma flotante, entregaran sus resultados a la caché de datos, desde donde serán reenviados a la memoria RAM.  Microprocesador PENTIUM PRO El Pentium PRO (microprocesador incluido en lo que INTEL ha llamado la familia P6) es otro de los microprocesadores que INTEL ha orientado a aplicaciones y sistemas operativos de 32bits. Implementado con 5,5 millones de transistores, es muy diferente de los PENTIUM convencionales. Al igual que el PENTIUM convencional, dispone de 8 KB de memoria caché interna para datos y otros 8 KB para instrucciones, pero en el caso de PENTIUM PRO la memoria caché es de nivel 2 (L2) en lugar de nivel 1 (L1) usado por el PENTIUM convencional. Se pueden encontrar versiones de PENTIUM PRO con 256 KB y 512 KB de memoria L2 asociativo de cuatro vías. Trabajando a 32bits, el PENTIUM PRO ofrece prácticamente el doble de velocidad para una misma frecuencia que un PENTIUM convencional. En caso de trabajar con un sistema operativo de 16 bits, las diferencias en prestaciones son mínimas.  Microprocesador PENTIUM MMX El PENTIUM MMX o P55C es otro micro de INTEL con la innovación de la tecnología MMX. Este microprocesador maneja 257 instrucciones. Estas
  • 45. nuevas instrucciones están orientadas a los multimedia y se define como el cambio más radical desde el 386 aparecido en 1985. Otra novedad de este tipo de microprocesadores es referente al consumo de corriente. No todo el micro trabaja a la misma tensión de alimentación, sino que usa un voltaje dual. Aunque dicha tensión se determina de forma específica en cada micro, es habitual que los valores oscilen en torno a 2,8v para el núcleo del microprocesador y 3,3v para el sistema de operaciones de entrada/salida. Los modelos aparecidos en el mercado funcionaron a 166, 200 y 233 MHz, aunque existieron versiones a 133 MHz para ordenadores portátiles. Una pega de los microprocesadores MMX es que mientras se está usando este set de instrucciones multimedia, no puede trabajar el coprocesador matemático. Dispone de la doble de cache, es decir, 16KB para datos y 16 para instrucciones, por lo que la mejora está asegurada.  Microprocesador PENTIUM II El Pentium II consigue aunar la potencia del Pentium pro con las ventajas multimedia del Pentium mmx. Diseñado para 233, 266, 300 MHz dispone de una memoria cache interna de 512 KB. Otra novedad incluida es el tipo de zócalo que Intel lanza como nuevo estándar para su microprocesador: El SEC (Single Edge Connect). Cabe destacar que la memoria cache integrada ya no va integrada en el propio microprocesador. En el caso del Pentium II, la memoria cache de segundo nivel va en el circuito impreso que sirve de soporte para el microprocesador.  El nuevo diseño externo del Pentium (similar al cartucho de una consola de juegos) tienes dos funciones primordiales:
  • 46. o Aislamiento que permite apantallar el microprocesador de los demás componentes y viceversa: impedir que el resto de los componentes interfieran sobre el correcto funcionamiento del microprocesador. o Soporte del disipador ventilador que, dadas las condiciones de refrigeración necesarias en el microprocesador, debe ser voluminoso. Al igual que otros productos INTEL este microprocesador viene precedido de errores de diseño: unos días más tarde del lanzamiento del Pentium II, se observo un error. Se trata de un error relacionado con la unidad de coma flotante. En concreto afecta a la conversión de números en coma flotante a enteros. Este error afectaba también a microprocesadores Pentium Pro. De cara a enviar pasados enfrentamientos, INTEL firmo con la empresa NATIONAL SEMICONDUCTORS (fabricante de los microprocesadores CYRIX) un convenio por el que le permite desarrollar sus propios micros basándose en la tecnología del Pentium II. Este proceso se basa en la denominada ``ingeniería inversa'', mediante la cual INTEL se guarda sus secretos de desarrollo y únicamente proporciona a CIRYX una base a partir de la cual trabajar.  Microprocesador PENTIUM CELERON Aunque no sea la idea con la que INTEL pretende vender este producto, el Pentium Celeron se puede entender como el Pentium II Sx. Se trata de un microprocesador de batalla, inferior al Pentium II pero con un mejor precio. Esto consiguió que perdurase más tiempo que el propio Pentium II, siendo la punta de lanza de la compañía INTEL hasta la aparición del Pentium III. Este micro apareció bajo dos encapsulados diferentes: el SEPP y el PPGA. El primero fue el más común, recordando al típico formato del Pentium II.
  • 47. Aunque también estaba optimizado para trabajar con aplicaciones de 32bits, la critica a este microprocesador venia por la ausencia de memoria cache L2. Esto afectaba a toda la gama comprendida entre los 266 y 300MHz; el resto incluían una L2 de 128KB sincronía con la velocidad del microprocesador. En cuanto a caché de primero nivel, todos los modelos disponen de 32KB, repartidos en igual capacidad de datos e instrucciones. Implementados con 7,5 millones de transistores hasta los modelos de 300MHz y con 9,1 millones el resto, estos micros heredan las instrucciones MMX y siguen manteniendo una comunicación con el bus de 66MHz.  Microprocesador PENTIUM III El PENTIUM III es la sucesión dentro de la factoría INTEL del PENTIUM II. Clasificado dentro de la familia P6 y con las características propias de la misma como el rendimiento en ejecución dinámica o un bus de sistema multitransaccional, funciona con un bus externo de 100 MHz. Hereda la tecnología MMX además de 70 nuevas instrucciones orientadas al manejo de gráficos 3-D, video, audio. También se contemplan otras tecnologías multimedia como el reconocimiento de voz o la tecnología denominada SIMD. Debe tenerse en cuenta que admitió frecuencias de trabajo vertiginosas en su tiempo de 450, 500 y 550MHz funcionando con un Chipset 440BX. Incluye, además, 512 KB de memoria cache de segundo nivel. Incluye 8 nuevos registros de 128 bits, además de los 8 registros FP ya existentes de 64 bits, donde cada registro soporta 4 valores de coma flotante de simple precisión IEEE. INTEL incluyo una novedad: cada microprocesador era numerado de forma única, con lo que desaparecía el anonimato del usuario. Si bien esta identificación es camufable, esta novedad no fue del agrado de muchos usuarios, especialmente los ínter-nautas.
  • 48. Las importantes mejoras en gráficos 3D con mas polígonos y efectos complementan la animación así como el tratamiento de imágenes. Este tratamiento dispone de algoritmos optimizados que permiten manejar imágenes más grandes y complejas en menos tiempo. En cuanto al video, lo más destacable es, sin duda, la posibilidad de edición y codificación de ficheros en formato comprimido MPEG 2 en tiempo real junto al resto de características heredadas del tratamiento de imágenes. Esto consigue una reproducción de video más real sin cortes entre imágenes. El conjunto de prestaciones se complementa con el reconocimiento de voz que es una de las características más atractivas. Para dar soporte al manejar de voz promovido por MICROSOFT con su nuevo Windows 2000, INTEL ha creado la plataforma idónea dando mayor precisión y efectividad a las aplicaciones reconocimiento.  Microprocesador ITANIUM Desde la aparición del PENTIUM convencional pasando por el PENTIUM II, III e incluso el XEON, no ha habido nada nuevo, si no que más bien se ha tratado de transformaciones sobre una misma base. El Merced ve la luz y desde noviembre de 1999 se produce en pequeñas cantidades aun hasta mitad del 2000, fecha en el que el proceso de producción explotara el producto bajo el nombre comercial de ITANIUM. Como siempre, AMD sigue la pista de cerca del gran gigante y, casi de forma paralela, ha anunciado su réplica al ITANIUM: el SLEDGEHAMMER. Ambos micros tienen una característica común que les diferencia de los demás: la capacidad de trabajo a 64bits. La marca ITANIUM representa la fuerza y prestaciones de las características únicas de procesador que proporcionan a los clientes una base fiable y con capacidad de respuesta para el comercio electrónico del futuro.
  • 49. En el nuevo diseño de INTEL se ha contado hasta con los más pequeños detalles. En cuanto a compatibilidad no parece que vaya a haber ningún problema: todas las aplicaciones diseñadas para 32 bits correrán sin problemas bajo la arquitectura de 64.  Microprocesador PENTIUM 4 El PENTIUM 4 corresponde al último diseño de INTEL para dar respuesta a las nuevas necesidades que el avance de las nuevas tecnologías implica. Lo más llamativo de este micro es que se trata de un desarrollo completamente nuevo, no se ha apoyado en diseños anteriores como ocurría, parece que este es el avance más importante de INTEL desde el año 1995. Con lo anterior expuesto es fácil de deducir que el PENTIUM 4, precisa de una placa base diseñada de forma específica. El formato en el que se suministra es para socket 423, aunque existen varios rumores por parte de INTEL, sobre un cambio de formato inminente hacia los 478 pines. Además el sistema de refrigeración precisa de una caja y fuente de alimentación especiales denominadas ATX 2.03. La idea es sencilla: se sigue basando el aumento de rendimiento en una serie de predicciones que, en caso de cumplirse, aumentan significativamente la efectividad de la CPU. El problema viene cuando estas predicciones no son correctas. Así este nuevo chip de INTEL dispone de una canalización distribuida en 20 fases. Esto significa que cuando se realiza una predicción un total de 20 microinstrucciones pueden quedar en espera de confirmar si la citada predicción ha sido correcta. Otro de los avances es el incremento de velocidad de proceso. Toda la campaña de INTEL asegura que se soporta un bus de sistema de
  • 50. 400MHz. Si se pretende ser serio, realmente no es esta la velocidad de bus a la que se puede trabajar sino que se aplica un doble DDR para obtener mejores resultados. Realmente se mantienen los 100 MHz habituales con un factor multiplicador que empieza a resultar desorbitado. El micro de 1,4GHz y bajo la premisa expuesta de un funcionamiento a 100 MHz, es necesario configurar la placa base con un factor multiplicador de x14. Se alcanzan los 3,2 GB/s frente a 1 GB/s obtenido por el PENTIUM II con un bus de 133 MHz o los 0,5 GB/s del Celeron con un bus de 66MHz.  Más de un Micro En Una Misma Placa: Es habitual para los servidores usar placas donde dos microprocesadores trabajan en paralelo. Se trata de casos especiales donde, en lugar de una CPU, se usan dos o más. Hay fundamentalmente dos tipos de arquitecturas para el microprocesador: o Asociación Estrecha (tightly coupled). o Asociación Flexible (loosely coupled). Habitualmente se usa la arquitectura Pipeline. Esta técnica permite que, mientras se está decodificando una instrucción, otra, en paralelo, se está ejecutando. Esto consigue que en un solo ciclo de reloj se realicen dos instrucciones.  El OVERCLOKING: Es el término que se aplica al hecho de incrementar la velocidad del procesador por encima de la que ha sido diseñado, con el objeto de aumentar la velocidad del sistema sin añadir nuevos componentes. Este sistema se ha usado por distribuidores poco profesionales dando, en su día, ligar a un escándalo provocado por la falsificación de micros: se serigrafía con una velocidad superior y se vendían como microprocesadores de más frecuencia.
  • 51. Todos los micros se pueden trucar, aunque algunos aguantan mejor que otro el overcloking. Los 386 y 486 de INTEL Y AMD aguantaban grandes incrementos de frecuencia. Igualmente ocurría con los 486 de CYRIX. Los MOTOROLA 680x0 eran menos adecuados, ya que el overcloking requiere un subsistema de memoria fiable por parte del microprocesador y el MOTOROLA 68040 no dispone de memoria cache de segundo nivel. Puede darse el caso de que un microprocesador diseñado para trabajar a 100MHz, no consiga funcionar correctamente a esa velocidad pero si a 75MHz. Esto no implica que el micro sea defectuoso, ya que se garantiza el correcto funcionamiento a una frecuencia determinada. Las condiciones de laboratorio no coinciden con las habituales de trabajo. El overcloking no produce generalmente ningún daño. La única consecuencia directa es el sobrecalentamiento que se soluciona mediante el uso de un ventilador/disipador. Un problema poco documentado sobre el overcloking es la electromigración, que consiste en la erosión de las pistas debido al aumento de frecuencia. No todos los micros responde igual, el resto de los componentes del ordenador si que guardaran una dependencia con el incremento de velocidad. Si una vez modificados los parámetros de funcionamiento del micro el ordenador no arranca, se podrá probar, siempre y cuando la BIOS lo permita, a añadir estados de espera o bajar la velocidad. Las tarjetas aceleradoras también llamadas ICE son unas placas destinadas a aumentar la velocidad del PC mediante su inserción en una de INTEL.  Fabricantes Destacados  AMD  APPLE  AYRIX
  • 52.  INTEL  MOTOROLA  TEXAS INSTRUMENTS Conclusión El ordenador recibe y envía la información a través de los periféricos por medio de los canales. La UCP es la encargada de procesar la información que le llega al ordenador. El intercambio de información se tiene que hacer con los periféricos y la UCPs un sistema complejo que puede llegar a estar constituido por millones de componentes electrónicos elementales.
  • 53. Esto que en le teoría parece tan fácil es bastante mas complicado en la práctica, ya que aparte de los bus de datos y de direcciones existen también casi dos docenas más de líneas de señal en la comunicación entre la CPU y la memoria, a las cuales también se acude. Dentro de la tecnología SCSI hay 2 generaciones y una tercera que está a la vuelta de la esquina. La primera generación permitía un ancho de banda de 8 bits y unos ratios de transferencia de hasta 5 MBps. El mayor problema de esta especificación fue que para que un producto se denominara SCSI solo debía cumplir 4 códigos de operación de los 64 disponibles por lo que proliferaron en el mercado gran cantidad de dispositivos SCSI no compatibles entre sí. El microprocesador lo que hace es procesar ordenes sencilla, para procesar ordenes mayores deberemos construir un programa. Con un micro de 16 bits solo se puede direccionar hasta 64 k de memoria, pero ya sabemos que se debe acceder a más de ellas, esto lo logramos con el esquema de direccionamiento de 20 bits utilizado por el microprocesador Una vez seleccionada y analizada la instrucción deberá accionar los circuitos correspondientes de otras unidades, para que se cumplimente la instrucción, a través del secuenciador o reloj. El chip más importante de cualquier placa madre es el procesador. Las teclas están sobre los puntos de intersección de las líneas conductoras horizontales y verticales. Cuando se pulsa una tecla. Se establece un contacto eléctrico entre la línea conductora vertical y horizontal que pasan por debajo de la misma realizar las operaciones con los datos procesados por el ordenador. Puede realizar las operaciones aritméticas básicas: suma, resta, multiplicación y división, así como, controlada por la UC operaciones como la de desplazamiento. Este desplazamiento se puede realizar hacia la derecha o hacia la izquierda. La UAL utiliza un registro denominado acumulador donde almacena los resultados de las operaciones antes de ser enviados a la memoria.
  • 54. Cuando vamos a acceder a la dirección de memoria especificada en el CP, esta dirección deberá transferirse al RDM, a través del cual accederemos a dicha dirección. Esto se realiza al iniciar cada ciclo de instrucción. La memoria está compuesta de chips. Lo único que realizan estos chips es almacenar la información hasta que esta es requerida. El número de chips de que consta la memoria es el que determina la capacidad de la misma. Anexos