El documento resume brevemente la historia de las computadoras y la tecnología de la información. Explica cómo las computadoras evolucionaron de máquinas grandes a computadoras personales gracias al desarrollo del microprocesador. También describe el surgimiento de Internet y cómo se ha convertido en una red global que conecta computadoras de todo el mundo, transformando la economía y la sociedad.
Instituto Universitario Politécnico Santiago Mariño
Sede Barcelona
Cátedra: Sistemas Operativos II
Prof.: Amélia Vázquez
Alumno: Enrique Cabello C.I.: 26.071.451
Instituto Universitario Politécnico Santiago Mariño
Sede Barcelona
Cátedra: Sistemas Operativos II
Prof.: Amélia Vázquez
Alumno: Enrique Cabello C.I.: 26.071.451
2. Que es una computadora y como está
formada
es una máquina electrónica que recibe y procesa datos, para convertirlos en
información conveniente y útil, que posteriormente se envía a las unidades de
salida, para que pueda ser analizada y utilizada por humanos. Un ordenador
está formado físicamente por numerosos circuitos integrados y muchos
componentes de apoyo, extensión y accesorios, que en conjunto pueden
ejecutar tareas diversas con suma rapidez y bajo el control de un programa
(software).
4. Primeros computadores comerciales
Univac uno de los primeros computadores comerciales con impresora en 1950
La computadora automática universal o UNIVAC fue un hito logrado por el Dr. Presper
Eckert y John Mauchly . Creadores de la ENIAC.
John Presper Eckert y John Mauchly , después de dejar el ambiente académico de la
Escuela Moore de Ingeniería para iniciar su propio negocio de computadoras,
encontraron su primer cliente en la Oficina del Censo de Estados Unidos.
La Oficina necesitaba un nuevo equipo para hacer frente a la explosión demográfica
de EE.UU. En abril de 1946, un depósito de 300.000 dólares fue entregado a Eckert y
Mauchly para la investigación de un nuevo equipo llamado UNIVAC.
5. La invención del circuito integrado y el
nacimiento de Silicon Valley
La idea de integrar circuitos electrónicos en un solo dispositivo nació cuando el físico alemán e ingeniero Werner
Jacobi Erfinder desarrolló y patentó el primer amplificador de transistor integrado conocido en 1949 y el ingeniero
británico de radio Geoffrey Dummer propuso la integración de una variedad de componentes electrónicos estándares
en un cristal monolítico semiconductor en 1952. Un año después, Harwick Johnson hizo una patente para el prototipo
de un circuito integrado (CI).
Tales ideas no pudieron ser implementadas en la industria de 1950, pero un hallazgo ocurrió en los últimos años de esa
década. En 1958, 3 personas de 3 compañías de los Estados Unidos de Norteamérica resolvieron 3 problemas
fundamentales que impedían la producción de circuitos integrados. Jack Kilby de Texas Instruments patentó el
principio de integración, creó el primer prototipo de CI y los comercializó. Kurt Lehovec de Sprague Electric Company
inventó una manera de aislar eléctricamente los componentes en un cristal semiconductor. Robert Noyce de Fairchild
Semiconductor inventó una manera de conectar los componentes de un CI (metalización de aluminio) y propuso una
versión mejorada de la asolación basada en la tecnología planar de Jean Hoerni. El 27 de septiembre de 1960, usando
las ideas de Noyce y Hoerni, un grupo de Jay Last en Fairchild Semiconductor creo el primer CI semiconductor
operacional. Texas Instruments, que había mantenido la patente para la invención de Kilby, comenzó una guerra de
patentes, que fue arreglada en 1966 por el acuerdo de una licencia cruzada. No hay consenso sobre quien inventó el
CI. La prensa Americana de 1960 nombró a 4 personas: Kilby, Lehovec, Noyce y Hoerni; en 1970 la lista fue acortada a
Kilby y Noyce, y después a Kilby, quien fue honrado en el 2000 con el Premio Nobel de Física “por su participación en la
invención del circuito integrado”.1 En los 2000, los historiadores Leslie Berlin,notes 1 Bo Lojeknotes 2 y Arjun
Saxenanotes 3 re-instauraron la idea de múltiples inventores del CI y revisaron la contribución de Kilby.
6. Supercomputadores
supercomputadora o Superordenador es una computadora con capacidades de cálculo muy
superiores a las comúnmente disponibles de las máquinas de escritorio de la misma época
en que fue construida.
Hoy en día el diseño de supercomputadoras se sustenta en 4 importantes tecnologías:
La tecnología de registros vectoriales, creada por Seymour Cray, considerado el padre de la
Supercomputación, quien inventó y patentó diversas tecnologías que condujeron a la
creación de máquinas de computación ultra-rápidas. Esta tecnología permite la ejecución de
innumerables operaciones aritméticas en paralelo.
El sistema conocido como M.P.P. por las siglas de Massively Parallel Processors o
Procesadores Masivamente Paralelos, que consiste en la utilización de cientos y a veces
miles de microprocesadores estrechamente coordinados.
La tecnología de computación distribuida: los clusters de computadoras de uso general y
relativo bajo costo, interconectados por redes locales de baja latencia y el gran ancho de
banda.
Cuasi-Supercómputo: Recientemente, con la popularización de internet, han surgido
proyectos de computación distribuida en los que software especiales aprovechan el tiempo
ocioso de miles de ordenadores personales para realizar grandes tareas por un bajo costo. A
diferencia de las tres últimas categorías, el software que corre en estas plataformas debe
ser capaz de dividir las tareas en bloques de cálculo independientes que no se ensamblaran
ni comunicarán por varias horas.
7. Minicomutadoras
Minicomputadora: Actualmente más conocidos como servidores, la conjunción
con terminales tontos sin capacidad de cálculo propia
El declive tuvo lugar debido al menor coste del soporte físico basado en
microprocesadores y el deseo de los usuarios finales de depender menos de los
inflexibles terminales tontos, con el resultado de que los minicomputadoras y los
falsos terminales fueron remplazados por computadoras personales
interconectados entre sí y con un servidor.
El cambio fue facilitado no solo por el microprocesador, sino también por el
desarrollo de varias versiones de Unix multiplataforma (con microprocesadores
Intel incluidos) como Solaris, Linux y FreeBSD. La serie de sistemas operativos
Microsoft Windows, a partir de Windows NT, también incluye versiones de
servidor que soportan multitareas y otras funciones para servidores.
8. La revolución del microprocesador
Corría 1971 cuando Intel creó el primer microprocesador. Era capaz de hacer unos 6.000 cálculos en un solo
segundo. Quedaba despejado el camino hacia los ordenadores y la era de internet. Desde entonces todo el
mundo se ha hecho familiar con el nombre de Silicon Valley y se han diseñado miles de modelos de
ordenadores, cada cual más sofisticado. Intel factura hoy 35.000 millones de dólares (26.000 millones de
euros) anuales en microprocesadores y demás artículos relacionados. Cada año invierte unos 6.000 millones
en investigación y desarrollo y emplea a unas 100.000 personas. Y sigue sumando. Intel no se ha limitado a
operar en la meca de la tecnología. En los años ochenta desembarcó en India y en China, integrando sus
plantas en ambos países dentro de sus proyectos más importantes. Además, la compañía ha contratado a
investigadores en países tan diversos como Filipinas, Irlanda o Rusia.
Intel había nacido en 1968, cuando los emprendedores Gordon Moore y Robert Noyce dejaron su trabajo en
la empresa Fairchild Semiconductors y se unieron para crear una compañía a su medida. Comenzaron
creando semiconductores y chips. Terminaron por establecer un postulado: la Ley de Moore.
El enunciado es sencillo: “El número de transistores de un circuito integrado por los mínimos componentes
se duplica aproximadamente cada 24 meses”. Esto significa que cada dos años los creadores de circuitos
son capaces de integrar más y más transistores, doblando su capacidad. De ahí la revolución en la
tecnología en los años recientes, precios cada vez más bajos y ordenadores más rápidos y potentes. De
hecho, en el último cuarto de siglo la capacidad de transistores en un microprocesador se ha incrementado
más de 3.000 veces.
9. Computadores caseros
La historia de las computadoras personales como dispositivos electrónicos de
consumo para el mercado masivo comenzó efectivamente en 1977 con la
introducción de las microcomputadoras, aunque ya se habían aplicado mucho
antes, algunas computadoras mainframe y computadoras centrales como
sistemas monousuario. Una computadora personal está orientada al uso
individual y se diferencia de una computadora mainframe, donde las
peticiones del usuario final son filtradas a través del personal de operación o
un sistema de tiempo compartido, en el cual un procesador grande es
compartido por muchos individuos. Después del desarrollo del
microprocesador, las computadoras personales llegaron a ser más económicas
y se popularizaron. Las primeras computadoras personales, generalmente
llamadas microcomputadoras, fueron vendidas a menudo como kit
electrónicos y en números limitados. Fueron de interés principalmente para
aficionados y técnicos.
10. Breve historia de las telecomunicaciones
Aunque las telecomunicaciones como estudio unificado de las comunicaciones a
distancia es una idea reciente, siempre han existido medios de comunicación que
también son estudiados por esta disciplina. A lo largo de la historia han existido
diferentes situaciones en las que ha sido necesaria una comunicación a distancia,
como en la guerra o en el comercio.1 Sin embargo, la base académica para el
estudio de estos medios, como la teoría de la información, datan de mediados del
siglo xx.
Conforme las distintas civilizaciones empezaron a extenderse por territorios cada
vez mayores fue necesario un sistema organizado de comunicaciones que
permitiese el control efectivo de esos territorios.2 Es más que probable que el
método de telecomunicaciones más antiguo sea el realizado con mensajeros,
personas que recorrían largas distancias con sus mensajes. Lo que sí que sabemos
seguro es que ya las primeras civilizaciones como la sumeria, la persa, la egipcia o
la romana implementaron diversos sistemas de correo postal a lo largo de sus
respectivos territorios.
11. Breve historia de Internet
La historia de internet se remonta al temprano desarrollo de las redes de comunicación. La idea de una red de ordenadores
creada para permitir la comunicación general entre usuarios de varias computadoras sea tanto desarrollos tecnológicos como la
fusión de la infraestructura de la red ya existente y los sistemas de telecomunicaciones. La primera descripción documentada
acerca de las interacciones sociales que podrían ser propiciadas a través del networking (trabajo en red) está contenida en una
serie de memorandos escritos por J. C. R. Licklider, del Massachusetts Institute of Technology, en agosto de 1962, en los cuales
Licklider discute sobre su concepto de Galactic Network (Red Galáctica).
Las más antiguas versiones de estas ideas aparecieron a finales de los años cincuenta. Implementaciones prácticas de estos
conceptos empezaron a finales de los ochenta y a lo largo de los noventa. En la década de 1980, tecnologías que
reconoceríamos como las bases de la moderna Internet, empezaron a expandirse por todo el mundo. En los noventa se
introdujo la World Wide Web (WWW), que se hizo común.
La infraestructura de Internet se esparció por el mundo, para crear la moderna red mundial de computadoras que hoy
conocemos como internet. Atravesó los países occidentales e intentó una penetración en los países en desarrollo, creando un
acceso mundial a información y comunicación sin precedentes, pero también una brecha digital en el acceso a esta nueva
infraestructura. Internet también alteró la economía del mundo entero, incluyendo las implicaciones económicas de la burbuja
de las .com.
Un método de conectar computadoras, prevalente sobre los demás, se basaba en el método de la computadora central o unidad
principal, que simplemente consistía en permitir a sus terminales conectarse a través de largas líneas alquiladas. Este método
se usaba en los años cincuenta por el Proyecto RAND para apoyar a investigadores como Herbert Simon, en Pittsburgh
(Pensilvania), cuando colaboraba a través de todo el continente con otros investigadores de Santa Mónica (California)
trabajando en demostración automática de teoremas e inteligencia artificial.
12. Teléfonos inteligentes y Redes sociales
l teléfono inteligente (smartphone en inglés) es un tipo de teléfono móvil que combina los
elementos de una tablet con los de un telefono celular. Sobre una plataforma informática móvil, con
mayor capacidad de almacenar datos y realizar actividades, semejante a la de una
minicomputadora, y con una mayor conectividad que un teléfono móvil convencional. El término
inteligente, que se utiliza con fines comerciales, hace referencia a la capacidad de usarse como un
computador de bolsillo, y llega incluso a reemplazar a una computadora personal en algunos casos.
Generalmente, los teléfonos con pantallas táctiles son los llamados teléfonos inteligentes, pero el
soporte completo al correo electrónico parece ser una característica indispensable encontrada en
todos los modelos existentes y anunciados desde 2007. Casi todos los teléfonos inteligentes también
permiten al usuario instalar programas adicionales, habitualmente incluso desde terceros, hecho
que dota a estos teléfonos de muchísimas aplicaciones en diferentes terrenos; sin embargo, algunos
teléfonos son calificados como inteligentes aun cuando no tienen esa característica.
Entre otros rasgos comunes está la función multitarea, el acceso a Internet vía Wifi o redes 2G, 3G o
4G, función multimedia (cámara y reproductor de videos/mp3), a los programas de agenda,
administración de contactos, acelerómetros, GPS y algunos programas de navegación, así como
ocasionalmente la habilidad de y leer documentos de negocios en variedad de formatos como PDF y
Microsoft Office.