SlideShare una empresa de Scribd logo
1 de 19
Ministerio de educación universitaria
  Instituto tecnológico Dr. Cristóbal Mendoza
                 Hotelería III




INTRODUCCION A LA INFORMATICA




                                                        AUTOR:

                                                Francis González

                                                    CI 20197922

                                                Turno vespertino

                  Abril, 2012
1.1 ¿Que es la informática?


         La Informática es la ciencia aplicada que abarca el estudio y aplicación
         del tratamiento automático de la información, utilizando sistemas
         computacionales, generalmente implementados como dispositivos
         electrónicos. También está definida como el procesamiento automático
         de la información.

         Conjunto de conocimientos científicos y de técnicas que hacen posible
         el tratamiento automático de la información por medio de computadoras.
         La informática combina los aspectos teóricos y prácticos de la
         ingeniería, electrónica, teoría de la información, matemáticas, lógica y
         comportamiento humano. Los aspectos de la informática cubren desde
         la programación y la arquitectura informática hasta la inteligencia
         artificial y la robótica.

1.1 Concepto de computador

   Es una máquina programable para el procesado de información.
   Procesar información es extraer unos ciertos resultados o conclusiones a partir
   de unos ciertos datos de entrada. Por tanto, el ordenador deberá tomar unos
   datos para que la información sea entendida por el ordenador debe de estar
   debidamente codificada. La codificación se realiza mediante BITs (Binary
   digiT). El ordenador, por tanto, recibirá por un canal de entrada los datos con
   los que ha de trabajar, codificados en un formato adecuado, realizará un cierto
   proceso con ellos y mostrará el resultado de dicho proceso a través de un
   canal de salida.

1.2 Concepto de hardware

   Son todos los dispositivos y componentes físicos que realizan las tareas de
   entrada y salida, también se conoce al hardware como la parte dura o física del
   computador. La mayoría de las computadoras están organizadas de la
   siguiente forma:

   Los dispositivos de entrada (Teclados, Lectores de Tarjetas, Lápices Ópticos,
   Lectores de Códigos de Barra, Escáner, Mouse, etc.) y salida (Monitor,
   Impresoras, Plotters, Parlantes, etc.) y permiten la comunicación entre el
   computador y el usuario.
1.3 Breve historia del computador

   Aunque la computadora personal fue creada en 1981, sus inicios se remontan
   a varias décadas atrás y sus antecedentes a hace más de cuatro mil años.

   Esto, porque el origen de la informática no es la electrónica sino el
   perfeccionamiento de los cálculos matemáticos, que con el tiempo permitió el
   desarrollo del sistema binario, el lenguaje en que se programan las
   computadoras, que está basado en la combinación de números ceros y unos (0
   y 1).

   2500 a.C. - El antecedente más remoto es el ábaco, desarrollado en China.
   Fue el primer instrumento utilizado por el hombre para facilitar sus operaciones
   de cálculo.

   600 a.C. - El astrónomo, matemático y filósofo griego Tales de Mileto describió
   algunos aspectos de la electricidad estática. De sus escritos proviene la
   palabra electrón, que se usa para designar a las partículas negativas del
   átomo.

   500 a.C. - Los romanos usaron ábacos con piedras pequeñas, a las que
   llamaban cálculos, que eran desplazadas sobre una tabla con canales cifrados
   con sus números (I, V, X, L, C, D, M).

   1633 - El inglés William Oughtred creó un instrumento que hoy se conoce
   como regla de cálculo, utilizado hasta hace unos años por los ingenieros.


   1642 - El francés Blaise Pascal (1623-1662) inventó y construyó la primera
   sumadora mecánica. La pascalina hacía sumas y restas.

    La pascalina funcionaba gracias a una serie de ruedas contadoras con diez
   dientes numerados del 0 al 9. El padre de Pascal era recaudador de
   impuestos, así que fue el primero en usarla.

   1671 - El filósofo y matemático alemán Gottfried Leibniz desarrolló una
   máquina multiplicadora.


   1833 - El profesor de matemáticas de la Universidad de Cambridge Charles
   Babbage (1792 -1871) ideó la primera máquina procesadora de información.
Algo así como la primera computadora mecánica programable. Pese a que
dedicó casi cuarenta años a su construcción, murió sin terminar su proyecto.

Babbage usaba cartones perforados para suministrarle datos a su máquina -
había copiado la idea del telar del francés Joseph Marie Jacquard, inventado
en 1801-, que se convertirían en instrucciones memorizadas; algo así como los
primeros programas. Esperaba lograr imprimir la información registrada,
obtener resultados y volver a ingresarlos para que la máquina los evaluara y
dedujera qué se debía hacer después.

La evaluación y la retroalimentación se convertirían en la base de la
cibernética, que nacería un siglo más tarde.

1847 - El británico George Boole desarrolló un nuevo tipo de álgebra (álgebra
de Boole) e inició los estudios de lógica simbólica. En 1847 publicó "El análisis
matemático del pensamiento" y en 1854 "Las leyes del pensamiento".

Su álgebra era un método para resolver problemas de lógica por medio de los
valores binarios (1 y 0) y tres operadores: and (y), or (o) y not (no). Por medio
del álgebra binaria, posteriormente se desarrolló lo que hoy se conoce como
código binario, que es el lenguaje utilizado por todas las computadoras.




 1890 - Los cartones perforados y un primitivo aparato eléctrico se usaron para
clasificar por sexo, edad y origen a la población de Estados Unidos. Esta
máquina del censo fue facilitada por el ingeniero Herman Hollerith, cuya
compañía posteriormente se fusionó (1924) con una pequeña empresa de
Nueva York, creando la International Business Machines (IBM), empresa que
un siglo más tarde revolucionó el mercado con las computadoras personales o
PC.




1889 - Solo a fines del siglo XIX se inventó una máquina calculadora que
incorporó las cuatro operaciones básicas (suma, resta, multiplicación y división)
y que lentamente se empezó a producir de manera más masiva. Esta máquina
solo podía realizar una operación a la vez y no tenía memoria.1893 - Entre
1893 y 1920, Leonardo Torres y Quevedo creó en España varias máquinas
capaces de resolver operaciones algebraicas. Posteriormente construyó la
primera máquina capaz de jugar ajedrez.
1920 - Se presentó en París el "aritmómetro electromecánico", que consistía en
una calculadora conectada a una máquina de escribir, en la que se tecleaban
los números y las operaciones. Una vez realizado el cálculo, la máquina
entregaba automáticamente el resultado. Este aparato fue la primera versión
de una calculadora digital.

1934-1939 - Konrad Suze construyó en Alemania dos máquinas
electromecánicas de cálculo que se acercaban bastante a lo que sería la
primera computadora.

La Z1 tenía un teclado y algunas lámparas que indicaban valores binarios. La
Z2 fue una versión mejorada que utilizaba electromagnetismo.

  1937 - Claude Shannon demostró que la programación de las futuras
computadoras era más un problema de lógica que de aritmética, reconociendo
la importancia del álgebra de Boole.

Además, sugirió que podían usarse sistemas de conmutación como en las
centrales telefónicas, idea que sería fundamental para la construcción de la
primera computadora.

Más adelante, junto con Warren Weaver, Shannon desarrolló la teoría
matemática de la comunicación, hoy más conocida como la "teoría de la
información", estableciendo los conceptos de negentropía, que se refiere a que
la información reduce el desorden, y la unidad de medida del bit -en dígitos
binarios- utilizada actualmente tanto en las telecomunicaciones como en la
informática.

1939 - En Estados Unidos, George Stibitz y S.B. Williams, de los laboratorios
Bell, construyeron una calculadora de secuencia automática que utilizaba
interruptores ordinarios de sistemas de conmutación telefónica.

Nacen los ordenadores

En 1941, Konrad Suze presentó la Z3, la primera                  computadora
electromagnética programable mediante una cinta perforada.

Tenía dos mil electroimanes, una memoria de 64 palabras de 22 bits, pesaba
mil kilos y consumía cuatro mil watts.
Una adición demoraba 0,7 segundos, mientras que en una multiplicación o
división tardaba 3 segundos.

1943 - Un equipo de expertos del ejército británico dirigido por Alan Turing
construyó a Colossus, una computadora que permitía descifrar en pocos
segundos y automáticamente los mensajes secretos de los nazis durante la
Segunda Guerra Mundial, cifrados por la máquina Enigma.

1944 - En 1939, Howard Aiken (1900-1973), graduado de física de la
Universidad de Harvard, logró un convenio entre dicha universidad e IBM, por
el que un grupo de graduados inició el diseño y la construcción de la primera
computadora americana, del tipo electromecánico -basado en electroimanes-.

El Mark I comenzó a funcionar en 1944. Recibía y entregaba información en
cintas perforadas, se demoraba un segundo en realizar diez operaciones.
Medía 18 metros de longitud y 2,5 metros de alto.

Posteriormente se construyeron Mark II y Mark III.

1947 - Pese a que Harvard e IBM construyeron la primera computadora, la
tecnología era más avanzada en otras universidades.

Los ingenieros John Presper Eckert y John W. Mauchly, de la Universidad de
Pennsylvania, desarrollaron para el ejército estadounidense, en el laboratorio
de investigaciones balísticas de Aberdeen, el ENIAC (Electronic Numerical
Integrator And Calculator).

Tenía treinta metros de largo, tres de alto, uno de ancho, pesaba treinta
toneladas y tenía 800 kilómetros de cableado. Consumía la misma electricidad
que mil lavadoras juntas y realizaba cien mil operaciones por segundo. Era
capaz de calcular con gran velocidad las trayectorias de proyectiles, que era el
objetivo inicial de su construcción.

ENIAC es considerada la primera computadora, ya que su funcionamiento era
completamente electrónico, tenía 17.468 válvulas o tubos (más resistencias,
condensadores, etc.). Sin embargo, el calor de estas elevaba la temperatura
local hasta los 50 grados, por lo que para efectuar diferentes operaciones
debían cambiarse las conexiones, lo cual podía tomar varios días.

1949 - El matemático húngaro John Von Neumann resolvió el problema de
tener que cablear la máquina para cada tarea.
La solución fue poner las instrucciones en la misma memoria que los datos,
escribiéndolas de la misma forma, en código binario.

Refiriéndose a esta innovación, se habla de la "arquitectura de Von Neumann".
Su EDVAC fue el modelo de las computadoras de este tipo.

1951 - La primera computadora comercial fue la UNIVAC 1, fabricada por la
Sperry-Rand Corporation y comprada por la Oficina del Censo de Estados
Unidos.

Disponía de mil palabras de memoria central y podía leer cintas magnéticas.

Por su parte, la IBM desarrolló la IBM 701, de la que se entregaron dieciocho
unidades entre 1953 y 1957. La compañía Remington Rand fabricó el modelo
1103, que competía con la 701. Así, lentamente, fueron apareciendo nuevos
modelos.

1955 - En Bell Labs se inició la construcción de computadoras sin válvulas, las
que fueron reemplazadas por transistores. Esto permitió achicar en decenas de
veces el tamaño de estas máquinas y aumentar su velocidad de operación.
Además la refrigeración, debido al alza de la temperatura, ya no era necesaria.

Los transistores habían sido inventados en 1947 por los científicos de esta
misma compañía: Bardeen, Brattain y Shockley. Se trataba de un
semiconductor de tamaño reducido capaz de realizar funciones de bloqueo o
amplificación de señal. Eran más pequeños, más baratos y mucho menos
calientes que las válvulas de vacío.

1957 - Un equipo de IBM, dirigido por John Backus, creó el primer lenguaje de
programación, llamado Fortran, formulado para el IBM 704.

60’s - Técnicos de varios laboratorios, a partir de la elaboración de los
transistores, comenzaron a producir unidades más grandes con múltiples
componentes que cumplían diversas funciones electrónicas.

Se trataba de los circuitos integrados o chips.

Estos permitieron una nueva disminución en el tamaño y el costo.
1969 - Kenneth Thompson y Dennis Ritchie, de Bell Labs, desarrollaron el
sistema operativo Unix.

1971 - La compañía Intel lanzó el primer microprocesador, el Intel 4004, un
pequeño chip de silicio.

Se trató de un circuito integrado especialmente construido para efectuar las
operaciones básicas de Babbage y conforme a la arquitectura de Von
Neumann.

Fue la primera Unidad Central de Procesos (CPU). La integración de estos
procesos avanzó en distintas etapas:

      Integración simple (Integrated Circuits o IC)

      Alta integración (Large Scale Integration o LSI)

      Muy alta integración (Very Large Scale Integration o VLSI)

Estos procesos permitieron acelerar el funcionamiento de las computadoras,
logrando superar el millón de operaciones por segundo.

1971 - Alan Shugart, de IBM, inventó el disco flexible o floppy disk, un disquete
de 5 1/4 pulgadas.

1974 - Surge el Altair 8800, la primera computadora de escritorio,
comercializada con el microprocesador Intel 8080.

Aunque no incluía teclado, monitor, ni software de aplicación, esta máquina dio
inicio a una revolución en los sistemas computacionales modernos.

1975 - Steve Jobs -que trabajaba en Atari- y Steven Wozniak -ingeniero de
Hewlett Packard- se juntaron para armar una microcomputadora que pudiera
ser usada más masivamente.

Wozniak diseñó una placa única capaz de soportar todos los componentes
esenciales y desarrolló el lenguaje de programación Basic.

El resultado fue la primera computadora Apple.
Steve Jobs y Steven Wozniak, crearon la primera computadora Apple.

A fines de 1976 tenían el modelo listo para ser comercializado: el Apple II. Tras
varios intentos, finalmente consiguieron el apoyo de Mike Markulla, con quien
formaron su propia compañía, la Apple Computers. El Apple II siguió
fabricándose por otros quince años, todo un récord para una industria que
continuamente presenta novedades.

1975 Bill Gates y Paul Allen se unen para crear Microsoft, una empresa
dedicada íntegramente al "software"

Los 80's Computadoras para todos:

Tras el éxito de la microcomputadora, en 1981 IBM lanzó al mercado el IBM
PC, diseñado por doce ingenieros dirigidos por William C. Lowe.

Su principal característica es que tenía una estructura abierta; es decir, que era
capaz de integrar componentes de otros fabricantes.

De hecho, su sistema operativo, el DOS 1.0, era de Microsoft, y el
microprocesador, un Intel 8088.

En cinco años se vendieron más de tres millones de unidades.

Aunque el término personal computer (PC) se popularizó con esta invención de
IBM, los primeros aparatos de este tipo habían sido comercializados desde
1977 por la Tandy Corporation, que le incorporó teclado y monitor, ya que el
primer modelo de computadoras de escritorio, el Altair 8800 de 1974, no los
tenía.

En 1980, antes del lanzamiento de IBM, las revolucionarias empresas del
Silicon Valley o Valle del Silicio -recibió ese nombre porque en él se
establecieron solo empresas tecnológicas- como Apple, Tandy, Osborne y
Commodore, ya habían vendido 327 mil unidades.

En 1984, la compañía Apple presentó una nueva computadora, la Macintosh,
sucesora de un modelo denominado Lisa.

Entre sus novedades estaba la incorporación de una herramienta nueva para
controlar la computadora, el mouse o ratón.
El modelo no tuvo gran aceptación, debido a su alto costo.

  En 1985, Microsoft -compañía fundada por Bill Gates y Paul Allen en 1975-
  presentó el software Windows 1.1

  Ese mismo año aparecen los primeros CD-ROM para computadoras.

  Las computadoras personales surgieron gracias a la Muy Alta Integración de
  sus procesos (VLSI) desarrollada durante los ochentas, y que permitió
  concentrar miles de componentes electrónicos en una plaquita de silicio (el
  chip) de alrededor de un centímetro cuadrado.

  Esto ha permitido reducir los tamaños de estas máquinas hasta hacerlas
  portátiles (Notebooks) y ampliar su velocidad por sobre el billón de operaciones
  por segundo, como es el caso de los supercomputadoras.

  Los 90's - Nuevas tecnologías

  Durante los noventa comenzó a masificarse el uso de las computadoras, al
  disminuir su tamaño y también su costo, debido a la producción en serie y a la
  competencia entre las fabricantes IBM, Apple y Microsoft.

  Primero se multiplicaron en las empresas y luego fueron apareciendo cada vez
  en más hogares

1.4 Generación de computadoras

  PRIMERA GENERACIÓN (1951 a 1958)

  Las computadoras de la primera Generación emplearon bulbos para procesar
  información. Los operadores ingresaban los datos y programas en código
  especial por medio de tarjetas perforadas. El almacenamiento interno se
  lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de
  lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos
  eran mucho más grandes y generaban más calor que los modelos
  contemporáneos.

  Eckert y Mauchly contribuyeron al desarrollo de computadoras de la 1era
  Generación formando una compañía privada y construyendo UNIVAC I, que el
  Comité del censo utilizó para evaluar el censo de 1950. La IBM tenía el
  monopolio de los equipos de procesamiento de datos a base de tarjetas
perforadas y estaba teniendo un gran auge en productos como rebanadores de
carne, básculas para comestibles, relojes y otros artículos; sin embargo no
había logrado el contrato para el Censo de 1950.

Comenzó entonces a construir computadoras electrónicas y su primera entrada
fue con la IBM 701 en 1953. Después de un lento pero excitante comienzo la
IBM 701 se convirtió en un producto comercialmente viable. Sin embargo en
1954 fue introducido el modelo IBM 650, el cual es la razón por la que IBM
disfruta hoy de una gran parte del mercado de las computadoras. La
administración de la IBM asumió un gran riesgo y estimó una venta de 50
computadoras. Este número era mayor que la cantidad de computadoras
instaladas en esa época en E.U. De hecho la IBM instaló 1000 computadoras.
El resto es historia. Aunque caras y de uso limitado las computadoras fueron
aceptadas rápidamente por las Compañías privadas y de Gobierno. A la mitad
de los años 50 IBM y Remington Rand se consolidaban como líderes en la
fabricación de computadoras.

SEGUNDA GENERACIÓN (1959-1964)

Transistor Compatibilidad Limitada

El invento del transistor hizo posible una nueva Generación de computadoras,
más rápidas, más pequeñas y con menores necesidades de ventilación. Sin
embargo el costo seguía siendo una porción significativa del presupuesto de
una Compañía. Las computadoras de la segunda generación también
utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el
almacenamiento primario. Estos núcleos contenían pequeños anillos de
material magnético, enlazados entre sí, en los cuales podían almacenarse
datos e instrucciones.

Los programas de computadoras también mejoraron. El COBOL (COmmon
Busines Oriented Languaje) desarrollado durante la 1era generación estaba ya
disponible comercialmente, este representa uno de os mas grandes avances
en cuanto a portabilidad de programas entre diferentes computadoras; es decir,
es uno de los primeros programas que se pueden ejecutar en diversos equipos
de computo después de un sencillo procesamiento de compilación. Los
programas escritos para una computadora podían transferirse a otra con un
mínimo esfuerzo. Grace Murria Hooper (1906-1992), quien en 1952 habia
inventado el primer compilador fue una de las principales figuras de CODASYL
(Comité on Data SYstems Languages), que se encago de desarrollar el
proyecto COBOL El escribir un programa ya no requería entender plenamente
el hardware de la computación. Las computadoras de la 2da Generación eran
sustancialmente más pequeñas y rápidas que las de bulbos, y se usaban para
nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas,
control de tráfico aéreo y simulaciones para uso general. Las empresas
comenzaron a aplicar las computadoras a tareas de almacenamiento de
registros, como manejo de inventarios, nómina y contabilidad.

TERCERA GENERACIÓN (1964-1971)

Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación,
Minicomputadora.


Las computadoras de la tercera generación emergieron con el desarrollo de los
circuitos integrados (pastillas de silicio) en las cuales se colocan miles de
componentes electrónicos, en una integración en miniatura. Las computadoras
nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor
y eran energéticamente más eficientes.

El descubrimiento en 1958 del primer Circuito Integrado (Chip) por el ingeniero
Jack S. Kilby (nacido en 1928) de Texas Instruments, así como los trabajos
que realizaba, por su parte, el Dr. Robert Noyce de Fairchild Semicon ductors,
acerca de los circuitos integrados, dieron origen a la tercera generación de
computadoras.

Antes del advenimiento de los circuitos integrados, las computadoras estaban
diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos
cosas. Los circuitos integrados permitieron a los fabricantes de computadoras
incrementar la flexibilidad de los programas, y estandarizar sus modelos.

La IBM 360 una de las primeras computadoras comerciales que usó circuitos
integrados, podía realizar tanto análisis numéricos como administración ó
procesamiento de archivos.

IBM marca el inicio de esta generación, cuando el 7 de abril de 1964 presenta
la impresionante IBM 360, con su tecnología SLT (Solid Logic Technology).
Esta máquina causó tal impacto en el mundo de la computación que se
fabricaron más de

30000, al grado que IBM llegó a conocerse como sinónimo de computación.
También en ese año, Control Data Corporation presenta la supercomputadora
CDC 6600, que se consideró como la más poderosa de las computadoras de la
época, ya que tenía la capacidad de ejecutar unos 3 000 000 de instrucciones
por segundo (mips).

Se empiezan a utilizar los medios magnéticos de almacenamiento, como cintas
magnéticas de 9 canales, enormes discos rígidos, etc. Algunos sistemas
todavía usan las tarjetas perforadas para la entrada de datos, pero las lectoras
de tarjetas ya alcanzan velocidades respetables.

Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño
y podían todavía correr sus programas actuales. Las computadoras trabajaban
a tal velocidad que proporcionaban la capacidad de correr más de un programa
de manera simultánea (multiprogramación).

Por ejemplo la computadora podía estar calculando la nomina y aceptando
pedidos al mismo tiempo. Minicomputadoras, Con la introducción del modelo
360 IBM acaparó el 70% del mercado, para evitar competir directamente con
IBM la empresa Digital Equipment Corporation DEC redirigió sus esfuerzos
hacia computadoras pequeñas. Mucho menos costosas de comprar y de
operar que las computadoras grandes, las minicomputadoras se desarrollaron
durante la segunda generación pero alcanzaron sumador auge entre 1960 y
70.

CUARTA GENERACIÓN (1971 a 1981)

Microprocesador , Chips de memoria, Microminiaturización

Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta
generación: el reemplazo de las memorias con núcleos magnéticos, por las de
chips de silicio y la colocación de Muchos más componentes en un Chip:
producto de la microminiaturización de los circuitos electrónicos. El tamaño
reducido del microprocesador y de chips hizo posible la creación de las
computadoras personales (PC)


En 1971, intel Corporation, que era una pequeña compañía fabricante de
semiconductores ubicada en Silicon Valley, presenta el primer microprocesador
o Chip de 4 bits, que en un espacio de aproximadamente 4 x 5 mm contenía 2
250 transistores. Este primer microprocesador que se muestra en la figura
1.14, fue bautizado como el 4004.
Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de
San Francisco, que por su gran producción de silicio, a partir de 1960 se
convierte en una zona totalmente industrializada donde se asienta una gran
cantidad de empresas fabricantes de semiconductores y microprocesadores.
Actualmente es conocida en todo el mundo como la región más importante
para las industrias relativas a la computación: creación de programas y
fabricación de componentes.

Actualmente ha surgido una enorme cantidad de fabricantes de
microcomputadoras o computadoras personales, que utilizando diferentes
estructuras o arquitecturas se pelean literalmente por el mercado de la
computación, el cual ha llegado a crecer tanto que es uno de los más grandes
a nivel mundial; sobre todo, a partir de 1990, cuando se logran sorprendentes
avances en Internet.

Esta generación de computadoras se caracterizó por grandes avances
tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las
primeras microcomputadoras, entre las cuales, las más famosas fueron las
fabricadas por Apple Computer, Radio Shack y Commodore Busíness
Machines. IBM se integra al mercado de las microcomputadoras con su
Personal Computer (figura 1.15), de donde les ha quedado como sinónimo el
nombre de PC, y lo más importante; se incluye un sistema operativo
estandarizado, el MS- DOS (MicroSoft Disk Operating System).

Las principales tecnologías que dominan este mercado son:

IBM y sus compatibles llamadas clones, fabricadas por infinidad de compañías
con base en los procesadores 8088, 8086, 80286, 80386, 80486, 80586 o
Pentium, Pentium II, Pentium III y Celeron de Intel y en segundo término Apple
Computer, con sus Macintosh y las Power Macintosh, que tienen gran
capacidad de generación de gráficos y sonidos gracias a sus poderosos
procesadores Motorola serie 68000 y PowerPC, respectivamente. Este último
microprocesador ha sido fabricado utilizando la tecnología RISC (Reduced
Instruc tion Set Computing), por Apple Computer Inc., Motorola Inc. e IBM
Corporation, conjuntamente.

Los sistemas operativos han alcanzado un notable desarrollo, sobre todo por la
posibilidad de generar gráficos a gran des velocidades, lo cual permite utilizar
las interfaces gráficas de usuario (Graphic User Interface, GUI), que son
pantallas con ventanas, iconos (figuras) y menús desplegables que facilitan las
tareas de comunicación entre el usuario y la computadora, tales como la
selección de comandos del sistema operativo para realizar operaciones de
copiado o formato con una simple pulsación de cualquier botón del ratón
(mouse) sobre uno de los iconos o menús.

QUINTA GENERACIÓN Y LA INTELIGENCIA ARTIFICIAL (1982-1989)

Cada vez se hace más difícil la identificación de las generaciones de
computadoras, porque los grandes avances y nuevos descubrimientos ya no
nos sorprenden como sucedió a mediados del siglo XX. Hay quienes
consideran que la cuarta y quinta generación han terminado, y las ubican entre
los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran
que la sexta generación está en desarrollo desde 1990 hasta la fecha.

Siguiendo la pista a los acontecimientos tecnológicos en materia de
computación e informática, podemos puntualizar algunas fechas y
características de lo que podría ser la quinta generación de computadoras.

Con base en los grandes acontecimientos tecnológicos en materia de
microelectrónica y computación (software) como CADI CAM, CAE, CASE,
inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos,
algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la década
de los años ochenta se establecieron las bases de lo que se puede conocer
como quinta generación de computadoras.

Hay que mencionar dos grandes avances tecnológicos, que sirvan como
parámetro para el inicio de dicha generación: la creación en 1982 de la primera
supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy
Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que
funda en 1976 la Cray Research Inc.; y el anuncio por parte del gobierno
japonés del proyecto "quinta generación", que según se estableció en el
acuerdo con seis de las más grandes empresas japonesas de computación,
debería terminar en 1992.

El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen
la capacidad de trabajar simultáneamente con varios microprocesadores.
Aunque en teoría el trabajo con varios microprocesadores debería ser mucho
más rápido, es necesario llevar a cabo una programación especial que permita
asignar diferentes tareas de un mismo proceso a los diversos
microprocesadores que intervienen.
También se debe adecuar la memoria para que pueda atender los
requerimientos de los procesadores al mismo tiempo. Para solucionar este
problema se tuvieron que diseñar módulos de memoria compartida capaces de
asignar áreas de caché para cada procesador.

Según este proyecto, al que se sumaron los países tecnológicamente más
avanzados para no quedar atrás de Japón, la característica principal sería la
aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las
computadoras de esta generación contienen una gran cantidad de
microprocesadores trabajando en paralelo y pueden reconocer voz e
imágenes. También tienen la capacidad de comunicarse con un lenguaje
natural e irán adquiriendo la habilidad para tomar decisiones con base en
procesos de aprendizaje fundamentados en sistemas expertos e inteligencia
artificial.


 El almacenamiento de información se realiza en dispositivos magneto ópticos
con capacidades de decenas de Gigabytes; se establece el DVD (Digital Video
Disk o Digital Versatile Disk) como estándar para el almacenamiento de video y
sonido; la capacidad de almacenamiento de datos crece de manera
exponencial posibilitando guardar más información en una de estas unidades,
que toda la que había en la Biblioteca de Alejandría. Los componentes de los
microprocesadores actuales utilizan tecnologías de alta y ultra integración,
denominadas VLSI (Very Large Sca/e Integration) y ULSI (Ultra Lar- ge Scale
Integration).

Sin embargo, independientemente de estos "milagros" de la tecnología
moderna, no se distingue la brecha donde finaliza la quinta y comienza la sexta
generación. Personalmente, no hemos visto la realización cabal de lo expuesto
en el proyecto japonés debido al fracaso, quizás momentáneo, de la
inteligencia artificial.




El único pronóstico que se ha venido realizando sin interrupciones en el
transcurso de esta generación, es la conectividad entre computadoras, que a
partir de 1994, con el advenimiento de la red Internet y del World Wide Web, ha
adquirido una importancia vital en las grandes, medianas y pequeñas
empresas y, entre los usuarios particulares de computadoras.
El propósito de la Inteligencia Artificial es equipar a las Computadoras con
   "Inteligencia Humana" y con la capacidad de razonar para encontrar
   soluciones.    Otro factor fundamental del diseño, la capacidad de la
   Computadora para reconocer patrones y secuencias de procesamiento que
   haya encontrado previamente, (programación Heurística) que permita a la
   Computadora recordar resultados previos e incluirlos en el procesamiento, en
   esencia, la Computadora aprenderá a partir de sus propias experiencias usará
   sus Datos originales para obtener la respuesta por medio del razonamiento y
   conservará esos resultados para posteriores tareas de procesamiento y toma
   de decisiones.

   SEXTA GENERACIÓN 1990 HASTA LA FECHA

   Como supuestamente la sexta generación de computadoras está en marcha
   desde principios de los años noventas, debemos por lo menos, esbozar las
   características que deben tener las computadoras de esta generación.
   También se mencionan algunos de los avances tecnológicos de la última
   década del siglo XX y lo que se espera lograr en el siglo XXI. Las
   computadoras de esta generación cuentan con arquitecturas combinadas
   Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al
   mismo tiempo; se han creado computadoras capaces de realizar más de un
   millón de millones de operaciones aritméticas de punto flotante por segundo
   (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán
   creciendo desorbitadamente utilizando medios de comunicación a través de
   fibras ópticas y satélites, con anchos de banda impresionantes. Las
   tecnologías de esta generación ya han sido desarrolla das o están en ese
   proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del
   caos, sistemas difusos, holografía, transistores ópticos, etcétera.



1.5 Avances de la informática

   La tecnología informática a desarrollarse en los próximos 20 años aportará
   soluciones para el fracaso de cosechas, ayudará a entender el pensamiento y
   los objetivos que impulsaron a los personajes históricos, o también analizará la
   situación económica de un país y propondrá posibles soluciones, según un
   dossier elaborado por de la British Computer Society (BCS).
   Asimismo, la tecnología informática creará verdaderos “archivos de
   conocimiento” que, gracias a complejas interrelaciones, serán capaces de
   analizar los problemas de la sociedad humana.
Las nuevas tecnologías informáticas que se desarrollarán en los próximos años
podrían ser capaces de hacer frente a problemas humanos relacionados con la
economía o la vida en sociedad, según el dossier Grand Challenges in
Computing Research 2008 que acaba de publicar la British Computer Society
(BCS) con los materiales de la conferencia que con el mismo nombre se
celebró en Londres hace ahora un año.

Según este dossier, la tecnología a desarrollarse en los próximos 20 años
podría ser capaz de aportar soluciones para el fracaso de cosechas, ayudar a
entender el pensamiento y los objetivos que impulsaron a los personajes
históricos, o también analizar la situación económica de un país y proponer
posibles soluciones. El informe de la BCS sobre estos grandes retos de la
informática fue comentado en un artículo del sitio Silicon.com.

Algunos de los desafíos que se plantean estas investigaciones, por ejemplo, se
relacionan con el empleo de la tecnología informática para explotar el valor de
la inteligencia humana a lo largo del tiempo, creando verdaderos “archivos de
conocimiento” que, gracias a complejas interrelaciones, sean capaces de
analizar los problemas de la sociedad humana.
Grandes desafíos en áreas sensibles

Otro de los grandes desafíos para la tecnología computacional en los próximos
20 años es el desarrollo de sistemas robóticos más sofisticados y eficientes,
capaces de emular la arquitectura del cerebro humano. Al mismo tiempo, un
propósito de gran importancia es eliminar los errores tecnológicos,
desarrollando sistemas informáticos más fiables, seguros y eficaces.

En la relación con la naturaleza, otro de los retos es desarrollar una tecnología
que permita a los ordenadores “leer” el mapa de las funciones internas y
externas de las especies vegetales, algo que ayudaría enormemente a los
científicos a comprender los procesos más complejos que tienen lugar en el
reino vegetal. Este conocimiento podría ser utilizado en el campo de la
agricultura, para planificar cosechas y otras actividades de manera más
eficiente.

El desafío de acoplar los avances informáticos al mundo vegetal es el objetivo
del Proyecto In Vivo-In Silico, dirigido por el profesor Andrew Bangham, del
Centro de Biología Computacional de la Universidad de East Anglia, en el
Reino Unido.
El mencionado proyecto de investigación tiene un plazo de tiempo fijado en
2020 para conseguir los resultados esperados, y es considerado como una
gran esperanza para poder hacer frente a los complejos problemas causados
por la pérdida de cosechas en distintas partes del mundo.


Un segundo proyecto de investigación, conducido por el profesor de
inteligencia artificial de la Universidad de Southampton (Reino Unido), Nigel
Shadbolt, encara el problema de la memoria humana. Se llama Memories for
Life y su propósito es capitalizar los avances informáticos para lograr que toda
la información, experiencias y emociones de un ser humano a lo largo de toda
su vida, puedan ser almacenadas en un único disco en el transcurso de los
próximos 20 años. Como ya hemos informado en otro artículo, los ordenadores
ya son capaces de reconocer emociones humanas.

Esta investigación podría desembocar en importantes avances en inteligencia
artificial y realidad virtual, brindando precisiones con respecto a la forma de
relacionarse de determinadas personas con sus semejantes y pudiendo
capitalizar experiencias individuales que podrían ser útiles en otras situaciones.

Un tercer proyecto busca crear los mecanismos necesarios para que la
tecnología informática sea capaz de recrear el pasado. De esta forma, se
podrán vivir virtualmente acontecimientos históricos, para poder comprender
con mayor detalle las circunstancias de los mismos y el comportamiento de los
personajes que los protagonizaron. Al mismo tiempo, el hombre sería capaz de
“viajar” a sitios históricos sin necesidad de trasladarse físicamente.

Esta investigación se desarrolla bajo la conducción del profesor David Arnold,
decano de la Facultad de Gestión y Sistemas de Información de la Universidad
de Brighton, también en el Reino Unido. Indudablemente, los desafíos
planteados por la BCS son tan complejos como motivadores, y confirman que
la revolución informática a sucederse en los próximos 20 años cambiará para
siempre el mundo que hoy conocemos

Más contenido relacionado

La actualidad más candente

Manual de armado y reparacion de pc
Manual de armado y reparacion de pcManual de armado y reparacion de pc
Manual de armado y reparacion de pcMiguel Felix
 
Antecedentes históricos de la informática
Antecedentes históricos de la informáticaAntecedentes históricos de la informática
Antecedentes históricos de la informáticagavilan10
 
Act. de la unidad 1 guia didactica
Act. de la unidad 1 guia didacticaAct. de la unidad 1 guia didactica
Act. de la unidad 1 guia didacticaluzv1524
 
computación e informática
computación e informática computación e informática
computación e informática chuquizuta
 
Taller de informatica unidades i y ii
Taller de informatica unidades i y iiTaller de informatica unidades i y ii
Taller de informatica unidades i y iiMarlene Candia Sosa
 
Historia de las computadoras
Historia de las computadorasHistoria de las computadoras
Historia de las computadorasUDABOL
 
Historia computadores
Historia computadoresHistoria computadores
Historia computadoreshenry jimenez
 
Por siglos los hombres han tratado de usar fuerzas y artefactos de diferente ...
Por siglos los hombres han tratado de usar fuerzas y artefactos de diferente ...Por siglos los hombres han tratado de usar fuerzas y artefactos de diferente ...
Por siglos los hombres han tratado de usar fuerzas y artefactos de diferente ...Camila Andrea
 

La actualidad más candente (13)

Manual de armado y reparacion de pc
Manual de armado y reparacion de pcManual de armado y reparacion de pc
Manual de armado y reparacion de pc
 
Museo virtual
Museo virtualMuseo virtual
Museo virtual
 
Antecedentes históricos de la informática
Antecedentes históricos de la informáticaAntecedentes históricos de la informática
Antecedentes históricos de la informática
 
Act. de la unidad 1 guia didactica
Act. de la unidad 1 guia didacticaAct. de la unidad 1 guia didactica
Act. de la unidad 1 guia didactica
 
Historia de-la-informatica
Historia de-la-informaticaHistoria de-la-informatica
Historia de-la-informatica
 
computación e informática
computación e informática computación e informática
computación e informática
 
Taller de informatica unidades i y ii
Taller de informatica unidades i y iiTaller de informatica unidades i y ii
Taller de informatica unidades i y ii
 
Informática I
Informática IInformática I
Informática I
 
Historia de las computadoras
Historia de las computadorasHistoria de las computadoras
Historia de las computadoras
 
Tema1 historia
Tema1 historiaTema1 historia
Tema1 historia
 
Nticx 4
Nticx 4Nticx 4
Nticx 4
 
Historia computadores
Historia computadoresHistoria computadores
Historia computadores
 
Por siglos los hombres han tratado de usar fuerzas y artefactos de diferente ...
Por siglos los hombres han tratado de usar fuerzas y artefactos de diferente ...Por siglos los hombres han tratado de usar fuerzas y artefactos de diferente ...
Por siglos los hombres han tratado de usar fuerzas y artefactos de diferente ...
 

Destacado

Trabalhos da turma 73
Trabalhos da turma 73Trabalhos da turma 73
Trabalhos da turma 73ebmalbertina
 
Manipulacion mediatica 10 mandamientos
Manipulacion mediatica 10 mandamientosManipulacion mediatica 10 mandamientos
Manipulacion mediatica 10 mandamientosparda19
 
Presentación Fiona Tan
Presentación Fiona TanPresentación Fiona Tan
Presentación Fiona Tanarteraro
 
Sqwange vacation boots final
Sqwange vacation boots finalSqwange vacation boots final
Sqwange vacation boots finalMelissa Clowdus
 
Gatti,Ambrosio
Gatti,AmbrosioGatti,Ambrosio
Gatti,Ambrosioarteraro
 
Trabajo de informatica[1]
Trabajo de informatica[1]Trabajo de informatica[1]
Trabajo de informatica[1]lema1227
 
PPT dodenmasker Ignatius van Loyola
PPT dodenmasker Ignatius van LoyolaPPT dodenmasker Ignatius van Loyola
PPT dodenmasker Ignatius van Loyolanikolaassintobin
 
Caperucitaroja moxxis mil XD
Caperucitaroja moxxis mil XDCaperucitaroja moxxis mil XD
Caperucitaroja moxxis mil XDEmmanuel Gama
 
Marketing
MarketingMarketing
MarketingFlooky
 
Práctica7x: Arte final champú a 5placas
Práctica7x: Arte final champú a 5placasPráctica7x: Arte final champú a 5placas
Práctica7x: Arte final champú a 5placasgaliapedroza
 
alejandro sanchez doblado y juanluis ganfornina monge
alejandro sanchez doblado y juanluis ganfornina mongealejandro sanchez doblado y juanluis ganfornina monge
alejandro sanchez doblado y juanluis ganfornina mongerbb 123456
 
Evaluation Question 1
Evaluation Question 1Evaluation Question 1
Evaluation Question 1jlawrence2703
 
Movie Genres Presentation
Movie Genres PresentationMovie Genres Presentation
Movie Genres PresentationKelseyDuffy
 

Destacado (20)

Trabalhos da turma 73
Trabalhos da turma 73Trabalhos da turma 73
Trabalhos da turma 73
 
Manipulacion mediatica 10 mandamientos
Manipulacion mediatica 10 mandamientosManipulacion mediatica 10 mandamientos
Manipulacion mediatica 10 mandamientos
 
Explotamiento natural y artificial
Explotamiento natural y artificialExplotamiento natural y artificial
Explotamiento natural y artificial
 
Presentación Fiona Tan
Presentación Fiona TanPresentación Fiona Tan
Presentación Fiona Tan
 
Sqwange vacation boots final
Sqwange vacation boots finalSqwange vacation boots final
Sqwange vacation boots final
 
Tecnologia
TecnologiaTecnologia
Tecnologia
 
Arquitectura griega
Arquitectura griegaArquitectura griega
Arquitectura griega
 
Math works
Math worksMath works
Math works
 
Messenger
MessengerMessenger
Messenger
 
Gatti,Ambrosio
Gatti,AmbrosioGatti,Ambrosio
Gatti,Ambrosio
 
Trabajo de informatica[1]
Trabajo de informatica[1]Trabajo de informatica[1]
Trabajo de informatica[1]
 
PPT dodenmasker Ignatius van Loyola
PPT dodenmasker Ignatius van LoyolaPPT dodenmasker Ignatius van Loyola
PPT dodenmasker Ignatius van Loyola
 
Caperucitaroja moxxis mil XD
Caperucitaroja moxxis mil XDCaperucitaroja moxxis mil XD
Caperucitaroja moxxis mil XD
 
Prensa
PrensaPrensa
Prensa
 
Marketing
MarketingMarketing
Marketing
 
Práctica7x: Arte final champú a 5placas
Práctica7x: Arte final champú a 5placasPráctica7x: Arte final champú a 5placas
Práctica7x: Arte final champú a 5placas
 
Messenger
MessengerMessenger
Messenger
 
alejandro sanchez doblado y juanluis ganfornina monge
alejandro sanchez doblado y juanluis ganfornina mongealejandro sanchez doblado y juanluis ganfornina monge
alejandro sanchez doblado y juanluis ganfornina monge
 
Evaluation Question 1
Evaluation Question 1Evaluation Question 1
Evaluation Question 1
 
Movie Genres Presentation
Movie Genres PresentationMovie Genres Presentation
Movie Genres Presentation
 

Similar a Introducción a la informatica

Generaciones De Las Computadoras
Generaciones De Las ComputadorasGeneraciones De Las Computadoras
Generaciones De Las Computadoraskristinne
 
HISTORIA DE LA PROGRAMACION
HISTORIA DE LA PROGRAMACIONHISTORIA DE LA PROGRAMACION
HISTORIA DE LA PROGRAMACIONFredy Olaya
 
Historia del computador
Historia del computadorHistoria del computador
Historia del computadorjennyvallejo
 
Historia de el Computador
Historia de el ComputadorHistoria de el Computador
Historia de el ComputadorJahir Martinez
 
Historia y generaciones de las computadoras
Historia y generaciones de las computadorasHistoria y generaciones de las computadoras
Historia y generaciones de las computadorasRaquel Susana Olinik
 
La EvolucióN De Las Computadoras Sin Ipervirculos
La EvolucióN De Las Computadoras Sin IpervirculosLa EvolucióN De Las Computadoras Sin Ipervirculos
La EvolucióN De Las Computadoras Sin Ipervirculosguest4f0b7c
 
Historia de la computación
Historia de la computaciónHistoria de la computación
Historia de la computaciónjpywreynoso
 
Historia y evolución de las computadoras de samboni
Historia y evolución de las computadoras de samboniHistoria y evolución de las computadoras de samboni
Historia y evolución de las computadoras de samboniAndrés Tejada
 
El computador.historia y evolución
El computador.historia y evoluciónEl computador.historia y evolución
El computador.historia y evoluciónDunkherz
 
Historia de la informatica (1)
Historia de la informatica (1)Historia de la informatica (1)
Historia de la informatica (1)ReyGomeZ15
 

Similar a Introducción a la informatica (20)

Tarea 1
Tarea 1Tarea 1
Tarea 1
 
Computadora
ComputadoraComputadora
Computadora
 
Generaciones De Las Computadoras
Generaciones De Las ComputadorasGeneraciones De Las Computadoras
Generaciones De Las Computadoras
 
HISTORIA DE LA PROGRAMACION
HISTORIA DE LA PROGRAMACIONHISTORIA DE LA PROGRAMACION
HISTORIA DE LA PROGRAMACION
 
La historia del computador
La  historia del computadorLa  historia del computador
La historia del computador
 
Historia del computador
Historia del computadorHistoria del computador
Historia del computador
 
Historia de el Computador
Historia de el ComputadorHistoria de el Computador
Historia de el Computador
 
Historia y generaciones de las computadoras
Historia y generaciones de las computadorasHistoria y generaciones de las computadoras
Historia y generaciones de las computadoras
 
1
11
1
 
Computadora
ComputadoraComputadora
Computadora
 
La computadora
La computadoraLa computadora
La computadora
 
Tarea1-fundamento
Tarea1-fundamentoTarea1-fundamento
Tarea1-fundamento
 
Computacion
ComputacionComputacion
Computacion
 
Ti cs
Ti csTi cs
Ti cs
 
La EvolucióN De Las Computadoras Sin Ipervirculos
La EvolucióN De Las Computadoras Sin IpervirculosLa EvolucióN De Las Computadoras Sin Ipervirculos
La EvolucióN De Las Computadoras Sin Ipervirculos
 
Historia de la computación
Historia de la computaciónHistoria de la computación
Historia de la computación
 
Historia y evolución de las computadoras de samboni
Historia y evolución de las computadoras de samboniHistoria y evolución de las computadoras de samboni
Historia y evolución de las computadoras de samboni
 
El computador.historia y evolución
El computador.historia y evoluciónEl computador.historia y evolución
El computador.historia y evolución
 
Historia de la informatica (1)
Historia de la informatica (1)Historia de la informatica (1)
Historia de la informatica (1)
 
INTRODUCCION A LA INFORMATICA
INTRODUCCION A LA INFORMATICAINTRODUCCION A LA INFORMATICA
INTRODUCCION A LA INFORMATICA
 

Introducción a la informatica

  • 1. Ministerio de educación universitaria Instituto tecnológico Dr. Cristóbal Mendoza Hotelería III INTRODUCCION A LA INFORMATICA AUTOR: Francis González CI 20197922 Turno vespertino Abril, 2012
  • 2. 1.1 ¿Que es la informática? La Informática es la ciencia aplicada que abarca el estudio y aplicación del tratamiento automático de la información, utilizando sistemas computacionales, generalmente implementados como dispositivos electrónicos. También está definida como el procesamiento automático de la información. Conjunto de conocimientos científicos y de técnicas que hacen posible el tratamiento automático de la información por medio de computadoras. La informática combina los aspectos teóricos y prácticos de la ingeniería, electrónica, teoría de la información, matemáticas, lógica y comportamiento humano. Los aspectos de la informática cubren desde la programación y la arquitectura informática hasta la inteligencia artificial y la robótica. 1.1 Concepto de computador Es una máquina programable para el procesado de información. Procesar información es extraer unos ciertos resultados o conclusiones a partir de unos ciertos datos de entrada. Por tanto, el ordenador deberá tomar unos datos para que la información sea entendida por el ordenador debe de estar debidamente codificada. La codificación se realiza mediante BITs (Binary digiT). El ordenador, por tanto, recibirá por un canal de entrada los datos con los que ha de trabajar, codificados en un formato adecuado, realizará un cierto proceso con ellos y mostrará el resultado de dicho proceso a través de un canal de salida. 1.2 Concepto de hardware Son todos los dispositivos y componentes físicos que realizan las tareas de entrada y salida, también se conoce al hardware como la parte dura o física del computador. La mayoría de las computadoras están organizadas de la siguiente forma: Los dispositivos de entrada (Teclados, Lectores de Tarjetas, Lápices Ópticos, Lectores de Códigos de Barra, Escáner, Mouse, etc.) y salida (Monitor, Impresoras, Plotters, Parlantes, etc.) y permiten la comunicación entre el computador y el usuario.
  • 3. 1.3 Breve historia del computador Aunque la computadora personal fue creada en 1981, sus inicios se remontan a varias décadas atrás y sus antecedentes a hace más de cuatro mil años. Esto, porque el origen de la informática no es la electrónica sino el perfeccionamiento de los cálculos matemáticos, que con el tiempo permitió el desarrollo del sistema binario, el lenguaje en que se programan las computadoras, que está basado en la combinación de números ceros y unos (0 y 1). 2500 a.C. - El antecedente más remoto es el ábaco, desarrollado en China. Fue el primer instrumento utilizado por el hombre para facilitar sus operaciones de cálculo. 600 a.C. - El astrónomo, matemático y filósofo griego Tales de Mileto describió algunos aspectos de la electricidad estática. De sus escritos proviene la palabra electrón, que se usa para designar a las partículas negativas del átomo. 500 a.C. - Los romanos usaron ábacos con piedras pequeñas, a las que llamaban cálculos, que eran desplazadas sobre una tabla con canales cifrados con sus números (I, V, X, L, C, D, M). 1633 - El inglés William Oughtred creó un instrumento que hoy se conoce como regla de cálculo, utilizado hasta hace unos años por los ingenieros. 1642 - El francés Blaise Pascal (1623-1662) inventó y construyó la primera sumadora mecánica. La pascalina hacía sumas y restas. La pascalina funcionaba gracias a una serie de ruedas contadoras con diez dientes numerados del 0 al 9. El padre de Pascal era recaudador de impuestos, así que fue el primero en usarla. 1671 - El filósofo y matemático alemán Gottfried Leibniz desarrolló una máquina multiplicadora. 1833 - El profesor de matemáticas de la Universidad de Cambridge Charles Babbage (1792 -1871) ideó la primera máquina procesadora de información.
  • 4. Algo así como la primera computadora mecánica programable. Pese a que dedicó casi cuarenta años a su construcción, murió sin terminar su proyecto. Babbage usaba cartones perforados para suministrarle datos a su máquina - había copiado la idea del telar del francés Joseph Marie Jacquard, inventado en 1801-, que se convertirían en instrucciones memorizadas; algo así como los primeros programas. Esperaba lograr imprimir la información registrada, obtener resultados y volver a ingresarlos para que la máquina los evaluara y dedujera qué se debía hacer después. La evaluación y la retroalimentación se convertirían en la base de la cibernética, que nacería un siglo más tarde. 1847 - El británico George Boole desarrolló un nuevo tipo de álgebra (álgebra de Boole) e inició los estudios de lógica simbólica. En 1847 publicó "El análisis matemático del pensamiento" y en 1854 "Las leyes del pensamiento". Su álgebra era un método para resolver problemas de lógica por medio de los valores binarios (1 y 0) y tres operadores: and (y), or (o) y not (no). Por medio del álgebra binaria, posteriormente se desarrolló lo que hoy se conoce como código binario, que es el lenguaje utilizado por todas las computadoras. 1890 - Los cartones perforados y un primitivo aparato eléctrico se usaron para clasificar por sexo, edad y origen a la población de Estados Unidos. Esta máquina del censo fue facilitada por el ingeniero Herman Hollerith, cuya compañía posteriormente se fusionó (1924) con una pequeña empresa de Nueva York, creando la International Business Machines (IBM), empresa que un siglo más tarde revolucionó el mercado con las computadoras personales o PC. 1889 - Solo a fines del siglo XIX se inventó una máquina calculadora que incorporó las cuatro operaciones básicas (suma, resta, multiplicación y división) y que lentamente se empezó a producir de manera más masiva. Esta máquina solo podía realizar una operación a la vez y no tenía memoria.1893 - Entre 1893 y 1920, Leonardo Torres y Quevedo creó en España varias máquinas capaces de resolver operaciones algebraicas. Posteriormente construyó la primera máquina capaz de jugar ajedrez.
  • 5. 1920 - Se presentó en París el "aritmómetro electromecánico", que consistía en una calculadora conectada a una máquina de escribir, en la que se tecleaban los números y las operaciones. Una vez realizado el cálculo, la máquina entregaba automáticamente el resultado. Este aparato fue la primera versión de una calculadora digital. 1934-1939 - Konrad Suze construyó en Alemania dos máquinas electromecánicas de cálculo que se acercaban bastante a lo que sería la primera computadora. La Z1 tenía un teclado y algunas lámparas que indicaban valores binarios. La Z2 fue una versión mejorada que utilizaba electromagnetismo. 1937 - Claude Shannon demostró que la programación de las futuras computadoras era más un problema de lógica que de aritmética, reconociendo la importancia del álgebra de Boole. Además, sugirió que podían usarse sistemas de conmutación como en las centrales telefónicas, idea que sería fundamental para la construcción de la primera computadora. Más adelante, junto con Warren Weaver, Shannon desarrolló la teoría matemática de la comunicación, hoy más conocida como la "teoría de la información", estableciendo los conceptos de negentropía, que se refiere a que la información reduce el desorden, y la unidad de medida del bit -en dígitos binarios- utilizada actualmente tanto en las telecomunicaciones como en la informática. 1939 - En Estados Unidos, George Stibitz y S.B. Williams, de los laboratorios Bell, construyeron una calculadora de secuencia automática que utilizaba interruptores ordinarios de sistemas de conmutación telefónica. Nacen los ordenadores En 1941, Konrad Suze presentó la Z3, la primera computadora electromagnética programable mediante una cinta perforada. Tenía dos mil electroimanes, una memoria de 64 palabras de 22 bits, pesaba mil kilos y consumía cuatro mil watts.
  • 6. Una adición demoraba 0,7 segundos, mientras que en una multiplicación o división tardaba 3 segundos. 1943 - Un equipo de expertos del ejército británico dirigido por Alan Turing construyó a Colossus, una computadora que permitía descifrar en pocos segundos y automáticamente los mensajes secretos de los nazis durante la Segunda Guerra Mundial, cifrados por la máquina Enigma. 1944 - En 1939, Howard Aiken (1900-1973), graduado de física de la Universidad de Harvard, logró un convenio entre dicha universidad e IBM, por el que un grupo de graduados inició el diseño y la construcción de la primera computadora americana, del tipo electromecánico -basado en electroimanes-. El Mark I comenzó a funcionar en 1944. Recibía y entregaba información en cintas perforadas, se demoraba un segundo en realizar diez operaciones. Medía 18 metros de longitud y 2,5 metros de alto. Posteriormente se construyeron Mark II y Mark III. 1947 - Pese a que Harvard e IBM construyeron la primera computadora, la tecnología era más avanzada en otras universidades. Los ingenieros John Presper Eckert y John W. Mauchly, de la Universidad de Pennsylvania, desarrollaron para el ejército estadounidense, en el laboratorio de investigaciones balísticas de Aberdeen, el ENIAC (Electronic Numerical Integrator And Calculator). Tenía treinta metros de largo, tres de alto, uno de ancho, pesaba treinta toneladas y tenía 800 kilómetros de cableado. Consumía la misma electricidad que mil lavadoras juntas y realizaba cien mil operaciones por segundo. Era capaz de calcular con gran velocidad las trayectorias de proyectiles, que era el objetivo inicial de su construcción. ENIAC es considerada la primera computadora, ya que su funcionamiento era completamente electrónico, tenía 17.468 válvulas o tubos (más resistencias, condensadores, etc.). Sin embargo, el calor de estas elevaba la temperatura local hasta los 50 grados, por lo que para efectuar diferentes operaciones debían cambiarse las conexiones, lo cual podía tomar varios días. 1949 - El matemático húngaro John Von Neumann resolvió el problema de tener que cablear la máquina para cada tarea.
  • 7. La solución fue poner las instrucciones en la misma memoria que los datos, escribiéndolas de la misma forma, en código binario. Refiriéndose a esta innovación, se habla de la "arquitectura de Von Neumann". Su EDVAC fue el modelo de las computadoras de este tipo. 1951 - La primera computadora comercial fue la UNIVAC 1, fabricada por la Sperry-Rand Corporation y comprada por la Oficina del Censo de Estados Unidos. Disponía de mil palabras de memoria central y podía leer cintas magnéticas. Por su parte, la IBM desarrolló la IBM 701, de la que se entregaron dieciocho unidades entre 1953 y 1957. La compañía Remington Rand fabricó el modelo 1103, que competía con la 701. Así, lentamente, fueron apareciendo nuevos modelos. 1955 - En Bell Labs se inició la construcción de computadoras sin válvulas, las que fueron reemplazadas por transistores. Esto permitió achicar en decenas de veces el tamaño de estas máquinas y aumentar su velocidad de operación. Además la refrigeración, debido al alza de la temperatura, ya no era necesaria. Los transistores habían sido inventados en 1947 por los científicos de esta misma compañía: Bardeen, Brattain y Shockley. Se trataba de un semiconductor de tamaño reducido capaz de realizar funciones de bloqueo o amplificación de señal. Eran más pequeños, más baratos y mucho menos calientes que las válvulas de vacío. 1957 - Un equipo de IBM, dirigido por John Backus, creó el primer lenguaje de programación, llamado Fortran, formulado para el IBM 704. 60’s - Técnicos de varios laboratorios, a partir de la elaboración de los transistores, comenzaron a producir unidades más grandes con múltiples componentes que cumplían diversas funciones electrónicas. Se trataba de los circuitos integrados o chips. Estos permitieron una nueva disminución en el tamaño y el costo.
  • 8. 1969 - Kenneth Thompson y Dennis Ritchie, de Bell Labs, desarrollaron el sistema operativo Unix. 1971 - La compañía Intel lanzó el primer microprocesador, el Intel 4004, un pequeño chip de silicio. Se trató de un circuito integrado especialmente construido para efectuar las operaciones básicas de Babbage y conforme a la arquitectura de Von Neumann. Fue la primera Unidad Central de Procesos (CPU). La integración de estos procesos avanzó en distintas etapas: Integración simple (Integrated Circuits o IC) Alta integración (Large Scale Integration o LSI) Muy alta integración (Very Large Scale Integration o VLSI) Estos procesos permitieron acelerar el funcionamiento de las computadoras, logrando superar el millón de operaciones por segundo. 1971 - Alan Shugart, de IBM, inventó el disco flexible o floppy disk, un disquete de 5 1/4 pulgadas. 1974 - Surge el Altair 8800, la primera computadora de escritorio, comercializada con el microprocesador Intel 8080. Aunque no incluía teclado, monitor, ni software de aplicación, esta máquina dio inicio a una revolución en los sistemas computacionales modernos. 1975 - Steve Jobs -que trabajaba en Atari- y Steven Wozniak -ingeniero de Hewlett Packard- se juntaron para armar una microcomputadora que pudiera ser usada más masivamente. Wozniak diseñó una placa única capaz de soportar todos los componentes esenciales y desarrolló el lenguaje de programación Basic. El resultado fue la primera computadora Apple.
  • 9. Steve Jobs y Steven Wozniak, crearon la primera computadora Apple. A fines de 1976 tenían el modelo listo para ser comercializado: el Apple II. Tras varios intentos, finalmente consiguieron el apoyo de Mike Markulla, con quien formaron su propia compañía, la Apple Computers. El Apple II siguió fabricándose por otros quince años, todo un récord para una industria que continuamente presenta novedades. 1975 Bill Gates y Paul Allen se unen para crear Microsoft, una empresa dedicada íntegramente al "software" Los 80's Computadoras para todos: Tras el éxito de la microcomputadora, en 1981 IBM lanzó al mercado el IBM PC, diseñado por doce ingenieros dirigidos por William C. Lowe. Su principal característica es que tenía una estructura abierta; es decir, que era capaz de integrar componentes de otros fabricantes. De hecho, su sistema operativo, el DOS 1.0, era de Microsoft, y el microprocesador, un Intel 8088. En cinco años se vendieron más de tres millones de unidades. Aunque el término personal computer (PC) se popularizó con esta invención de IBM, los primeros aparatos de este tipo habían sido comercializados desde 1977 por la Tandy Corporation, que le incorporó teclado y monitor, ya que el primer modelo de computadoras de escritorio, el Altair 8800 de 1974, no los tenía. En 1980, antes del lanzamiento de IBM, las revolucionarias empresas del Silicon Valley o Valle del Silicio -recibió ese nombre porque en él se establecieron solo empresas tecnológicas- como Apple, Tandy, Osborne y Commodore, ya habían vendido 327 mil unidades. En 1984, la compañía Apple presentó una nueva computadora, la Macintosh, sucesora de un modelo denominado Lisa. Entre sus novedades estaba la incorporación de una herramienta nueva para controlar la computadora, el mouse o ratón.
  • 10. El modelo no tuvo gran aceptación, debido a su alto costo. En 1985, Microsoft -compañía fundada por Bill Gates y Paul Allen en 1975- presentó el software Windows 1.1 Ese mismo año aparecen los primeros CD-ROM para computadoras. Las computadoras personales surgieron gracias a la Muy Alta Integración de sus procesos (VLSI) desarrollada durante los ochentas, y que permitió concentrar miles de componentes electrónicos en una plaquita de silicio (el chip) de alrededor de un centímetro cuadrado. Esto ha permitido reducir los tamaños de estas máquinas hasta hacerlas portátiles (Notebooks) y ampliar su velocidad por sobre el billón de operaciones por segundo, como es el caso de los supercomputadoras. Los 90's - Nuevas tecnologías Durante los noventa comenzó a masificarse el uso de las computadoras, al disminuir su tamaño y también su costo, debido a la producción en serie y a la competencia entre las fabricantes IBM, Apple y Microsoft. Primero se multiplicaron en las empresas y luego fueron apareciendo cada vez en más hogares 1.4 Generación de computadoras PRIMERA GENERACIÓN (1951 a 1958) Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y generaban más calor que los modelos contemporáneos. Eckert y Mauchly contribuyeron al desarrollo de computadoras de la 1era Generación formando una compañía privada y construyendo UNIVAC I, que el Comité del censo utilizó para evaluar el censo de 1950. La IBM tenía el monopolio de los equipos de procesamiento de datos a base de tarjetas
  • 11. perforadas y estaba teniendo un gran auge en productos como rebanadores de carne, básculas para comestibles, relojes y otros artículos; sin embargo no había logrado el contrato para el Censo de 1950. Comenzó entonces a construir computadoras electrónicas y su primera entrada fue con la IBM 701 en 1953. Después de un lento pero excitante comienzo la IBM 701 se convirtió en un producto comercialmente viable. Sin embargo en 1954 fue introducido el modelo IBM 650, el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. La administración de la IBM asumió un gran riesgo y estimó una venta de 50 computadoras. Este número era mayor que la cantidad de computadoras instaladas en esa época en E.U. De hecho la IBM instaló 1000 computadoras. El resto es historia. Aunque caras y de uso limitado las computadoras fueron aceptadas rápidamente por las Compañías privadas y de Gobierno. A la mitad de los años 50 IBM y Remington Rand se consolidaban como líderes en la fabricación de computadoras. SEGUNDA GENERACIÓN (1959-1964) Transistor Compatibilidad Limitada El invento del transistor hizo posible una nueva Generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones. Los programas de computadoras también mejoraron. El COBOL (COmmon Busines Oriented Languaje) desarrollado durante la 1era generación estaba ya disponible comercialmente, este representa uno de os mas grandes avances en cuanto a portabilidad de programas entre diferentes computadoras; es decir, es uno de los primeros programas que se pueden ejecutar en diversos equipos de computo después de un sencillo procesamiento de compilación. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. Grace Murria Hooper (1906-1992), quien en 1952 habia inventado el primer compilador fue una de las principales figuras de CODASYL (Comité on Data SYstems Languages), que se encago de desarrollar el proyecto COBOL El escribir un programa ya no requería entender plenamente
  • 12. el hardware de la computación. Las computadoras de la 2da Generación eran sustancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general. Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad. TERCERA GENERACIÓN (1964-1971) Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación, Minicomputadora. Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes. El descubrimiento en 1958 del primer Circuito Integrado (Chip) por el ingeniero Jack S. Kilby (nacido en 1928) de Texas Instruments, así como los trabajos que realizaba, por su parte, el Dr. Robert Noyce de Fairchild Semicon ductors, acerca de los circuitos integrados, dieron origen a la tercera generación de computadoras. Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos. La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos. IBM marca el inicio de esta generación, cuando el 7 de abril de 1964 presenta la impresionante IBM 360, con su tecnología SLT (Solid Logic Technology). Esta máquina causó tal impacto en el mundo de la computación que se fabricaron más de 30000, al grado que IBM llegó a conocerse como sinónimo de computación.
  • 13. También en ese año, Control Data Corporation presenta la supercomputadora CDC 6600, que se consideró como la más poderosa de las computadoras de la época, ya que tenía la capacidad de ejecutar unos 3 000 000 de instrucciones por segundo (mips). Se empiezan a utilizar los medios magnéticos de almacenamiento, como cintas magnéticas de 9 canales, enormes discos rígidos, etc. Algunos sistemas todavía usan las tarjetas perforadas para la entrada de datos, pero las lectoras de tarjetas ya alcanzan velocidades respetables. Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación). Por ejemplo la computadora podía estar calculando la nomina y aceptando pedidos al mismo tiempo. Minicomputadoras, Con la introducción del modelo 360 IBM acaparó el 70% del mercado, para evitar competir directamente con IBM la empresa Digital Equipment Corporation DEC redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de comprar y de operar que las computadoras grandes, las minicomputadoras se desarrollaron durante la segunda generación pero alcanzaron sumador auge entre 1960 y 70. CUARTA GENERACIÓN (1971 a 1981) Microprocesador , Chips de memoria, Microminiaturización Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales (PC) En 1971, intel Corporation, que era una pequeña compañía fabricante de semiconductores ubicada en Silicon Valley, presenta el primer microprocesador o Chip de 4 bits, que en un espacio de aproximadamente 4 x 5 mm contenía 2 250 transistores. Este primer microprocesador que se muestra en la figura 1.14, fue bautizado como el 4004.
  • 14. Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de San Francisco, que por su gran producción de silicio, a partir de 1960 se convierte en una zona totalmente industrializada donde se asienta una gran cantidad de empresas fabricantes de semiconductores y microprocesadores. Actualmente es conocida en todo el mundo como la región más importante para las industrias relativas a la computación: creación de programas y fabricación de componentes. Actualmente ha surgido una enorme cantidad de fabricantes de microcomputadoras o computadoras personales, que utilizando diferentes estructuras o arquitecturas se pelean literalmente por el mercado de la computación, el cual ha llegado a crecer tanto que es uno de los más grandes a nivel mundial; sobre todo, a partir de 1990, cuando se logran sorprendentes avances en Internet. Esta generación de computadoras se caracterizó por grandes avances tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las primeras microcomputadoras, entre las cuales, las más famosas fueron las fabricadas por Apple Computer, Radio Shack y Commodore Busíness Machines. IBM se integra al mercado de las microcomputadoras con su Personal Computer (figura 1.15), de donde les ha quedado como sinónimo el nombre de PC, y lo más importante; se incluye un sistema operativo estandarizado, el MS- DOS (MicroSoft Disk Operating System). Las principales tecnologías que dominan este mercado son: IBM y sus compatibles llamadas clones, fabricadas por infinidad de compañías con base en los procesadores 8088, 8086, 80286, 80386, 80486, 80586 o Pentium, Pentium II, Pentium III y Celeron de Intel y en segundo término Apple Computer, con sus Macintosh y las Power Macintosh, que tienen gran capacidad de generación de gráficos y sonidos gracias a sus poderosos procesadores Motorola serie 68000 y PowerPC, respectivamente. Este último microprocesador ha sido fabricado utilizando la tecnología RISC (Reduced Instruc tion Set Computing), por Apple Computer Inc., Motorola Inc. e IBM Corporation, conjuntamente. Los sistemas operativos han alcanzado un notable desarrollo, sobre todo por la posibilidad de generar gráficos a gran des velocidades, lo cual permite utilizar las interfaces gráficas de usuario (Graphic User Interface, GUI), que son pantallas con ventanas, iconos (figuras) y menús desplegables que facilitan las
  • 15. tareas de comunicación entre el usuario y la computadora, tales como la selección de comandos del sistema operativo para realizar operaciones de copiado o formato con una simple pulsación de cualquier botón del ratón (mouse) sobre uno de los iconos o menús. QUINTA GENERACIÓN Y LA INTELIGENCIA ARTIFICIAL (1982-1989) Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la cuarta y quinta generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha. Siguiendo la pista a los acontecimientos tecnológicos en materia de computación e informática, podemos puntualizar algunas fechas y características de lo que podría ser la quinta generación de computadoras. Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación (software) como CADI CAM, CAE, CASE, inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la década de los años ochenta se establecieron las bases de lo que se puede conocer como quinta generación de computadoras. Hay que mencionar dos grandes avances tecnológicos, que sirvan como parámetro para el inicio de dicha generación: la creación en 1982 de la primera supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda en 1976 la Cray Research Inc.; y el anuncio por parte del gobierno japonés del proyecto "quinta generación", que según se estableció en el acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar en 1992. El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la capacidad de trabajar simultáneamente con varios microprocesadores. Aunque en teoría el trabajo con varios microprocesadores debería ser mucho más rápido, es necesario llevar a cabo una programación especial que permita asignar diferentes tareas de un mismo proceso a los diversos microprocesadores que intervienen.
  • 16. También se debe adecuar la memoria para que pueda atender los requerimientos de los procesadores al mismo tiempo. Para solucionar este problema se tuvieron que diseñar módulos de memoria compartida capaces de asignar áreas de caché para cada procesador. Según este proyecto, al que se sumaron los países tecnológicamente más avanzados para no quedar atrás de Japón, la característica principal sería la aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes. También tienen la capacidad de comunicarse con un lenguaje natural e irán adquiriendo la habilidad para tomar decisiones con base en procesos de aprendizaje fundamentados en sistemas expertos e inteligencia artificial. El almacenamiento de información se realiza en dispositivos magneto ópticos con capacidades de decenas de Gigabytes; se establece el DVD (Digital Video Disk o Digital Versatile Disk) como estándar para el almacenamiento de video y sonido; la capacidad de almacenamiento de datos crece de manera exponencial posibilitando guardar más información en una de estas unidades, que toda la que había en la Biblioteca de Alejandría. Los componentes de los microprocesadores actuales utilizan tecnologías de alta y ultra integración, denominadas VLSI (Very Large Sca/e Integration) y ULSI (Ultra Lar- ge Scale Integration). Sin embargo, independientemente de estos "milagros" de la tecnología moderna, no se distingue la brecha donde finaliza la quinta y comienza la sexta generación. Personalmente, no hemos visto la realización cabal de lo expuesto en el proyecto japonés debido al fracaso, quizás momentáneo, de la inteligencia artificial. El único pronóstico que se ha venido realizando sin interrupciones en el transcurso de esta generación, es la conectividad entre computadoras, que a partir de 1994, con el advenimiento de la red Internet y del World Wide Web, ha adquirido una importancia vital en las grandes, medianas y pequeñas empresas y, entre los usuarios particulares de computadoras.
  • 17. El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia Humana" y con la capacidad de razonar para encontrar soluciones. Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones. SEXTA GENERACIÓN 1990 HASTA LA FECHA Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera. 1.5 Avances de la informática La tecnología informática a desarrollarse en los próximos 20 años aportará soluciones para el fracaso de cosechas, ayudará a entender el pensamiento y los objetivos que impulsaron a los personajes históricos, o también analizará la situación económica de un país y propondrá posibles soluciones, según un dossier elaborado por de la British Computer Society (BCS). Asimismo, la tecnología informática creará verdaderos “archivos de conocimiento” que, gracias a complejas interrelaciones, serán capaces de analizar los problemas de la sociedad humana.
  • 18. Las nuevas tecnologías informáticas que se desarrollarán en los próximos años podrían ser capaces de hacer frente a problemas humanos relacionados con la economía o la vida en sociedad, según el dossier Grand Challenges in Computing Research 2008 que acaba de publicar la British Computer Society (BCS) con los materiales de la conferencia que con el mismo nombre se celebró en Londres hace ahora un año. Según este dossier, la tecnología a desarrollarse en los próximos 20 años podría ser capaz de aportar soluciones para el fracaso de cosechas, ayudar a entender el pensamiento y los objetivos que impulsaron a los personajes históricos, o también analizar la situación económica de un país y proponer posibles soluciones. El informe de la BCS sobre estos grandes retos de la informática fue comentado en un artículo del sitio Silicon.com. Algunos de los desafíos que se plantean estas investigaciones, por ejemplo, se relacionan con el empleo de la tecnología informática para explotar el valor de la inteligencia humana a lo largo del tiempo, creando verdaderos “archivos de conocimiento” que, gracias a complejas interrelaciones, sean capaces de analizar los problemas de la sociedad humana. Grandes desafíos en áreas sensibles Otro de los grandes desafíos para la tecnología computacional en los próximos 20 años es el desarrollo de sistemas robóticos más sofisticados y eficientes, capaces de emular la arquitectura del cerebro humano. Al mismo tiempo, un propósito de gran importancia es eliminar los errores tecnológicos, desarrollando sistemas informáticos más fiables, seguros y eficaces. En la relación con la naturaleza, otro de los retos es desarrollar una tecnología que permita a los ordenadores “leer” el mapa de las funciones internas y externas de las especies vegetales, algo que ayudaría enormemente a los científicos a comprender los procesos más complejos que tienen lugar en el reino vegetal. Este conocimiento podría ser utilizado en el campo de la agricultura, para planificar cosechas y otras actividades de manera más eficiente. El desafío de acoplar los avances informáticos al mundo vegetal es el objetivo del Proyecto In Vivo-In Silico, dirigido por el profesor Andrew Bangham, del Centro de Biología Computacional de la Universidad de East Anglia, en el Reino Unido.
  • 19. El mencionado proyecto de investigación tiene un plazo de tiempo fijado en 2020 para conseguir los resultados esperados, y es considerado como una gran esperanza para poder hacer frente a los complejos problemas causados por la pérdida de cosechas en distintas partes del mundo. Un segundo proyecto de investigación, conducido por el profesor de inteligencia artificial de la Universidad de Southampton (Reino Unido), Nigel Shadbolt, encara el problema de la memoria humana. Se llama Memories for Life y su propósito es capitalizar los avances informáticos para lograr que toda la información, experiencias y emociones de un ser humano a lo largo de toda su vida, puedan ser almacenadas en un único disco en el transcurso de los próximos 20 años. Como ya hemos informado en otro artículo, los ordenadores ya son capaces de reconocer emociones humanas. Esta investigación podría desembocar en importantes avances en inteligencia artificial y realidad virtual, brindando precisiones con respecto a la forma de relacionarse de determinadas personas con sus semejantes y pudiendo capitalizar experiencias individuales que podrían ser útiles en otras situaciones. Un tercer proyecto busca crear los mecanismos necesarios para que la tecnología informática sea capaz de recrear el pasado. De esta forma, se podrán vivir virtualmente acontecimientos históricos, para poder comprender con mayor detalle las circunstancias de los mismos y el comportamiento de los personajes que los protagonizaron. Al mismo tiempo, el hombre sería capaz de “viajar” a sitios históricos sin necesidad de trasladarse físicamente. Esta investigación se desarrolla bajo la conducción del profesor David Arnold, decano de la Facultad de Gestión y Sistemas de Información de la Universidad de Brighton, también en el Reino Unido. Indudablemente, los desafíos planteados por la BCS son tan complejos como motivadores, y confirman que la revolución informática a sucederse en los próximos 20 años cambiará para siempre el mundo que hoy conocemos