El documento resume la historia temprana de la informática, desde los primeros precursores como el ábaco chino y las máquinas de cálculo mecánicas de Pascal y Leibniz, hasta el desarrollo de los primeros computadores electrónicos como el ENIAC en la década de 1940. Figuras clave mencionadas incluyen a Babbage, Boole, Shannon, Turing, y Aiken, cuyos trabajos allanaron el camino para la era de la computación moderna.
Un libro sin recetas, para la maestra y el maestro Fase 3.pdfsandradianelly
Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestr
ACERTIJO DE CARRERA OLÍMPICA DE SUMA DE LABERINTOS. Por JAVIER SOLIS NOYOLAJAVIER SOLIS NOYOLA
El Mtro. JAVIER SOLIS NOYOLA, crea y desarrolla ACERTIJO: «CARRERA OLÍMPICA DE SUMA DE LABERINTOS». Esta actividad de aprendizaje lúdico que implica de cálculo aritmético y motricidad fina, promueve los pensamientos lógico y creativo; ya que contempla procesos mentales de: PERCEPCIÓN, ATENCIÓN, MEMORIA, IMAGINACIÓN, PERSPICACIA, LÓGICA LINGUISTICA, VISO-ESPACIAL, INFERENCIA, ETCÉTERA. Didácticamente, es una actividad de aprendizaje transversal que integra áreas de: Matemáticas, Neurociencias, Arte, Lenguaje y comunicación, etcétera.
ROMPECABEZAS DE ECUACIONES DE PRIMER GRADO OLIMPIADA DE PARÍS 2024. Por JAVIE...JAVIER SOLIS NOYOLA
El Mtro. JAVIER SOLIS NOYOLA crea y desarrolla el “ROMPECABEZAS DE ECUACIONES DE 1ER. GRADO OLIMPIADA DE PARÍS 2024”. Esta actividad de aprendizaje propone retos de cálculo algebraico mediante ecuaciones de 1er. grado, y viso-espacialidad, lo cual dará la oportunidad de formar un rompecabezas. La intención didáctica de esta actividad de aprendizaje es, promover los pensamientos lógicos (convergente) y creativo (divergente o lateral), mediante modelos mentales de: atención, memoria, imaginación, percepción (Geométrica y conceptual), perspicacia, inferencia, viso-espacialidad. Esta actividad de aprendizaje es de enfoques lúdico y transversal, ya que integra diversas áreas del conocimiento, entre ellas: matemático, artístico, lenguaje, historia, y las neurociencias.
Instrucciones del procedimiento para la oferta y la gestión conjunta del proceso de admisión a los centros públicos de primer ciclo de educación infantil de Pamplona para el curso 2024-2025.
2. PRIMERA PARTE.
LOS PRECURSORES
• La primera "máquina" destinada a facilitar las
operaciones de cálculo encuentra su origen en
China hace unos 2.500 años: es el ábaco. Es
también en el I-Ching o "Libro de las
Mutaciones" chino que se encuentra la
primera formulación del sistema binario
(2.000 AC).
3. • La construcción del primer "robot" -
que simulaba ser un actor de teatro -
se debería a Herón de Alejandría, un
experto en hidr
4. • En 1633, el inglés Oughtred inventó un
instrumento que hoy conocemos como "regla
de cálculo", utilizado hasta hace poco por los
ingenieros.
5. • En 1642 el francés Blas Pascal fabricó -a los 19 años-
la primera máquina sumadora mecánica destinada a
ayudar a su padre, alto funcionario de las finanzas
nacionales. Esta fue perfeccionada en 1666 por
Samuel Morland.
• Este invento es de la mayor importancia, por cuanto
probó que un dispositivo material podía realizar
operaciones que parecían exclusivas de la mente
humana.
6. Poco después (1671), el filosofo y
matemático alemán Gottfried Leibniz, a su
vez, desarrolló una máquina multiplicadora,
mientras hubo que esperar hasta fines del
siglo XIX (1889) para poder completar las 4
operaciones.
Las dificultades en la fabricación de los
engranajes de precisión no permitió su
desarrollo masivo sino hasta fines del siglo
XIX. Por cierto este tipo de máquina
permitía una sola operación a la vez y no
tenía memoria.
7. Una mención especial requiere el desarrollo de un telar
automático por el francés Joseph Jacquard. En efecto,
analizando las operaciones repetitivas que requería la
producción de telas, este inventor imaginó conservar la
información repetitiva necesaria bajo la forma de
perforaciones en tarjetas. Estas perforaciones eran
detectadas mecánicamente, asegurando el desplazamiento
adecuado de las guías del hilado (tal como aún hoy ocurre
en las máquinas caseras).
8. Precursores inmediatos
• En el Siglo XIX llegan finalmente a buen término los
esfuerzos por desarrollar una máquina de calcular
precisa y eficiente:
• En Estados Unidos, Dorr E. Felt inventa el
"Complemento", una calculadora con columnas
diferentes para los diversos dígitos (unidades, decenas
y centenas). James Ritty inventa una caja registradora
con un seguro en la gaveta del dinero.
William S. Burroughs construye una sumadora capaz de
"recordar" el resultado. (Este es otro paso muy
importante: lograr que la máquina imite la memoria
humana).
9. • El hecho más importante del Siglo XIX, sin
embargo, no es el perfeccionamiento de las
calculadoras mecánicas sino la concepción de
una verdadera máquina procesadora de
información, capaz de auto controlar su
funcionamiento. Se debe al genio de Charles
Babbage, nacido en 1792 en Inglaterra.
10. Desesperado por lo errores contenidos en las
tablas numéricas de la época, este profesor de la
Universidad de Cambridge (GB), proyecta e inicia la
construcción de un nuevo tipo de calculadora. En
1821 presentó a la Royal Astronomical Society una
máquina capaz de resolver ecuaciones polinómicas
mediante el cálculo de diferencias sucesivas entre
conjuntos de números (por ello llamada "máquina
de diferencias"). Obtuvo por ello la medalla de oro
de la Sociedad en 1822.
11. En 1833, inició la construcción de una versión mayor y más versátil de su
primer modelo, para lo cual obtuvo una subvención inicial de 1.500 libras -y
luego otra de 17.000 libras- del gobierno británico. Para su construcción, se
inspiró en la máquina tejedora de Jacquard cuyo funcionamiento observó
detenidamente, anotando especialmente la capacidad de este máquina para
autor regular sus movimientos. Dedicó casi 40 años a la construcción de su
máquina, muriendo en 1877 sin lograr terminarla, especialmente en razón de la
imprecisión en la fabricación de los engranajes, que tendían a bloquearse
continuamente.
A parte de su capacidad de calcular, pretendía que fuese capaz de organizar
información registrada en tarjetas perforadas, imprimir sus resultados y -sobre
todo- evaluar un resultado para determinar ella misma qué cálculos hacer a
continuación. En otras palabras, introducía un principio lógico de evaluación
(si...entonces...) y un mecanismo de retroalimentación (el dato salido vuelve a
entrar), principio que sería medular en la cibernética que nacería un siglo más
tarde.
No contento con el modelo práctico que intentó construir con enormes
dificultades, desarrolló un modelo conceptual que llamó "Motor analítico". Este
anticipa la arquitectura de los computadores de hoy, previendo un "molino" o
"fábrica" ("mill") que sería el centro lógico (equivalente a la unidad aritmética de
hoy), una unidad de control y una memoria.
12. El segundo hXIX corresponde al desarrollo por el británico
autodidacta George Boole de una nueva álgebra echo
fundamental del Siglo. En 1847 -a los 32 años- publica "El
análisis matemático del pensamiento", lo cual le vale una
cátedra en el Queen's Collage de Dublín. En 1854 publica
su obra magna "Las leyes del pensamiento".
Su álgebra consiste en un método para resolver
problemas de lógica que recurre solamente a los valores
binarios "1" y "0" y a tres operadores: "AND" (y), "OR" (o) y
"NOT" (no). A partir de esta "álgebra binaria" se ha
desarrollado posteriormente lo que conocemos hoy como
"código binario", que utilizan todos los computadores
actuales.
13. Mientras tanto, el español Ramón Varea
presenta en 1878 el primer aparato
multiplicador y divisor directo (sin uso de
tablas) que rehusó comercializar por cuanto su
intención era demostrar que España tenía tanta
capacidad creativa como los Estados Unidos
(aunque él mismo residía en Nueva York).
14. Como lo demostraron los trabajos posteriores de Hollerith y los
futuros computadores, Boole pasó a ser con Babbage uno de
los dos teóricos fundadores de la moderna informática. Como
Babbage no pudo terminar su máquina, hubo que esperar hasta
1890 para ver surgir un nuevo aparato:
fue la máquina tabuladora de Herman Hollerith, que utilizó
tarjetas perforadas para procesar los datos del Censo de los
Estados Unidos. Era eléctrica y detectaba los hoyos en las
tarjetas, basándose en la lógica de Boole.
Hollerith fundó la "Tabulating Machine Company" que es la
antecesora comercial de la actual IBM.
15. En la línea del desarrollo de "máquinas
lógicas", Leonardo Torres y Quevedo
creó en España, entre 1893 y 1920,
varias máquinas capaces de resolver
ecuaciones algebraicas. Más tarde
construyó la primera máquina capaz de
jugar al ajedrez.
16. En 1914 escribió "Ensayos sobre la
Automática", en que describe
conceptualmente un aparato capaz de
razonar conforma a reglas determinadas por
su fabricante. No creía sin embargo que
fuese posible construirla con los materiales
de su tiempo (a diferencia de la opinión
errónea de Babbage, cuyos trabajos
conocía).
17. Últimos preparativos
• En 1914 escribió "Ensayos sobre la
Automática", en que describe
conceptualmente un aparato capaz de razonar
conforma a reglas determinadas por su
fabricante. No creía sin embargo que fuese
posible construirla con los materiales de su
tiempo (a diferencia de la opinión errónea de
Babbage, cuyos trabajos conocía).
18. Últimos preparativos
• Entre 1934 y 1939, en Alemania, Konrad Suze
construyó dos máquinas electromecánicas de
cálculo que se acercaban bastante a lo que sería
el primer computador. La "Z1" contaba con un
teclado y algunas lámparas que indicaban valores
binarios. Posteriormente, la "Z2" fue una versión
mejorada, que utilizaba relés electromagnéticos.
Su amigo, Helmut Schreyer le sugirió emplear
válvulas de vacío pero la escasez de éstas y la
proximidad de la guerra no le permitieron dar
este paso decisivo
19. • En 1937, Claude Shannon demostró definitivamente que la
programación de futuros computadores era un problema de
lógica más que de aritmética. Con ello señalaba la importancia
del álgebra de Boole, pero -además- sugirió que podían usarse
sistemas de conmutación como en las centrales telefónicas, idea
que sería decisiva para la construcción del primer computador,
el que siguió justamente este modelo.
Con posterioridad y con la colaboración de Warren Weaver,
Shannon desarrolló lo que llamó "teoría matemática de la
comunicación" -hoy más conocida como "Teoría de la
Información"-, estableciendo el concepto de "negentropía" (la
información reduce el desorden) y la unidad de medida del "bit"
(binary digit), universalmente conocida y aplicada tanto en
telecomunicaciones (que es el campo a partir del cual
trabajaron Shannon y Weaver) como en informática.
20. En 1939, en un último paso
norteamericano antes de la aparición
del primer computador, George Stibitz
y S.B. Williams, de los Laboratorios
Bell, construyeron una calculadora de
secuencia automática, que utilizaba
interruptores ordinarios de sistemas
de conmutación telefónica. Sería el
último invento antes de entrar en una
nueva era.
21. Nacen los mastodontes
• Los primeros computadores ocupaban varios
metros cúbicos, para una potencia de cálculo
equivalente a la de una calculadora de bolsillo
de hoy. Por esto hablamos de "mastodontes".
El éxito y la divulgación de la computación se
debe en su mayor parte al desarrollo del
poder de cálculo ligado a la rápida reducción
del tamaño de las máquinas.
22. En Gran Bretaña cobró fama justificada el matemático Alan Turing. Hijo de un
funcionario del Servicio Colonial en la India,
En 1937 concibió ya un proyecto (teórico) de cerebro artificial.
Durante la 2º Guerra Mundial, colaboró con el equipo de criptografía del
Ejército británico que intentaba descifrar automáticamente los mensajes
secretos de los nazis. Participó en la construcción del "Colossus" (1943),
computador cuya existencia fue un secreto hasta hace pocos años, el que
permitía descifrar en pocos segundos los mensajes cifrados generados por la
máquina "Enigma" alemana. Era en realidad un computador "dedicado", es
decir con una única función (descifrar). Funcionaba con 2.400 válvulas y 5
paneles de lectura óptica de cintas perforadas, capaz también de imprimir los
mensajes descifrados.
Después de 1945 trabajó en el Laboratorio Nacional de Física, en una máquina
de cálculo automático. Aunque era su objetivo construir un cerebro artificial se
encontró bloqueado por su desconocimiento de la neurofisiología.
23. En 1947 publicó "Maquinaria inteligente" , sobre el
tema de la inteligencia artificial, donde comparaba
los ordenadores a los cerebros "por programar" de
los bebés. Inventó la prueba de diálogo conocida con
su nombre: si no podemos distinguir entre un
interlocutor vivo y una máquina, ésta puede ser
considerada como "inteligente" ("Prueba de
Turing").
También es autor de la demostración matemática de
que sería imposible redactar un programa
computacional (serie finita de instrucciones) capaz
de analizar otro programa y predecir si este -de tener
algún sistema de recursión o autocontrol- provocaría
o no una repetición infinita de las operaciones
previstas.
Se suicidó en 1954 sin que estén claros sus motivos.
24. En 1932, James Bryce -inventor que trabajaba para la
IBM- instituyó un programa de investigación destinado
a desarrollar la aplicación de las válvulas de vacío (o
"tubos electrónicos") en máquinas calculadoras.
Howard Aiken, estudiante graduado de física de la
Universidad de Harvard se interesó por este proyecto
en 1937 y logró la firma de un convenio entre la IBM y
la universidad en 1939. Con un grupo de graduados de
Harvard inició así ese año el diseño y la construcción del
primer computador, de tipo electromecánico -es decir
basado en relés, o interruptores magnéticos
(electroimanes)-:
25. Es el MARK I, que entró a funcionar en 1944. Este
recibía y entregaba información en cintas perforadas,
demorándose un segundo por cada 10 operaciones.
Medía 18 metros de longitud y 2,5 metros de alto.
(Posteriormente se construyeron dos versiones más:
los MARK II y MARK III).
Aiken, nacido en 1900, falleció en 1973.
Aunque Harvard y la IBM produjeron el
primer computador electro-mecánico, la
tecnología era más avanzada en otras
universidades. Éstas llenaron
rápidamente su atraso superando
tecnológicamente la innovación de
Aiken.
26. Así John P. Eckert y John W. Mauchly construyeron
en 1947, en la Universidad de Pennsylvania, el
ENIAC (Electronic Numerical Integrator and
Calculator), primer computador electrónico,
compuesto de 17.468 válvulas o "tubos" (más
resistencias, condensadores, etc.), con 30 toneladas
de peso.
27. El calor de las válvulas elevaba la temperatura del local
hasta los 50º. Para efectuar diferentes operaciones,
debían cambiarse las conexiones (cables) como en las
viejas centrales telefónicas, lo cual era un trabajo que
podía tomar varios días. Era capaz de calcular con gran
velocidad la trayectorias de proyectiles, principal
objetivo inicial de su construcción. En 1,5 segundos
podía calcular le potencia 5000 de un número de 5
cifras.
Las máquinas con válvulas constituyeron la llamada
"primera generación" de computadores.
28. Otro producto importante de la guerra sería la cibernética. Un
equipo interdisciplinario (antropólogos, fisiólogos, matemáticos,
psicólogos y un economista), bajo la dirección de Norbert
Wiener, se enfrentó al problema de las trayectorias de proyectiles
dirigidos hacia objetos en movimientos, como los aviones
enemigos. Para acertar, debe predecirse la posición futura del
blanco, y corregirse la trayectoria si éste cambia de dirección. El
equipo de Wiener se dió cuenta que era un problema semejante
al que resuelve el cerebro cuando conduce la mano para recoger
un objeto (estático o en movimiento). Así formaron el propósito de
crear un aparato que imitaría los procesos de control existentes
en el ser humano (y eminentes fisiólogos fueron integrados al
grupo). Este equipo -que recuperó el concepto de
retroalimentación (feed-back) de Babbage-, al avanzar en sus
trabajos echó las bases de la cibernética, disciplina hoy rectora
de los procedimientos automáticos. De ella se valen las plantas
industriales que utilizan robots (dispositivos activos controlados
por computadores) en sus procesos de fabricación.
29. En 1949 fue publicado el resultado (teórico) de los
trabajos del equipo de Wiener bajo el título de
"Cybernetics". La naciente cibernética se definió como
"teoría de la comunicación y autorregulación en
sistemas probabilistas extremadamente complejos".
30. El modelo Von Neumann
• El matemático de orígen húngaro, John Von Neumann, trabajaba
en 1947 en el laboratorio atómico de Los Alamos cuando se
encontró con uno de los constructores de la ENIAC. Compañero de
Einstein, Goedel y Turing en Princeton, Von Neumann se interesó
por el problema de la necesidad de "recablear" la máquina para
cada nueva tarea.
En 1949 había encontrado y desarrollado la solución a este
problema, consistente en poner la información sobre las
operaciones a realizar en la misma memoria utilizada para los
datos, escribiéndola de la misma forma, es decir en código binario.
Su "EDVAC" fue el modelo de las computadoras de este tipo
construidas a continuación.
Se habla desde entonces de la "arquitectura de Von
Neumann"(que estudiaremos en detalle en el capítulo sobre
"Arquitectura"), aunque también diseñó otras formas de
construcción.
31. El primer computador comercial construído en
esta forma fue el UNIVAC 1, el cual fue fabricado
en 1951 por la Sperry-Rand Corporation y fue
comprado por la Oficina del Censo de Estados
Unidos.
32. LA MINIATURIZACIÓN
• En 1947, tres científicos - Bardeen, Brattain y Shockley-
de los Laboratorios Bell habían inventado un
semiconductor de tamaño reducido capaz de realizar
funciones de bloqueo o amplificación de señal: nacía
el TRANSISTOR. Más pequeños, más baratos y mucho
menos calientes que las válvulas de vacío, los
transistores desplazaron rápidamente a éstas en todos
los aparatos electrónicos, los computadores entre
otros.
• (William Shockley dejó la Bell y fue a instalarse en Palo
Alto para formar su propia compañía, que sería el
punto de partida del hoy famoso Valle del Silicio
"Silicon Valley").
33. A partir de 1955, se inició la construcción de
computadores en que las válvulas fueron reemplazadas
por transistores, lo cual permitió achicar decenas de
veces el tamaño de las máquinas y aumentar su
velocidad de operación, obviando además el problema
de refrigeración que planteaban los tubos (muy
calientes).
Un ejemplo típico de esta "segunda generación" de
computadores es el Standard Electric SE-Lorentz LR56,
primer computador traído a Chile por la Universidad de
Chile, en 1962.
Ese mismo año, la Universidad Católica trajo el IBM
1620.
34. En los años 60, técnicos de varios laboratorios se dieron
cuenta que la técnica de fabricación de los transistores
posibilitaba la producción de unidades más grandes con
múltiples componentes cumpliendo las diversas
funciones electrónicas requeridas. Así nacieron los
circuitos integrados, los cuales permitieron una nueva
disminución del tamaño y aún más del costo de los
aparatos.
Con ellos nace también la "tercera generación" de
computadores, cuyo exponente más famoso ha sido el
IBM 360.
35. En 1966, la Universidad de Chile es nuevamente
la primera en traer un computador de tercera
generación: el IBM 360-40.
En 1971, producto del avance en la fabricación
de estos circuitos, la compañía Intel lanza el
primer microprocesador: un circuito integrado
especialmente construído para efectuar las
operaciones básicas ya señaladas por Babbage y
conforme a la arquitectura definida por Von
Neumann, que conocemos como "Unidad Central
de Procesos" (CPU).
36. La integración ha avanzado en distintas etapas:
integración simple (IC: Integrated Circuits)
alta integración (LSI: Large Scale Integration)
muy alta integración (VLSI: Very Large Scale Integration)
y estamos llegando a una "ultra alta integración". Esta
integración creciente permite además acelerar el
funcionamiento, logrando superar - desde 1970 - el millón
de operaciones por segundo.
37. LA COMPUTADOARA DE ESCRITORIO
• Así han podido fabricarse nuestros
microcomputadores y los sistemas portátiles, al
mismo tiempo que se aumenta permanentemente la
capacidad de memoria interna de la máquina, para
conservar más datos mientras se procesan. La
velocidad, a su vez, superó ampliamente los diez
millones de operaciones por segundo, llegando
actualmente a cerca de 100 millones en los
microprocesadores más avanzados (utilizados en
computadores grandes o "mainframes").
38. Una pequeña firma de Albuquerque
(Nuevo México), que había sido pionera en
la fabricación de calculadoras electrónicas,
produjo el primer computador destinado a
aficionados: el Altair. No tenía ni teclado ni
monitor ni unidad de almacenamiento. Los
programas debían ser ingresados
instrucción por instrucción usando los
interruptores del panel frontal.
39. En 1975, Steve Jobs -que trabajaba en Atari- y Steve Wozniak -
que era ingeniero de Hewlett-Packard, se juntaron para armar un
micro-computador en su casa. Wozniak diseñó una placa única
capaz de soportar todos los componentes esenciales y desarrolló
el lenguaje de programación "BASIC". El producto fue el primer
"Apple". Para fines de 1976 tenían un modelo mucho mejor
desarrollado y en condiciones de ser comercializado: el Apple II.
Tras varios intentos para comercializar su licencia, obtuvieron el
apoyo personal de Mike Markulla, con quién formaron su propia
compañía, la Apple Computers. El Apple II siguió fabricándose por
unos 15 años, lo que constituye un récor histórico para este tipo
de producto.
40. Viendo el éxito de los micro-computadores, la IBM encargó a un grupo
especial el desarrollo de un computador personal, el cual estuvo listo y se
dió a conocer a mediados de 1981. Rompiendo con su tradición, determinó
que esa máquina fuera de estructura "abierta", es decir con
especificaciones técnicas públicas, con un sistema operativo creado por
otra compañía, el PC-DOS de Microsoft, y con la capacidad de integrar
componentes de otros fabricantes, lo que fue la principal razón de su éxito
y de la considerable difusión de los "PC (IBM) Compatibles". El primer año
se vendieron 65.000 unidades.
En 1984, la compañía Apple lanzó una máquina que introduciría
nuevamente una revolución: el Macintosh. Éste era el sucesor de un
modelo llamado "Lisa" -pero que no tuvo aceptación debido a su costo y
escasa capacidad- en que se introducía por primera vez el concepto de
interfaz gráfica, la analogía del "escritorio" y un nuevo periférico: el
"mouse" o ratón, como herramienta para controlar al computador.
41. Existen además supercomputadores que en vez de
funcionar a base de un sólo microprocesador utilizan miles
de éstos, pudiendo así hacer un enorme número de
operaciones simultáneas, llegando a los doscientos millones
por segundo.
El primer modelo fue desarrollado por Cray y comercializado
hacia 1984. Realizaba 80 millones de operaciones por
segundo.
En 1986, Floating Point Systems, compañía competidora
de la Cray Research, lanzó su "T-40.000", con 16.384
microprocesadores coordinados por "transputadores", el cual
es capaz de procesar a una velocidad de 262 millones de
operaciones en punto flotante por segundo (Mflops). Hoy,
algunos supercomputadores ocupan hasta 65.000
microprocesadores.
42. En 1991, un equipo de investigadores de IBM desarrolló el aparato
más pequeño jamás creado por el hombre: un interruptor que
mide el tamaño de un átomo. Es capaz de controlar el flujo de
corriente eléctrica desplazando un átomo de xenón entre dos
diminutos electrodos. Esta proeza es de suma importancia para el
desarrollo futuro de computadores enanos ya que los
componentes con dos posibles estados constituyen la base de los
procesadores.
Este mismo año, Digital Equipment (DEC) lanzó al mercado una
familia de computadores basados en arquitecturas de paralelismo
masivo: las máquinas van en un rango desde los 1.024 hasta los
16.384 microprocesadores que trabajan en forma paralela. En su
configuración máxima (por un costo de unos 1.500.000 dólares)
son capaces de realizar 26 mil millones de instrucciones básicas
por segundo (26.000 MIPS).
43. La firma NCR exhibió en Chile su nuevo microcomputador sin
teclado, lanzado en diciembre de 1991 en los Estados Unidos. Se
trata del "Notepad NCR 3125" que consiste en una caja del
tamaño de una hoja carta y de 3 cm de espesor y un lápiz
inalámbrico especial. Pesa menos de 2 kg, por lo cual puede ser
usado fácilmente como si fuese un bloc de apuntes. Tiene una
pantalla sensible a los pulsos electrónicos enviados por el lápiz.
Así, el usuario accede al computador mediante símbolos, gráficos
y escritura manual. Funciona con software de procesamiento de
textos y bases de datos, gráfica, fax y comunicación con otro
comprador por teléfono.
Mediante la utilización de un laser de luz azul, científicos de
IBM han logrado grabar y leer datos en un disco óptico a una
densidad de 2,5 Gigabits (2.500 millones de bits) por pulgada
cuadrada y a una velocidad de 2 millones de bits por segundo, lo
cual constituye un nuevo récord. Con esta densidad se podría
almacenar 6.500 Mb en discos de 5,25" de doble cara. Esta
tecnología podría comercializarse dentro de 3 a 5 años.
44. En noviembre de 1994, Nintendo anunció el
primer juego de "realidad virtual" (gráfica
tridimensional por la cual el usuario puede
desplazarse de modo ficticio), el "Virtual Boy",
con un costo de 199 dólares. (El primer
proyecto de este tipo le había costado 200.000
dólares a la NASA). Meses después, Sony lanzó
por 200 dólares su "Playstation", una
"estación" de juego con una capacidad
1.000MIPS (millones de instrucciones por
segundo), mientras el procesador Intel -de
muchos computadores- sólo permite 100MIPS
45. LAS NOVEDADES DE 1996
• Aparecen los primeros computadores- Internet,
el Pippen, japonés, como consola de juegos,
enchufado a la red para obtener su información.
Todavía no se vende. El teclado es opcional, para
los que quieran pedir más datos. Es Apple. Los de
la manzana también ofrecen un nuevo Newton, la
tableta sin teclado que ahora sí reconoce mejor la
escritura y que trae más programas para sus
probables usuarios: trabajadores móviles,
pequeños empresarios, médicos, diseñadores. Se
enchufa a un celular y listo.
46. ABRAN PASO A LO VISUAL
Por la vista entra: videoconferencias desde el
computador portátil, por celular; Sony divide una
pantalla en 4 para que sendos ejecutivos puedan
discutir al mismo tiempo; excitante fidelidad en
reproducción, la impresión con chorros de tinta da
origen a un arte de precisión: las nuevas impresoras
Epson, Canon, Hewlett Packard, Apple, más que
duplican la fidelidad de sus predecesoras, a precios
convenientes.
47. ALMACENES GIGANTES
Lo visual obliga a aumentar las capacidades de las redes que
comunican a los computadores, y presiona sobre la
capacidad de almacenaje.
En CeBIT estiman que cada año la información digitalizada
en el mundo se duplica.
Por suerte los discos duros más rápidos, más capaces, más
pequeños y más baratos alegran el corazón del computador
sobrecargado.
Pero hay más. Iomega cantó victorias en CeBIT por haber
colocado ya más de un millón de discos Zip, económico
sistema capaz de almacenar hasta 100 megabytes.
3M le salió al paso (Siglo XXI 287) con un disco para 120 Mb
con mayor velocidad de transferencia de información y que
alega valer menos que el Zip por megabyte.
48. De esta batalla por almacenar más sólo podemos
ganar.
Irrumpen los grabadores de CD-ROMs. El más barato,
de HP, vale US$1.300. Sony ofrece uno ya no de doble
velocidad sino de 8 veces la original. Y aparecen los
prototipos de CD-ROMs regrabables. Para fines de
siglo tendremos CDs en capas, para almacenar más de
5 gigabytes de información.
Los necesitaremos
49. Aunque Europa y Estados Unidos recogieron el guante y pusieron también a sus
expertos a trabajar en programas semejantes ("Programa Estratégico de Computación y
Supervivencia" en Estados Unidos y "Programa Estratégico Europeo para la
Investigación en Tecnología de la Información - ESPRIT" en Europa).
Pero hasta hoy, no se han visto los resultados esperados ni han nacido los
"computadores inteligentes" con los cuales se esperaba contar en 1992, aunque se
hayan gastado centenares de miles de dólares. El proyecto japonés de Quinta
Generación se considera ahora fracasado, pero ha sido reemplazado por un proyecto
de "Sexta Generación" cuyo propósito es lograr capacidades computacionales
semejantes a las del cerebro humano hacia el año 2002. La fecha no parece muy
realista, a pesar de que los investigadores de este país han avanzado mucho en la
investigación de nuevas arquitecturas como las redes neuronales y los biochips (ver
abajo).
Las necesidades de los usuarios y los descubrimientos parecen, por ahora, llevar por
otros derroteros: nadie se esperaba el éxito de Internet y el crecimiento explosivo de la
World Wide Web . La idea de que una red podría tener o generar algún tipo de
inteligencia propia ("La inteligencia está en la red" dicen algunos) está empezando a
tomar cuerpo y a orientar otro tipo de investigación.