SlideShare una empresa de Scribd logo
1 de 61
Actividad de afianzamiento
¿Que hay hoy?
Eran los comienzos de la década de los '90, o más precisamente hablando, el año 1993.
Algunos de los procesadores 486 ya llevaban cuatro años en el mercado, sin embargo, quien
tenía uno podía considerarse un semidiós caminando sobre la tierra, teniendo en cuenta lo
"pesadas" que eran las aplicaciones de ese entonces: D.O.S. como sistema operativo, y
Windows 3.1 como "entorno". Pero Intel, que en ese tiempo enfrentaba una competencia
mucho más dura frente a alternativas como IBM, AMD, Cyrix y Texas Instruments, decidió
lanzar una nueva plataforma, mejorando la tecnología presente en los chips 486 de forma
considerable. El nombre designado fue Pentium, representando la quinta generación de
procesadores. Una de las razones para el nuevo nombre se debía a que las oficinas de
patentes se negaban a registrar números como propiedad. En ese entonces, los procesadores
eran clasificados como 80386 y 80486. Si hubiera sido posible, tal vez lo que conocemos por
Pentium hoy no hubiera sido otra cosa más que 80586, pero Intel sabía en ese momento que
necesitaría más que un nombre llamativo para imponerse frente a las plataformas existentes.
La popularidad de los 486 fue algo impresionante, a un extremo tal que Intel recién dejó de
fabricarlos en el año 2007, aunque ya estaban orientados a sistemas embebidos y con
objetivos específicos.
El primer Pentium: ¡60 megahertz de puro
poder!
El 22 de marzo de 1993 fue testigo de la aparición del Pentium 60. Tanto su frecuencia como
su bus estaban sincronizados en 60 megahertz, y marcó la aparición de un nuevo zócalo, el
socket 4, por lo que era necesario un nuevo motherboard para recibirlo (hubo una excepción,
que la nombraremos más adelante). Unidad de punto flotante integrada, 64 bits de bus de
datos, y un masivo consumo de energía (ubicado en los cinco voltios) eran algunas de las
características del nuevo procesador. Al Pentium original se lo conoció como P5 en el círculo
técnico, y sólo tuvo una versión superior, de 66 megahertz de velocidad. El consumo de
energía se volvió un verdadero problema: Intel debió elevar a 5.25v para mantener estable al
chip en 66 megahertz, algo que también despertó un demonio que ni siquiera hoy podemos
derrotar del todo: La temperatura. Era necesario un diseño más eficiente (no era por nada
que le decían "calentador de café" al Pentium), y así fue como Intel llegó, en octubre de
1994, a crear el P54C, una versión revisada del Pentium que, además de bajar el voltaje a
3.3v, también permitió elevar las velocidades de reloj a 75, 90 y 100 megahertz
respectivamente. Sin embargo, hubo dos puntos muy importantes que jugaron en contra de la
adopción del Pentium: Los nuevos P54C requerían un nuevo zócalo, el socket 5, que no era
retrocompatible con el zócalo anterior. Y lo más importante, fue que se descubrió un bug en la
unidad de punto flotante integrada en el diseño del Pentium, que se popularizó como el "bug
FDIV". Lo que realmente causó problemas no fue el error en sí, sino el hecho de que Intel
hubiera estado consciente del mismo cinco meses antes de que fuera reportado por el
profesor Thomas Nicely del Lynchburg Collage, mientras trabajaba con el procesador sobre la
Constante de Brun.
El bug FDIV estuvo presente en una cantidad significativa de
procesadores, pero fue la actitud de Intel la que hizo más daño
Por otro lado, Intel debía ofrecer una opción de actualización para aquellos sistemas con
zócalos antiguos, y así fue como se creó el Pentium OverDrive. De acuerdo a Intel, aquellos
usuarios con un sistema 486 podían colocar un procesador OverDrive y alcanzar un
rendimiento muy similar al de los procesadores Pentium. Lamentablemente, el diseño
OverDrive fue víctima de múltiples problemas de compatibilidad, afectando su rendimiento
final. Las alternativas presentadas por AMD y Cyrix ofrecían un rendimiento, y había
circunstancias en las que incluso un 486DX4 podía vencer a un OverDrive. Tampoco debemos
olvidar el precio, ya que si bien Intel había lanzado el OverDrive para que los usuarios
evitaran cambiar todo el sistema, el dinero que se ahorraban en ese proceso prácticamente
debían invertirlo sobre el OverDrive en sí. Los primeros OverDrive estuvieron disponibles para
socket 2, 3, 4, 5, 7 y 8.
Ninguna de las versiones OverDrive fue muy popular
En poco más de tres años, Intel había logrado triplicar la velocidad de sus chips Pentium. Los
P54C abrieron el camino para los P54CS, que elevaron las frecuencias a 133, 150, 166 y 200
megahertz respectivamente. Entre ambas estirpes apareció el P54CQS, representado
únicamente por el Pentium 120. A partir de los diseños de 120 megahertz, los chips Pentium
dejaron atrás al bug FDIV, pero el frente se abrió en dos. En primer lugar, aparecieron los
P55C, más conocidos entre los usuarios como Pentium MMX. Y en segundo lugar, Intel lanzó
al Pentium Pro en noviembre de 1995. Para cerrar con la quinta generación, los P55C
introdujeron al mercado la extensión MMX, un conjunto de instrucciones adicionales que
aumentaban el rendimiento de los chips en determinados procesos multimedia. Las versiones
de escritorio poseían velocidades de 166, 200 y 233 megahertz, utilizando al socket 7 que ya
existía desde los P54C. Los procesadores MMX también tuvieron su versión OverDrive para
zócalos anteriores, pero su baja popularidad se mantuvo sin cambios.
Intel elevó la apuesta con las nuevas instrucciones MMX
El siguiente en la línea fue el Pentium Pro. Desde su lanzamiento se lo conoce oficialmente
como integrante de la sexta generación de procesadores, también llamado P6, o i686, un
término que se utiliza incluso en estos días (puedes encontrarlo en los nombres de las
imágenes de algunas distros Linux). El Pentium Pro rápidamente se presentó como un chip
completamente diferente de la familia P5, a pesar de que compartían parte del nombre. No
poseía instrucciones MMX, pero su rendimiento era masivo, gracias a velocidades de reloj
aumentadas y diseños que contaban con una memoria caché L2 de hasta un megabyte. Uno
de los puntos más destacables del Pentium Pro era su rendimiento con software de 32 bits.
Como mínimo, su velocidad superaba a la de los Pentium en un 25 por ciento, pero al mismo
tiempo esto fue una de las cosas que lo perjudicó. Con un excelente rendimiento en 32 bits,
su velocidad en procesos de 16 bits era inferior, incluso a la que entregaban sus hermanos
menores. Como si eso fuera poco, un alto precio (provocado por lo complejo de su diseño) y la
necesidad de cambiar de zócalo una vez más (socket 8), hicieron del Pentium Pro un
procesador muy poco popular entre los usuarios, aunque mantuvo cierta presencia entre
servidores de alto rendimiento. Sus modelos eran de 150, 166, 180 y 200 megahertz, con
variantes de 256 KB, 512 KB, y 1 MB de memoria caché L2.
El Pentium Pro fue un adelantado a su época en varios aspectos
A pesar de los problemas que debió enfrentar con el Pentium Pro, Intel tomó lo aprendido a la
hora de diseñar este chip, creando la base para lo que serían los Pentium II, Pentium III,
Celeron y Xeon. El primer Pentium II apareció en mayo de 1997, y contaba con un diseño
radical: El "chip" se había convertido en "cartucho", presentando oficialmente al slot 1.
También introdujo la extensión MMX, y corrigió los problemas de rendimiento en aplicaciones
de 16 bits que habían plagado al Pentium Pro. Su memoria caché L2 era de 512 KB, aunque
más lenta, utilizando la mitad del ancho de banda. Sin embargo, el hecho de que Intel
integrara la memoria caché en el cartucho y no en el interior del núcleo permitió bajar los
costos lo suficiente como para hacer del Pentium II una opción muy atractiva entre los
consumidores, mucho más de lo que jamás fuera el Pentium Pro. Su primera versión fue
conocida como Klamath, que utilizaba un bus de 66 megahertz, y contaba con velocidades de
233, 266 y 300 megahertz. Menos de un año después llegó la familia Deschutes, con modelos
de 333, 350, 400, y 450 megahertz. El bus de los Deschutes fue elevado a cien megahertz (a
excepción del modelo 333 que permaneció en 66), algo que se mantuvo en procesadores
posteriores. Tres meses después de la aparición de los Deschutes, Intel lanzó al procesador
Celeron, una versión económica y mucho menos poderosa del Pentium II. Su principal
debilidad era la ausencia total de caché L2, algo que despertó muchos reclamos entre el
público. Sin embargo, tanto este Celeron como su posterior versión con 128 KB de caché L2
demostraron un potencial sin precedentes para realizar overclocking. El Celeron 300A se
convirtió en uno de los procesadores más codiciados, ya que con una configuración adecuada
se lo podía llevar a unos impresionantes 450 megahertz, un rendimiento que poco tenía que
envidiarle al Pentium II 450, mucho más caro. En cuanto al Xeon, desde el comienzo fue
posicionado como un procesador para servidores. Una ranura diferente a la de los Pentium II
y una mayor cantidad de caché fueron apenas dos de los tantos factores que determinaron
esto.
El Pentium II cambió zócalo por ranura: El slot 1 estaba entre nosotros
Los Pentium III estuvieron claramente definidos en tres sub.-generaciones. La primera fue
Katmai, que ofreció un aumento en la velocidad de reloj, y la incorporación de las nuevas
instrucciones SSE de aceleración multimedia. Sus modelos fueron de 450, 500, 533, 550 y 600
megahertz. Mientras que los Xeon también habían adquirido las características de los Pentium
III a través de nuevas versiones, ocho meses después, en octubre de 1999, llegaron los
modelos Coppermine. Los Coppermine marcaron la reintroducción de los zócalos entre los
chips de Intel, con la llegada del socket 370. Muchos usuarios han cruzado en su camino a los
famosos "adaptadores" de socket 370 a slot 1 para utilizar los nuevos chips en placas madre
con ranura slot 1, y de los problemas de compatibilidad que podían surgir con ello. Los
Coppermine estuvieron entre los primeros en ofrecer a los usuarios "regulares" la posibilidad
de contar con un procesador de 1 Ghz, barrera que no se esperaba alcanzar hasta dentro de
varios años. Algunos detalles adicionales se encontraron en la inclusión del bus de 133
megahertz, el uso completo del bus en la memoria caché L2 y la actualización de la línea
Celeron, incorporando las mejoras de los Coppermine. Finalmente, llegaron los Tualatin. Por
sí mismos, estos Pentium III eran muy poderosos, ya que los modelos superiores contaban
con un reloj de 1.4 Ghz, y 512 KB de caché L2. Pero resultaron extremadamente difíciles de
conseguir, sin mencionar su alto costo, y el detalle de que muchas placas madre resultaron
incompatibles con estos procesadores, debido a limitaciones de diseño en sus chipsets. Quien
contara con una placa madre compatible y un Tualatin cerca, tenía a un verdadero monstruo
como ordenador.
El Pentium III rápidamente volvió al zócalo, y se mantuvo así hasta el último modelo Tualatin
Hasta aquí llegamos a lo que se puede considerar como "historia antigua", porque ahora
entramos en la época de los primeros Pentium 4, que a falta de otras palabras, fueron
demasiados para el gusto y la comprensión de los usuarios. Los primeros P4 correspondían a
la familia Willamette, comenzando con una velocidad de reloj de 1.3 Ghz, nuevo zócalo (423),
y la introducción de las instrucciones SSE2. Luego vinieron los Northwood, los Gallatin (más
conocidos como Extreme Edition), los Prescott, los Prescott 2M, y finalmente los Cedar Mill.
Todas estas familias presentaron múltiples cambios: El abandono del socket 423 en favor del
478, la introducción del Hyper-Threading, buses de 533 megahertz, instrucciones SSE3, buses
de 800 megahertz, virtualización, el socket 775, y fundamentalmente, la llegada de la micro
arquitectura NetBurst. La velocidad máxima de los Pentium 4 alcanzó unos impresionantes
3.8 Ghz, pero esto resultó ser más una limitación que un logro. Intel no podía ir más allá de
esta velocidad sin seguir aumentando el voltaje y el diseño térmico, algo que además de ser
problemático, también resultaría excesivamente caro. Intel necesitaba hacer las cosas más
simples, en varios sentidos.
El socket 423 fue abandonado en un tiempo
bastante breve
Aún es posible encontrar ordenadores con un
Pentium 4 como este en su interior
El último y más moderno de la estirpe: Pentium G6950
La solución llegó a través de algo ya cotidiano para nosotros: Los núcleos múltiples. Aunque
el primer Pentium de dos núcleos apareció en mayo de 2005 (el llamado Pentium D), todavía
se los puede encontrar funcionando como si fuera el primer día. Los primeros intentos de
Intel fueron algo toscos, ya que los Pentium D resultaron ser muy ineficientes, especialmente
en el aspecto de temperatura. Smithfield y Presler, junto con sus variaciones XE, fueron las
que le dieron forma a esta serie D de procesadores Pentium. La arquitectura NetBurst
necesitaba un reemplazo, y este llegó con algo que ya es muy familiar para todos nosotros:
Los procesadores Core 2 Duo. Mientras que los modelos Core pasaron a la vanguardia,
representando a los modelos de media y alta gama, los Pentium fueron relegados a un rol
mucho más humilde, identificando procesadores con lo que hoy consideramos como
"capacidades básicas". Sin embargo, eso no quiere decir que el nombre Pentium en sí mismo
esté destinado a desaparecer. Hoy en día, Intel mantiene activos tres zócalos: El 775, el 1156
y el 1366. El primero está prácticamente desplazado, mientras que los otros dos concentran
todos los nuevos modelos de procesadores, incluyendo al Pentium G6950, lanzado en enero
pasado. Por lo tanto, que no te preocupe si el presupuesto te alcanza sólo para este nuevo
Pentium. En cualquier momento podrás dar el salto a un CPU más completo, pero tampoco
debes dejar de recordar que el nombre Pentium ha sabido dejar su huella en el mundo de la
informática, con novedades, intentos, fracasos, y éxitos rotundos. Si no fuera por el nombre
Pentium, probablemente Intel no estaría donde se encuentra ahora.
Intel Core Duo es un microprocesador de sexta generación lanzado en enero del 2006 por
Intel, posterior al Pentium D y antecesor al Core 2 Dúo. Dispone de dos núcleos de ejecución
lo cual hace de este procesador especial para las aplicaciones de subprocesos múltiples y para
multitarea. Puede ejecutar varias aplicaciones exigentes simultáneamente, como juegos con
gráficos potentes o programas que requieran muchos cálculos, al mismo tiempo que permite
descargar música o analizar el PC con un antivirus en segundo plano, por ejemplo.
Este microprocesador implementa 2 MB de caché compartida para ambos núcleos más un bus
frontal de 667 ó 553 MHz; además implementa el juego de instrucciones SSE3 y mejoras en
las unidades de ejecución de SSE y SSE2. Sin embargo, el desempeño con enteros es
ligeramente inferior debido a su caché con mayor latencia, además no es compatible con
EM64T por lo que solo trabaja a 32 bits.
Intel Core Duo fue el primer microprocesador de Intel usado en las computadoras Apple
Macintosh.
Existe también una versión con sólo un nucleo denominada Core Solo.
Historia y evolución de las memorias
Un dispositivo de almacenamiento es cualquier instrumento computacional que es capaz de
almacenar datos o cualquier tipo de información. Históricamente se ha usado el papel como
método más común, pero actualmente es posible almacenar digitalmente en un CD por
ejemplo, los datos que cabrían en miles de carpetas archivadas. A lo largo de la historia se ha
buscado el camino de encontrar el sistema más pequeño físicamente y con más capacidad
para almacenar más datos y tratarlos rápidamente.
Microchip También conocido como circuito integrado. Se desarrolló por primera vez en 1958
por el ingeniero Jack Kilby justo meses después de haber sido contratado por la firma
Texas Instruments. Se trataba de un dispositivo de germanio que integraba seis
transistores en una misma base semiconductora para formar un oscilador de rotación
de fase. En el año 2000, Kilby obtuvo el Premio Nobel de Física por la contribución de
su invento al desarrollo de la tecnología de la información.
Un microchip es una pastilla muy delgada donde se encuentran miles o millones de
dispositivos electrónicos interconectados, principalmente diodos y transistores, y también
componentes pasivos como resistencia o capacitores. Su área puede ser de 1cm2 o inferior.
Los microchips son quizás los sistemas de almacenamiento más empleados, hoy en día se
utilizan además de en los computadores, en los teléfonos móviles, electrodomésticos,
juguetes con algún componente electrónico, etc.
El transistor actúa como interruptor. Puede encenderse o apagarse electrónicamente o
amplificar corriente. Se usa en computadoras para almacenar información o en amplificadores
para aumentar el volumen de sonido. Las resistencias limitan el flujo de electricidad y nos
permiten controlar la cantidad de corriente que fluye, esto se usa por ejemplo para controlar
el volumen de un televisor o radio.
El desarrollo del microchip es especialmente importante en la historia, pues es algo
increíblemente pequeño que puede almacenar cantidad de datos inmensas, que hace años era
impensable. Se necesita un desarrollo a nivel microscópico para diseñar los microchips.
El primer computador que usó microchips fue un IBM lanzado en 1965, llamado serie 360.
Estas computadoras se consideran de la tercera generación de computadoras, y sustituyeron
por completo a las de segunda generación, introduciendo una manera de programar que aún
se mantiene en grandes computadoras de IBM.
Memoria RAM (Random Access Memory)
La Memoria de Acceso Aleatorio, o RAM (acrónimo inglés de Random Access Memory), es una
memoria de semiconductor, en la que se puede tanto leer como escribir información. Es una
memoria volátil, es decir, pierde su contenido al desconectarse de la electricidad.
La memoria RAM es el componente de almacenamiento más importante de un computador
actual, junto al disco duro. Con la llegada de los computadores de escritorio, había que idear
un sistema de almacenamiento que no ocupara espacio, pues los computadores de escritorio
se idearon para que cupiesen en una mesa de oficina. La memoria RAM se forma a partir de
microchips con entradas de memoria. La memoria es almacenada en esas entradas de manera
aleatoria, de ahí su nombre. La memoria RAM es uno de los componentes informáticos que
más ha evolucionado en los últimos veinte años. Si a finales de los 80 la capacidad de las
memorias RAM rondaban los 4 MB, ahora lo normal es comprarse un computador con al
menos 1024 MB, (1 GB). Normalmente se ha ido avanzando en una cantidad de MB igual a
potencias de 2. A mediados de los 90, con la llegada de Windows 95, los computadores
comenzaron a usar memorias de 16 MB de RAM, más tarde de 32, 64, 128... hasta los Pentium
4 y usando Windows XP, en donde se recomienda al menos 256 MB de RAM, aunque hoy en
día lo normal es que usen 1 gigabyte o más.
Disco duro
Es el medio de almacenamiento por excelencia. Desde que en 1.955 saliera el primer disco
duro hasta nuestros días, el disco duro o HDD ha tenido un gran desarrollo. Los discos duros
se emplean en computadores de escritorio, portátiles y unidades de almacenamiento de
manejo más complejo (Ej.: CEL<editar esto!). El disco duro es el componente que se encarga
de almacenar todos los datos que queremos. Mientras que la memoria RAM actúa como
memoria "de apoyo" (como variable que almacena y pierde información según se van
procesando datos), el disco duro almacena permanentemente la información que le metemos,
hasta que es borrado. Generalmente, lo primero que se graba en un disco duro es el sistema
operativo que vamos a usar en nuestro computador. Una vez tenemos instalado el sistema
operativo en el disco duro, podemos usar todos los programas que queramos que hayan
instalados, y toda la información que queramos guardar se almacenará en el disco duro. En el
disco duro almacenamos cualquier cosa, como documentos, imagen, sonido, programas,
vídeos, ficheros, etc.
Los discos duros también han evolucionado muchísimo en los últimos veinte años, sobre todo
ampliando su capacidad
El disco duro esta compuesto básicamente de:- Varios discos de metal magnetizado, que es
donde se guardan los datos.- Un motor que hace girar los discos.- Un conjunto de cabezales,
que son los que leen la información guardada en los discos.- Un electroimán que mueve los
cabezales.- Un circuito electrónico de control, que incluye el interface con el ordenador y la
memoria caché.- Una caja hermética (aunque no al vacío), que protege el conjunto.
Normalmente usan un sistema de grabación magnética analógica.
El número de discos depende de la capacidad del HDD y el de cabezales del numero de discos
x 2, ya que llevan un cabezal por cada cara de cada disco (4 discos = 8 caras = 8 cabezales).
Actualmente el tamaño estándar es de 3.5' de ancho para los HDD de PCS y de 2.5' para los
discos de ordenadores portátiles.
Dispositivos portátiles
Además de los dispositivos fijos que existen como componentes en una computadora, hay
otros que pueden introducirse y sacarse en cualquier computador. Estos sistemas son
realmente útiles para transportar información entre dos o más computadoras.
Disquete
También llamado disco flexible (floppy disk en inglés). A simple vista es una pieza cuadrada
de plástico, en cuyo interior se encuentra el disco. Es un disco circular flexible y magnético,
bastante frágil. Los disquetes se introducen en el computador mediante la disquetera.
En los años 80 gozaron de gran popularidad. Los programas informáticos y los videojuegos
para PC se distribuían en este formato. Ya que en aquella época los programas y juegos no
llegaban ni a 1 MB, cabían perfectamente en los disquetes. En su día existió un disquete
rectangular, y más tarde apareció el disquete de 3 1/2 pulgadas, el popular disquete
cuadrado. En los noventa, los programas comenzaron a ocupar más memoria, por lo que en
algunos casos se necesitaban varios disquetes para completar una instalación.
El disquete es un sistema de almacenamiento magnético, al igual que los casetes o los discos
duros, y aunque han gozado de gran popularidad desde los 80 hasta ahora, pero ya son
obsoletos. De hecho, algunos computadores ya salen de fábrica sin disquetera, pues los
disquetes se han quedado pequeños en cuanto a capacidad y velocidad. Teniendo en cuenta lo
que ocupan los programas actuales, un disquete hoy en día solo sirve para almacenar algunos
documentos de texto, imágenes y presentaciones.
CD-ROM
Es un disco compacto (del inglés: Compact Disc - Read Only Memory). Se trata de un disco
compacto (no flexible como los disquetes) óptico utilizado para almacenar información no
volátil, es decir, la información introducida en un CD en principio no se puede borrar. Una vez
un CD es escrito, no puede ser modificado, sólo leído (de ahí su nombre, Read Only Memory).
Un CD-ROM es un disco de plástico plano con información digital codificada en espiral desde
el centro hasta el borde. Fueron lanzados a mediados de los 80 por compañías de prestigio
como Sony y Philips. Microsoft y Apple fueron dos de las grandes compañías informáticas que
la utilizaron en sus comienzos. Es uno de los dispositivos de almacenamiento más utilizados.
De hecho, fue el sustituto de los casetes para almacenar música, y de los disquetes para
almacenar otro tipo de datos.
Hay varios tipos de CD-ROM. Los clásicos miden unos 12 centímetros de diámetro, y
generalmente pueden almacenar 650 o 700 MB de información. Sin embargo en los últimos
años también se han diseñado CD-ROMS con capacidades de 800 o 900 MB. Si tenemos en
cuenta la capacidad en minutos de música, serían 80 minutos los de 700 MB, por ejemplo.
También existen discos de 8 cm con menos capacidad, pero ideales para almacenar software
relativamente pequeño. Generalmente se utilizan para grabar software, drivers, etc. de
periféricos o similares, aunque también se usan para transportar datos normalmente como
los CD normales.
La principal ventaja del CD-ROM es su versatilidad, su comodidad de manejo, sus pequeñas
dimensiones (sobre todo de grosor). Sin embargo sus principal inconveniente es que no
pueden manipularse los datos almacenados en él. Con el fin de solucionar este problema
aparecieron los CD-RW, o CD regrabable. Sus características son idénticas a los CD normales,
pero con la peculiaridad de que pueden ser escritos tantas veces como se quiera. Los CD son
leídos por lectores de CD, que incluyen un láser que va leyendo datos desde el centro del
disco hasta el borde. El sistema es parecido al de las tarjetas perforadas. Mientras que una
tarjeta perforada es claramente visible sus agujeros, en un CD también se incluyen micro
perforaciones que son imperceptibles a simple vista, pues son microscópicas. A la hora de
escribir en un CD, se emplea el sistema binario con perforación o no perforación (ceros y
unos).
DVD
El crecimiento tecnológico en la informática es tal que incluso los CD se han quedado
pequeños. Si hace 10 años los disquetes se habían quedado pequeño y parecía que un CD era
algo demasiado "grande", algo ha cambiado, pues todas las aplicaciones, ya sean programas,
sistemas operativos o videojuegos, ocupan mucha más memoria. De los tradicionales 700 MB
de capacidad de un CD se pasaron a los 4,7 GB de un DVD. La primera ráfaga de ventas de
DVDs aparecieron para formato vídeo, para sustituir a los clásicos VHS. Las ventajas de los
DVD eran claras, a más capacidad, mejor calidad se puede almacenar. Y mejor se conservan
los datos, ya que las cintas magnéticas de los videocasetes eran fácilmente desgastables. Un
DVD es mucho más durarero, su calidad de imagen es mejor y también la calidad de sonido.
Las películas en DVD comenzaron a popularizarse a finales de los años 90.
Sin embargo en esos años aún los CD eran los más populares a nivel informático. Un
videojuego solía ocupar unos 600mb de instalación, con lo que fácilmente cabía en un CD.
Pero poco a poco los videojuegos y otros programas comenzaron a ocupar más, ya que
conforme va avanzando la tecnología de datos, gráficos, etc. más memoria se necesita.
Algunos videojuegos llegaban a ocupar 4 o 5 cds, lo que hacía muy incómodo su
manipulación. Finalmente se ha decidido por fin que aquellos programas que ocupen más
memoria de lo que cabe en un CD, sea almacenado en un DVD. Los DVD son más caros que los
CD, aunque poco a poco se están haciendo con el mercado. Quizás sean los sustitutos
definitivos de los CD, aunque por ahora estos últimos no están decayendo en absoluto. La
venta de CD vírgenes sigue siendo abrumadora. Sin embargo se ha disparado la venta de
DVD, pues cada vez más la gente empieza a grabar más datos y lógicamente se busca el
menor espacio posible. Y si en un DVD se pueden almacenar seis películas, mejor que usar
seis CD.
También existen los DVD-R, ya que al igual que los CD, el DVD normal es de sólo lectura. Pero
con la lección aprendida de los CD, se diseñaron los DVD regrabables. Además, hace unos
años que existen los DVD de doble capa. Este tipo de DVD siguen leyendo por una cara, pero
con doble capa de datos. Pero también existen DVD que se pueden leer por las dos caras. Los
hay de doble cara y una capa, pero si el DVD es de doble cara y doble capa por cada una, la
capacidad llega a los 17 GB. Sin embargo aún estos sistemas se utilizan mínimamente, son
muy caros, pero seguramente algún día sustituirán a los actuales CD.
Memoria USB
La memoria USB fue inventada en 1998 por IBM, pero no fue patentada por él. Su objetivo era
sustituir a los disquetes con mucha más capacidad y velocidad de transmisión de
datos.Aunque actualmente en un CD o DVD se puede almacenar memoria para luego borrarla
y manipularla, lo más cómodo y usado son las memorias USB. Son pequeños dispositivos del
tamaño de un mechero que actúan prácitamente igual que un disquete, pero con una
capacidad mucho mayor, que actualmente van desde los 64 mb a varios gigabytes. Su
principal ventaja es su pequeño tamaño, su resistencia (la memoria en sí está protegida por
una carcasa de plástico como un mechero) y su velocidad de transmisión, mucho más rápido
que los disquetes.
Actualmente está muy de moda este tipo de dispositivos, sobre todo entre jóvenes u
oficinistas, pues gracias a su reducido tamaño y forma puede colgarse como llavero por
ejemplo, y lo más importante, con el sistema operativo Windows XP, sólo hay que conectarlo
al computador y usarlo sin más complicaciones. Además existen otros aparatos como los
reproductores de MP3 que utilizan las mismas características. Pueden almacenar cualquier
tipo de dato, pero su principal característica es que los ficheros de música en formato mp3 y
wma sobre todo, son reconocidos y procesados para ser escuchados a través de unos
auriculares conectados al aparato. Esto es pues, un sustituto del walkman. Pero además cada
vez están apareciendo nuevos diseños que son capaces de almacenar ya decenas de
gigabytes (miles de canciones) y también vídeo, que con una pequeña pantalla pueden ser
visualizados.
HISTORIA Y EVOLUCION DE LAS IMPRESORAS
La impresora es un periférico que le permite realizar una impresión (en papel) de datos
electrónicos.
Existen varias tecnologías de impresoras, siendo las más comunes:
• la impresora margarita
• la impresora matriz de punto (también llamada impresora matriz de impacto).
• la impresora de inyección de tinta y la impresora Bubble Jet</a>
• la impresora láser
Actualmente, las impresoras margarita y las de matriz ya casi no se utilizan.
Características
La impresora generalmente se caracteriza por los siguientes elementos:
Velocidad de impresión: expresada en páginas por minuto (ppm), la velocidad de impresión
representa la capacidad de la impresora para imprimir un gran número de páginas por
minuto. Para impresoras a color, generalmente se realiza la distinción entre la velocidad de
impresión monocromática y a color.
Resolución: expresada en puntos por pulgada (abreviado dpi), resolución significa la nitidez
del texto impreso. A veces, la resolución resulta diferente para una impresión monocromática,
a color o de foto.
Tiempo de calentamiento: el tiempo de espera necesario antes de realizar la primera
impresión. Efectivamente, una impresora no puede imprimir cuando está "fría". Debe alcanzar
una cierta temperatura para que funcione en forma óptima.
Memoria integrada: la cantidad de memoria que le permite a la impresora almacenar trabajos
de impresión. Cuanto más grande sea la memoria, más larga podrá ser la cola de la
impresora.
Formato de papel: según su tamaño, las impresoras pueden aceptar documentos de
diferentes tamaños, por lo general aquellos en formato A4 (21 x 29,7 cm.), y con menos
frecuencia, A3 (29,7 x 42 cm.). Algunas impresoras permiten imprimir en diferentes tipos de
medio, tales como CD o DVD.
Carga de papel: el método para cargar papel en la impresora y que se caracteriza por el modo
en que se almacena el papel en blanco. La carga de papel suele variar según el lugar donde se
ubique la impresora (se aconseja la carga posterior para impresoras que estarán contra una
pared).* Los principales modos de carga de papel son:
La bandeja de alimentación, que utiliza una fuente interna de alimentación de papel. Su
capacidad es igual a la cantidad máxima de hojas de papel que la bandeja puede contener.
El alimentador de papel es un método de alimentación manual que permite insertar hojas de
papel en pequeñas cantidades (aproximadamente 100). El alimentador de papel en la parte
posterior de la impresora puede ser horizontal o vertical.
Cartuchos: los cartuchos raramente son estándar y dependen en gran medida de la marca y
del modelo de la impresora. Algunos fabricantes prefieren los cartuchos de colores múltiples
mientras que otros ofrecen cartuchos de tinta separados. Los cartuchos de tinta separados
son más económicos porque a menudo se utiliza un color más que otro.
Resulta interesante examinar el costo de impresión por hoja. El tamaño de gota de tinta es
especialmente importante. Cuanto más pequeña sea la gota de tinta, más bajo será el costo
de impresión y mejor la calidad de la imagen. Algunas impresoras pueden producir gotas que
son de 1 ó 2 picolitros.
Interfaz: cómo se conecta la impresora al equipo. Las principales interfaces son:
USB
Paralelo
Red: este tipo de interfaz permite que varios equipos compartan una misma impresora.
También existen impresoras WiFi disponibles a través de una red inalámbrica.
Impresora margarita
Las impresoras margarita se basan en el principio de las máquinas de escribir. Una matriz en
forma de margarita contiene "pétalos" y cada uno de éstos posee un carácter en relieve. Para
imprimir el texto, se ubica una cinta impregnado de tinta entre la margarita y la hoja de
papel. Cuando la matriz golpea la cinta, ésta deposita tinta sobre el papel con la forma del
carácter en el pétalo.
Estas impresoras se han vuelto obsoletas porque son extremadamente ruidosas y lentas.
Impresora matriz de punto
La impresora matriz de punto (llamada algunas veces impresora de matriz o impresora de
impacto) permite la impresión de documentos sobre papel gracias al movimiento "hacia atrás
y hacia adelante" de un carro que contiene un cabezal de impresión.
El cabezal se compone de pequeñas agujas metálicas, accionadas por electroimanes, que
golpean una cinta de carbón llamada "cinta entintada", ubicada entre el cabezal y el papel.
La cinta de carbón se desenrolla para que siempre haya tinta sobre ella. Al finalizar cada
línea, un rodillo permite que la hoja avance.
Las impresoras matriz de punto más recientes está equipadas con cabezales de 24 agujas,
que permiten imprimir con una resolución de 216 dpi (puntos por pulgada).
Impresora a chorro de tinta y Bubble Jet
La tecnología de impresora a chorro de tinta fue inventada originalmente por Canon. Se basa
en el principio de que un fluido caliente produce burbujas.
El investigador que descubrió esto había puesto accidentalmente en contacto una jeringa
llena de tinta con un soldador eléctrico. Esto creó una burbuja en la jeringa que hizo que la
tinta saliera despedida de la jeringa.
Actualmente, los cabezales de impresoras están hechos de varios inyectores (hasta 256),
equivalentes a varias jeringas, calentadas a una temperatura de entre 300 y 400°C varias
veces por segundo.
Cada inyector produce una pequeña burbuja que sale eyectada como una gota muy fina. El
vacío causado por la disminución de la presión crea a su vez una nueva burbuja.
Generalmente, se efectúa una distinción entre las dos tecnologías diferentes:
• Las impresoras a chorro de tinta utilizan inyectores que poseen su propio elemento de
calentamiento incorporado. En este caso se utiliza tecnología térmica.
• Las impresoras Bubble Jet utilizan inyectores que tienen tecnología piezoeléctrica.
Cada inyector trabaja con un cristal piezoeléctrico que se deforma al ser estimulado
por su frecuencia de resonancia y termina eyectando una burbuja de tinta.
Impresora láser
La impresora láser permite obtener impresiones de calidad a bajo costo y a una velocidad de
impresión relativamente alta. Sin embargo, estas impresoras suelen utilizarse mayormente en
ambientes profesionales y semiprofesionales ya que su costo resulta elevado.
Las impresoras láser utilizan una tecnología similar a la de las fotocopiadoras. Una impresora
láser está compuesta principalmente por un tambor fotosensible con carga electrostática
mediante la cual atrae la tinta para hacer una forma que se depositará luego en la hoja de
papel.
Cómo funciona: un rodillo de carga principal carga positivamente las hojas. El láser carga
positivamente ciertos puntos del tambor gracias a un espejo giratorio. Luego se deposita la
tinta con carga negativa en forma de polvo (tóner) en las distintas partes del tambor que el
láser cargó previamente.
Al girar, el tambor deposita la tinta sobre el papel. Un alambre calentado (llamado corona de
transferencia) permite finalmente la adhesión de la tinta en el papel.
Dado que la impresora láser no tiene cabezales mecánicos, resulta rápida y silenciosa.
Existen dos tipos diferentes de tecnología de impresora láser: "carrusel" (cuatro pasadas) o
"tándem" (una pasada).
Carrusel: con la tecnología de carrusel, la impresora efectúa cuatro pasadas sobre el papel
para imprimir un documento (una por cada color primario y una para el negro, lo que en
teoría hace que la impresión a color sea cuatro veces más lenta que en negro).
Tándem: una impresora láser que utiliza tecnología "tándem" deposita cada color en una sola
pasada. Los tóners se depositan simultáneamente. La salida es igual de rápida cuando se
imprime a color como cuando se imprime en negro. Sin embargo, esta tecnología resulta más
costosa ya que los mecanismos son más complejos. Por lo tanto, se suele utilizar en
impresoras láser a color de mediana o alta calidad.
Impresora LED
Otra tecnología de impresión compite con las impresoras láser: la tecnología LED (diodo
emisor de luz). Con esta tecnología, un cabezal de impresión con diodos electroluminiscentes
polariza el tambor con un rayo de luz muy fino, permitiendo la obtención de puntos muy
diminutos. Esta tecnología es particularmente útil para obtener una alta resolución (600,
1.200 ó 2.400 dpi).
Teniendo en cuenta que cada diodo representa un punto, la velocidad de impresión termina
afectando mínimamente la resolución. Además, esta tecnología carece de piezas móviles, lo
que permite el diseño de impresoras menos costosas, más sólidas y más fiables.
Lenguaje de comandos de la impresora
El lenguaje de descripción de páginas es el lenguaje estándar que utilizan los equipos para
comunicarse con las impresoras. En efecto, una impresora debe poder interpretar la
información que un equipo le está enviando.
Los dos lenguajes de descripción de página principales son:
Lenguaje de comandos de la impresora (PCL): un lenguaje conformado por secuencias
binarias. Los caracteres se transmiten según su código ASCII.
Lenguaje PostScript: este lenguaje, utilizado inicialmente por Apple LaserWriters, se ha
convertido en el estándar de los lenguajes de descripción de páginas. Es un lenguaje en sí
mismo que se basa en un conjunto de instrucciones
El teclado
Un teclado es un periférico o dispositivo que permite ingresar información, tiene entre 99 y
108 teclas aproximadamente, esta dividido en 4 bloques:
1. Bloque de funciones: Va desde la tecla F1 a F12, en tres bloques de cuatro: de F1 a F4, de
F5 a F8 y de F9 a F12. Funcionan de acuerdo al programa que este abierto. Ej. al presionar la
tecla F1 permite en los programas de Microsoft acceder a la ayuda.
2. Bloque alfanumérico: Está ubicado en la parte inferior del bloque de funciones, contiene los
números arábigos del 1 al 0 y el alfabeto organizado como en una máquina de escribir,
además de algunas teclas especiales.
3. Bloque especial: Está ubicado a la derecha del bloque alfanumérico, contiene algunas teclas
especiales como Imp Pant, Bloq de desplazamiento, pausa, inicio, fin, insertar, suprimir,
Repag, Avpag y las flechas direccionales que permiten mover el punto de inserción en las
cuatro direcciones.
4. Bloque numérico: Está ubicado a la derecha del bloque especial, se activa cuando al
presionar la tecla Bloq Num, contiene los números arábigos organizados como en una
calculadora con el fin de facilitar la digitacion de cifras, además contiene los signos de las
cuatro operaciones básicas como suma +, resta -, multiplicación * y division /, también
contiene una tecla de Intro o enter para ingresar las cifras.
Teclado de un terminal CT-1024
Teclado integrado de un Apple Inc Plus
Teclado integrado de un Sinclair ZX Spectrum.
Terminal de computadora TeleVideo 925
Teclado ajustable de Apple.
Teclado PC inalámbrico
Disposición de las teclas [editar]
La disposición de las teclas se remonta a las primeras máquinas de escribir, las cuales eran
enteramente mecánicas. Al pulsar una letra en el teclado, se movía un pequeño martillo
mecánico, que golpeaba el papel a través de una cinta impregnada en tinta. Al escribir con
varios dedos de forma rápida, los martillos no tenían tiempo de volver a su posición por la
frecuencia con la que cada letra aparecía en un texto. De esta manera la pulsación era más
lenta con el fin de que los martillos se atascaran con menor frecuencia[cita requerida]
.
Sobre la distribución de los caracteres en el teclado surgieron dos variantes principales: la
francesa AZERTY y la alemana QWERTY. Ambas se basaban en cambios en la disposición
según las teclas más frecuentemente usadas en cada idioma. A los teclados en su versión
para el idioma español además de la Ñ, se les añadieron los caracteres de acento agudo (´),
grave (`) y circunflejo (^)), además de la cedilla (Ç) aunque estos caracteres son de mayor
uso en francés, portugués o en catalán.
Cuando aparecieron las máquinas de escribir eléctricas, y después los ordenadores, con sus
teclados también eléctricos, se consideró seriamente modificar la distribución de las letras en
los teclados, colocando las letras más corrientes en la zona central; es el caso del Teclado
Simplificado Dvorak. El nuevo teclado ya estaba diseñado y los fabricantes preparados para
iniciar la fabricación. Sin embargo, el proyecto se canceló debido al temor de que los usuarios
tuvieran excesivas incomodidades para habituarse al nuevo teclado, y que ello perjudicara la
introducción de las computadoras personales, que por aquel entonces se encontraban en
pleno auge.
Teclado QWERTY de 102 teclas con distribución Inglés de Estados Unidos
Primeros teclado
Además de teletipos y máquinas de escribir eléctricas como la IBM Selectric, los primeros
teclados solían ser un terminal de computadora que se comunicaba por puerto serial con la
computadora. Además de las normas de teletipo, se designó un estándar de comunicación
serie, segun el tiempo de uso basado en el juego de caracteres ANSI, que hoy sigue presente
en las comunicaciones por módem y con impresora (las primeras computadoras carecían de
monitor, por lo que solían comunicarse, o bien por luces en su panel de control, o bien
enviando la respuesta a un dispositivo de impresión). Se usaba para ellos las secuencias de
escape, que se generaban o bien por teclas dedicadas, o bien por combinaciones de teclas,
siendo una de las más usadas la tecla Control.
La llegada de la computadora doméstica trae una inmensa variedad de teclados y de
tecnologías y calidades (desde los muy reputados por duraderos del Dragon 32 a la fragilidad
de las membranas de los equipos Sinclair), aunque la mayoría de equipos incorporan la placa
madre bajo el teclado, y es la CPU o un circuito auxiliar (como el chip de sonido General
Instrument AY-3-8910 en los MSX) el encargado de leerlo. Son casos contados los que
recurren o soportan comunicación serial (curiosamente es la tecnología utilizada en el Sinclair
Spectrum 128 para el keypad numérico). Sólo los MSX establecerán una norma sobre el
teclado, y los diferentes clones del Apple II y el TRS-80 seguirán el diseño del clonado.
Uno de los teclados más modernos, fue diseñado por una ama de casa llamada Diamea Stuart
Medrid Aflory, de Rusia. Ella empezó a dibujar muchos tipos de teclados en un cuaderno de
dibujo que tenía. Un día cuando unos inspectores investigaban su casa en contraron estos
dibujos y los mandaron a USA. Este fue el teclado ajustable de Apple.
Generación 16 bits
Mientras que el teclado del IBM PC y la primera versión del IBM AT no tuvo influencia más allá
de los clónicos PC, el Multifunción II (o teclado extendido AT de 101/102 teclas) aparecido en
1987 refleja y estandariza de facto el teclado moderno con cuatro bloques diferenciados : un
bloque alfanumérico con al menos una tecla a cada lado de la barra espaciadora para acceder
a símbolos adicionales; sobre él una hilera de 10 o 12 teclas de función; a la derecha un
teclado numérico, y entre ambos grandes bloques, las teclas de cursor y sobre ellas varias
teclas de edición. Con algunas variantes este será el esquema usado por los Atari ST, los
Commodore Amiga (desde el Commodore Amiga 500), los Sharp X68000, las estaciones de
trabajo SUN y Silicon Graphics y los Acorn Archimedes/Acorn RISC PC. Sólo los Mac siguen
con el esquema bloque alfanumérico + bloque numérico, pero también producen teclados
extendidos AT, sobre todo para los modelos con emulación PC por hardware.
Mención especial merece la serie 55 de teclados IBM, que ganaron a pulso la fama de
"indestructibles", pues tras más de 10 años de uso continuo en entornos como las
aseguradoras o la administración pública seguían funcionando como el primer día. [Cita requerida]
Con la aparición del conector PS/2, varios fabricantes de equipos no PC proceden a
incorporarlo en sus equipos. Microsoft, además de hacerse un hueco en la gama de calidad
alta, y de presentar avances ergonómicos como el Microsoft Natural Keyboard, añade 3
nuevas teclas tras del lanzamiento de Windows 95. A la vez se generalizan los teclados
multimedia que añaden teclas para controlar en el PC el volumen, el lector de CD-ROM o el
navegador, incorporan en el teclado altavoces, calculadora, almohadilla sensible al tacto o
bola trazadora.
Teclados con USB
Aunque los teclados USB comienzan a verse al poco de definirse el estándar USB, es con la
aparición del Apple iMac, que trae tanto teclado como mouse USB de serie cuando se
estandariza el soporte de este tipo de teclado. Además tiene la ventaja de hacerlo
independiente del hardware al que se conecta. El estándar define scancodes de 16 bits que se
transmiten por la interfaz. Del 0 al 3 son códigos de error del protocolo, llamados NoEvent,
ErrorRollOver, POSTFail, ErrorUndefined, respectivamente. Del 224 al 231 se reservan para
las teclas modificadoras (LCtrl, LShift, LAlt, LGUI, RCtrl, RShift, RAlt, RGUI)
Existen distintas disposiciones de teclado, para que se puedan utilizar en diversos lenguajes.
El tipo estándar de teclado inglés se conoce como QWERTY. Denominación de los teclados de
computadora y máquinas de escribir que se utilizan habitualmente en los países occidentales,
con alfabeto latino. Las siglas corresponden a las primeras letras del teclado, comenzando por
la izquierda en la fila superior. El teclado en español o su variante latinoamericana son
teclados QWERTY que se diferencian del inglés por presentar la letra "ñ" y "Ñ" en su
distribución de teclas.
Se han sugerido distintas alternativas a la disposición de teclado QWERTY, indicando ventajas
tales como mayores velocidades de tecleado. La alternativa más famosa es el Teclado
Simplificado Dvorak.
Sólo las teclas etiquetadas con una letra en mayúscula pueden ofrecer ambos tipos:
mayúsculas y minúsculas. Para teclear un símbolo que se encuentra en la parte superior
izquierda de una tecla, se emplea la tecla mayúscula, etiquetada como "↑". Para teclear un
símbolo que se encuentra en la parte inferior derecha de una tecla, se emplea la tecla Alt.-Gr.
Teclas inertes
Algunas lenguas incluyen caracteres adicionales al teclado inglés, como los caracteres
acentuados. Teclear los caracteres acentuados resulta más sencillo usando las teclas inertes.
Cuando se utiliza una de estas teclas, si se presiona la tecla correspondiente al acento
deseado nada ocurre en la pantalla, por lo que, a continuación se debe presionar la tecla del
carácter a acentuar. Esta combinación de teclas requiere que se teclee una secuencia
aceptable. Por ejemplo, si se presiona la tecla inerte del acento (ej. ´) seguido de la letra A,
obtendrá una "a" acentuada (á). Sin embargo, si se presiona una tecla inerte y a continuación
la tecla T, no aparecerá nada en la pantalla o aparecerán los dos caracteres por separado (´t),
a menos que la fuente particular para su idioma incluya la "t" acentuada.
Para teclear una marca de acento diacrítico, simplemente se presiona la tecla inerte del
acento, seguida de la barra de espacio.
Tipos de teclado [editar]
Hubo y hay muchos teclados diferentes, dependiendo del idioma, fabricante… IBM ha
soportado tres tipos de teclado: el XT, el AT y el MF-II.
El primero (1981) de éstos tenía 83 teclas, usaban es Scan Code set1, unidireccionales y no
eran muy ergonómicos, ahora está obsoleto.
Más tarde (1984) apareció el teclado PC/AT con 84 teclas (una más al lado de SHIFT IZQ), ya
es bidireccional, usa el Scan Code set 2 y al igual que el anterior cuenta con un conector DIN
de 5 pines.
En 1987 IBM desarrolló el MF-II (Multifunción II o teclado extendido) a partir del AT. Sus
características son que usa el mismo interfaz que el AT, añade muchas teclas más, se ponen
leds y soporta el Scan Code set 3, aunque usa por defecto el 2. De este tipo hay dos versiones,
la americana con 101 teclas y la europea con 102.
Los teclados PS/2 son básicamente iguales a los MF-II. Las únicas diferencias son el conector
mini-DIN de 6 pines (más pequeño que el AT) y más comandos, pero la comunicación es la
misma, usan el protocolo AT. Incluso los ratones PS/2 usan el mismo protocolo.
Hoy en día existen también los teclados en pantalla, también llamados teclados virtuales, que
son (como su mismo nombre indica) teclados representados en la pantalla, que se utilizan
con el ratón o con un dispositivo especial (podría ser un joystick). Estos teclados lo utilizan
personas con discapacidades que les impiden utilizar adecuadamente un teclado físico.
Actualmente la denominación AT ó PS/2 sólo se refiere al conector porque hay una gran
diversidad de ellos.
Estructura
Un teclado realiza sus funciones mediante un microcontrolador. Estos microcontroladores
tienen un programa instalado para su funcionamiento, estos mismos programas son
ejecutados y realizan la exploración matricial de las teclas cuando se presiona alguna, y así
determinar cuales están pulsadas.
Para lograr un sistema flexible los microcontroladores no identifican cada tecla con su
carácter serigrafiado en la misma sino que se adjudica un valor numérico a cada una de ellas
que sólo tiene que ver con su posición física.El teclado latinoamericano sólo da soporte con
teclas directas a los caracteres específicos del castellano, que incluyen dos tipos de acento, la
letra eñe y los signos de exclamación e interrogación. El resto de combinaciones de acentos
se obtienen usando una tecla de extensión de grafismos.Por lo demás el teclado
latinoamericano está orientado hacia la programación, con fácil acceso al juego de símbolos
de la norma ASCII.
Por cada pulsación o liberación de una tecla el microcontrolador envía un código identificativo
que se llama Scan Code. Para permitir que varias teclas sean pulsadas simultáneamente, el
teclado genera un código diferente cuando una tecla se pulsa y cuando dicha tecla se libera.
Si el microcontrolador nota que ha cesado la pulsación de la tecla, el nuevo código generado
(Break Code) tendrá un valor de pulsación incrementado en 128. Estos códigos son enviados
al circuito microcontrolador donde serán tratados gracias al administrador de teclado, que no
es más que un programa de labios y que determina qué carácter le corresponde a la tecla
pulsada comparándolo con una tabla de caracteres que hay en el kernel, generando una
interrupción por hardware y enviando los datos al procesador. El microcontrolador también
posee cierto espacio de memoria RAM que hace que sea capaz de almacenar las últimas
pulsaciones en caso de que no se puedan leer a causa de la velocidad de tecleo del usuario.
Hay que tener en cuenta, que cuando realizamos una pulsación se pueden producir rebotes
que duplican la señal. Con el fin de eliminarlos, el teclado también dispone de un circuito que
limpia la señal.
En los teclados AT los códigos generados son diferentes, por lo que por razones de
compatibilidad es necesario traducirlos. De esta función se encarga el controlador de teclado
que es otro microcontrolador (normalmente el 8042), éste ya situado en el PC. Este
controlador recibe el Código de Búsqueda del Teclado (Kscan Code) y genera el propiamente
dicho Código de Búsqueda. La comunicación del teclado es vía serie. El protocolo de
comunicación es bidireccional, por lo que el servidor puede enviarle comandos al teclado para
configurarlo, reiniciarlo, diagnósticos, etc.
Disposición del teclado
La disposición del teclado es la distribución de las teclas del teclado de una computadora, una
máquina de escribir u otro dispositivo similar.
Existen distintas distribuciones de teclado, creadas para usuarios de idiomas diferentes. El
teclado estándar en español corresponde al diseño llamado QWERTY. Una variación de este
mismo es utilizado por los usuarios de lengua inglesa. Para algunos idiomas se han
desarrollado teclados que pretenden ser más cómodos que el QWERTY, por ejemplo el Teclado
Dvorak.
Las computadoras modernas permiten utilizar las distribuciones de teclado de varios idiomas
distintos en un teclado que físicamente corresponde a un solo idioma. En el sistema operativo
Windows, por ejemplo, pueden instalarse distribuciones adicionales desde el Panel de
Control.
Existen programas como Microsoft Keyboard Layout Creator1
y KbdEdit,2
que hacen muy fácil
la tarea de crear nuevas distribuciones, ya para satisfacer las necesidades particulares de un
usuario, ya para resolver problemas que afectan a todo un grupo lingüístico. Estas
distribuciones pueden ser modificaciones a otras previamente existentes (como el teclado
latinoamericano extendido3
o el gaélico4
), o pueden ser enteramente nuevas (como la
distribución para el Alfabeto Fonético Internacional,5
o el panibérico6
).
A primera vista en un teclado podemos notar una división de teclas, tanto por la
diferenciación de sus colores, como por su distribución. Las teclas grisáceas sirven para
distinguirse de las demás por ser teclas especiales (borrado, teclas de función, tabulación,
tecla del sistema…). Si nos fijamos en su distribución vemos que están agrupadas en cuatro
grupos:
Teclas de función: situadas en la primera fila de los teclados. Combinadas con otras teclas,
nos proporcionan acceso directo a algunas funciones del programa en ejecución.
Teclas de edición: sirven para mover el cursor por la pantalla.
Teclas alfanuméricas: son las más usadas. Su distribución suele ser la de los teclados
QWERTY, por herencia de la distribución de las máquinas de escribir. Reciben este nombre
por ser la primera fila de teclas, y su orden es debido a que cuando estaban organizadas
alfabéticamente la máquina tendía a engancharse, y a base de probar combinaciones llegaron
a la conclusión de que así es como menos problemas daban. A pesar de todo esto, se ha
comprobado que hay una distribución mucho más cómoda y sencilla, llamada Dvorak, pero en
desuso debido sobre todo a la incompatibilidad con la mayoría de los programas que usamos.
Bloque numérico: situado a la derecha del teclado. Comprende los dígitos del sistema decimal
y los símbolos de algunas operaciones aritméticas. Añade también la tecla especial Bloc num.,
que sirve para cambiar el valor de algunas teclas para pasar de valor numérico a
desplazamiento de cursor en la pantalla. el teclado numérico también es similar al de un
calculadora cuenta con las 4 operaciones básicas que son + (suma), - (resta), *
(multiplicación) y / (división).
Clasificación de teclados de computadoras
En el mercado hay una gran variedad de teclados. A la hora de estudiarlos podemos
clasificarlos en dos grupos:
Según su forma física:
Teclado XT de 83 teclas: se usaba en el PC XT (8086/88).
Teclado AT de 83 teclas: usado con los PC AT (286/386).
Teclado expandido de 101/102 teclas: es el teclado actual, con un mayor número de teclas.
Teclado Windows de 103/104 teclas: el teclado anterior con 3 teclas adicionales para uso en
Windows.
Teclado ergonómico: diseñados para dar una mayor comodidad para el usuario, ayudándole a
tener una posición más relajada de los brazos.
Teclado multimedia: añade teclas especiales que llaman a algunos programas en el
computador, a modo de acceso directo, como pueden ser el programa de correo electrónico, la
calculadora, el reproductor multimedia…
Teclado inalámbrico: suelen ser teclados comunes donde la comunicación entre el
computador y el periférico se realiza a través de rayos infrarrojos, ondas de radio o mediante
bluetooth.
Teclado flexible: Estos teclados son de plástico suave o silicona que se puede doblar sobre sí
mismo. Durante su uso, estos teclados pueden adaptarse a superficies irregulares, y son más
resistentes a los líquidos que los teclados estándar. Estos también pueden ser conectados a
dispositivos portátiles y teléfonos inteligentes. Algunos modelos pueden ser completamente
sumergidos en agua, por lo que hospitales y laboratorios los usan, ya que pueden ser
desinfectados.7
Según la tecnología de sus teclas se pueden clasificar como teclados de cúpula de goma,
teclados de membrana: teclados capacitativos y teclados de contacto metálico.
CLASIFICACION SEGÚN ESTANDARES DE MONITORES
Según los estándares de monitores se pueden clasificar en varias
categorías. Todos han ido evolucionando con el objetivo de ofrecer
mayores prestaciones, definiciones y mejorar la calidad de las imágenes.
Monitores MDA:
Los monitores MDA por sus siglas en inglés “Monochrome Display Adapter” surgieron en el
año 1981. Junto con la tarjeta CGA de IBM. Los MDA conocidos popularmente por los
monitores monocromáticos solo ofrecían textos, no incorporaban modos gráficos.
Este tipo de monitores se caracterizaban por tener un único color
principalmente verde. El mismo creaba irritación en los ojos de sus
usuarios.
Características:
Sin modo gráfico.
Resolución 720_350 píxeles.
Soporte de texto monocromático.
No soporta gráfico ni colores.
La tarjeta gráfica cuenta con una memoria de vídeo de 4 KB.
Soporta subrayado, negrita, cursiva, normal, invisibilidad para textos.
Monitor CGA:
Los monitores CGA por
sus siglas en inglés “Color Graphics Adapter” o “Adaptador de Gráficos
en Color” en español. Este tipo de monitores fueron comercializados a
partir del año 1981, cuando se desarrollo la primera tarjeta gráfica
conjuntamente con un estándar de IBM.
A pesar del lanzamiento de este nuevo monitor los compradores de PC
seguían optando por los monitores MDA, ambos fueron lanzados al mercado
en el mismo año existiendo competencia entre ellos. CGA fue el primero
en contener sistema gráfico a color.
Características:
• Resoluciones 160_200, 320×200, 640×200 píxeles.
• Soporte de gráfico a color.
• Diseñado principalmente para juegos de computadoras.
• La tarjeta gráfica contenía 16 KB de memoria de vídeo.
Monitor EGA:
Por
sus siglas en inglés “Enhanced Graphics Adapter”, es un estándar
desarrollado IBM para la visualización de gráficos, creado en 1984.
Este nuevo monitor incorporaba una mayor amplitud de colores y
resolución.
EGA incorporaba mejoras con respecto al anterior CGA. Años después también sería sustituido
por un monitor de mayores características.
Características:
• Resolución de 640_350 píxeles.
• Soporte para 16 colores.
• La tarjeta gráfica EGA estándar traían 64 KB de memoria de vídeo.
Monitor VGA:
Los
monitores VGA por sus siglas en inglés “Video Graphics Array”, fue
lanzado en 1987 por IBM. A partir del lanzamiento de los monitores VGA,
los monitores anteriores empezaban a quedar obsoletos. El VGA
incorporaba modo 256 con altas resoluciones.
Por el desarrollo alcanzado hasta la fecha, incluidas en las
tarjetas gráficas, los monitores anteriores no son compatibles a los
VGA, estos incorporan señales analógicas.
Características:
Soporte de 720×400 píxeles en modo texto.
Soporte de 640×480 píxeles en modo gráfico con 16 colores.
Soporte de 320×200 píxeles en modo gráfico con 256 colores.
Las tarjetas gráficas VGA estándares incorporaban 256 KB de memoria de vídeo.
Monitor SVGA:
SVGA
denominado por sus siglas en inglés “Super Video Graphics Array”,
también conocidos por “Súper VGA”. Estos tipos de monitores y
estándares fueron desarrollados para eliminar incompatibilidades y
crear nuevas mejoras de su antecesor VGA.
SVGA fue lanzado en 1989, diseñado para brindar mayores resoluciones
que el VGA. Este estándar cuenta con varias versiones, los cuales
soportan diferentes resoluciones.
Características:
Resolución de 800×600, 1024_768 píxeles y superiores.
Para este nuevo monitor se desarrollaron diferentes modelos de tarjetas gráficas como: ATI,
GeForce, NVIDIA, entre otros.
Clasificación según tecnología de monitores
En cuanto al tipo de tecnología los monitores se pueden clasificar
en varios aspectos. Estas evoluciones de la tecnología han sido
llevadas a cabo en parte por el ahorro de energía, tamaño y por brindar
un nuevo producto en el mercado.
Monitores CRT:
Está
basado en un Tubo de Rayos Catódicos, en inglés “Cathode Ray Tube”. Es
el más conocido, fue desarrollado en 1987 por Karl Ferdinand Braun.
Utilizado principalmente en televisores, ordenadores, entre otros.
Para lograr la calidad que hoy cuentan, estos pasaron por diferentes
modificaciones y que en la actualidad también se realizan.
Funcionamiento:
Dibuja una imagen barriendo una señal eléctrica horizontalmente a lo
largo de la pantalla, una línea por vez. La amplitud de dicha señal en
el tiempo representa el brillo instantáneo en ese punto de la pantalla.
Una amplitud nula, indica que el punto de la pantalla que se marca
en ese instante no tendrá representando un píxel negro. Una amplitud
máxima determina que ese punto tendrá el máximo brillo.
Ventajas:
Excelente calidad de imagen (definición, contraste, luminosidad).
Económico.
Tecnología robusta.
Resolución de alta calidad.
Desventajas:
Presenta parpadeo por el refrescado de imagen.
Consumo de energía.
Generación de calor.
Generación de radiaciones eléctricas y magnéticas.
Alto peso y tamaño.
Pantallas LCD:
A
este tipo de tecnología se le conoce por el nombre de pantalla o
display LCD, sus siglas en inglés significan “Liquid Crystal Display” o
“Pantalla de Cristal Líquido” en español. Este dispositivo fue
inventado por Jack Janning.
Estas pantallas son incluidas en los ordenadores portátiles, cámaras fotográficas, entre otros.
Funcionamiento:
El funcionamiento de estas pantallas se fundamenta en sustancias que comparten las
propiedades de sólidos y líquidos a la vez.
Cuando un rayo de luz atraviesa una partícula de estas sustancias
tiene necesariamente que seguir el espacio vacío que hay entre sus
moléculas como lo haría atravesar un cristal sólido pero a cada una de
estas partículas se le puede aplicar una corriente eléctrica que cambie
su polarización dejando pasar la luz o no.
Una pantalla LCD esta formada por 2 filtros polarizados colocados
perpendicularmente de manera que al aplicar una corriente eléctrica
deja pasar o no la luz. Para conseguir el color es necesario aplicar
tres filtros más para cada uno de los colores básicos rojo, verde y
azul.
Para la reproducción de varias tonalidades de color se deben aplicar
diferentes niveles de brillo intermedios entre luz y no luz lo cual se
consigue con variaciones en el voltaje que se aplica a los filtros.
Ventajas:
Poco peso y tamaño.
Buena calidad de colores.
No contiene parpadeo.
Poco consume de energía.
Poca generación de calor.
No genera radiaciones eléctricas y magnéticas.
Desventajas:
• Alto costo.
• Angulo limitado de visibilidad.
• Brillo limitado.
• Bajo tiempo de respuesta de píxeles.
• Contiene mercurio.
Pantallas Plasma:
La pantalla de plasma fue desarrollada en la Universidad de Illinois por
Donald L. Bitzer y H. Gene Slottow.
Originalmente los paneles eran monocromáticos. En 1995 Larry Weber
logró crear la pantalla de plasma de color. Este tipo de pantalla entre
sus principales ventajas se encuentran una la mayor resolución y ángulo
de visibilidad.
Funcionamiento:
El principio de funcionamiento de una pantalla de plasma consiste en
iluminar pequeñas luces fluorescentes de colores para conformar una
imagen. Las pantallas de plasma funcionan como las lámparas
fluorescentes, en que cada píxel es semejante a un pequeño foco
coloreado.
Cada uno de los píxeles que integran la pantalla está formado por
una pequeña celda estanca que contiene un gas inerte (generalmente neón
o xenón). Al aplicar una diferencia de potencial entre los electrodos
de la celda, dicho gas pasa al estado de plasma.
El gas así cargado emite radiación ultravioleta (UV) que golpea y
excita el material fosforescente que recubre el interior de la celda.
Cuando el material fosforescente regresa a su estado energético
natural, emite luz visible.
Ventajas:
• Excelente brillo.
• Alta resolución.
• Amplio ángulo de visión.
• No contiene mercurio.
• Tamaño de pantalla elevado.
Desventajas:
• Vida útil corta.
• Coste de fabricación elevado, superior a los LCD.
• Consumo de electricidad elevado.
• Poca pureza del color.
• Consumo energético y emisión de calor elevada.
¿Qué es la resolución de pantalla?
Se denomina al número de píxeles (o máxima resolución de imagen) que
puede ser mostrada en la pantalla. Viene dada por el producto de las
columnas (”X”), el cual se coloca al principio y el número de filas
(”Y”) con el que se obtiene una razón. Por ejemplo podemos encontrar:
Los monitores han evolucionado conjuntamente con las tarjetas de
vídeos. La necesidad de mostrar resoluciones mayores, con alta calidad
de colores, ha llevado día a día a su desarrollo.
Ratón
Ratón con cable y rueda.
Ratón para videojugadores.
El ratón o mouse (del inglés, pronunciado [maʊs]) es un dispositivo apuntador usado para
facilitar el manejo de un entorno gráfico en un computador. Generalmente está fabricado en
plástico y se utiliza con una de las manos. Detecta su movimiento relativo en dos dimensiones
por la superficie plana en la que se apoya, reflejándose habitualmente a través de un puntero
o flecha en el monitor.
Hoy en día es un elemento imprescindible en un equipo informático para la mayoría de las
personas, y pese a la aparición de otras tecnologías con una función similar, como la pantalla
táctil, la práctica ha demostrado que tendrá todavía muchos años de vida útil. No obstante, en
el futuro podría ser posible mover el cursor o el puntero con los ojos o basarse en el
reconocimiento de voz.
El nombre
La forma del dispositivo originó su nombre.
Aunque cuando se patentó recibió el nombre de «X-Y Position Indicator for a Display
System» (Indicador de posición X-Y para un sistema con pantalla), el más usado nombre de
ratón (mouse en inglés) se lo dio el equipo de la Universidad de Stanford durante su
desarrollo, ya que su forma y su cola (cable) recuerdan a un ratón.
En América predomina el término inglés mouse mientras que en España se utiliza
prácticamente de manera exclusiva el calco semántico «ratón». El Diccionario panhispánico
de dudas recoge ambos términos, aunque considera que, como existe el calco semántico, el
anglicismo es innecesario.1
El DRAE únicamente acepta la entrada ratón para este dispositivo
informático, pero indica que es un españolismo.2
Hoy en día
Habitualmente se compone de al menos dos botones y otros dispositivos opcionales como una
«rueda», más otros botones secundarios o de distintas tecnologías como sensores del
movimiento que pueden mejorar o hacer más cómodo su uso.
Se suele presentar para manejarse con ambas manos por igual, pero algunos fabricantes
también ofrecen modelos únicamente para usuarios diestros o zurdos. Los sistemas
operativos pueden también facilitar su manejo a todo tipo de personas, generalmente
invirtiendo la función de los botones.
En los primeros años de la informática, el teclado era casi siempre la forma más popular como
dispositivo para la entrada de datos o control de la computadora. La aparición y éxito del
ratón, además de la posterior evolución de los sistemas operativos, logró facilitar y mejorar la
comodidad, aunque no relegó el papel primordial del teclado. Aún hoy en día, pueden
compartir algunas funciones dejando al usuario que escoja la opción más conveniente a sus
gustos o tareas.
Historia
Fue diseñado por Douglas Engelbart y Bill English durante los años 60 en el Stanford
Research Institute, un laboratorio de la Universidad de Stanford, en pleno Silicon Valley en
California. Más tarde fue mejorado en los laboratorios de Palo Alto de la compañía Xerox
(conocidos como Xerox PARC). Su invención no fue un hecho banal ni fortuito, sino que surgió
dentro de un proyecto importante que buscaba aumentar el intelecto humano mejorando la
comunicación entre el hombre y la máquina. Con su aparición, logró también dar el paso
definitivo a la aparición de los primeros entornos o interfaces gráficas de usuario.
La primera maqueta
Copia del primer prototipo.
La primera maqueta se construyó de manera artesanal de madera, y se patentó con el nombre
de "X-Y Position Indicator for a Display System".
A pesar de su aspecto arcaico, su funcionamiento básico sigue siendo igual hoy en día. Tenía
un aspecto de adoquín, encajaba bien en la mano y disponía de dos ruedas metálicas que, al
desplazarse por la superficie, movían dos ejes: uno para controlar el movimiento vertical del
cursor en pantalla y el otro para el sentido horizontal, contando además con un botón rojo en
su parte superior.
Por primera vez se lograba un intermediario directo entre una persona y la computadora, era
algo que, a diferencia del teclado, cualquiera podía aprender a manejar sin apenas
conocimientos previos. En esa época además la informática todavía estaba en una etapa
primitiva: ejecutar un simple cálculo necesitaba de instrucciones escritas en un lenguaje de
programación.
Presentación
¿Cómo se captura el movimiento de un ratón mecánico estándar?
1: Al arrastrarlo sobre la superficie gira la bola,
2: ésta a su vez mueve los rodillos ortogonales,
3: éstos están unidos a unos discos de codificación óptica, opacos pero perforados,
4: dependiendo de su posición pueden dejar pasar o interrumpir señales infrarrojas de un
diodo LED.
5: Estos pulsos ópticos son captados por sensores que obtienen así unas señales digitales de
la velocidad vertical y horizontal actual para trasmitirse finalmente al ordenador.
En San Francisco, a finales de 1968 se presentó públicamente el primer modelo oficial.
Durante hora y media además se mostró una presentación multimedia de un sistema
informático interconectado en red y también por primera vez se daba a conocer un entorno
gráfico con el sistema de ventanas que luego adoptarían la práctica totalidad de sistemas
operativos modernos. En ese momento además, se exhibió hipermedia, un mecanismo para
navegar por Internet y usar videoconferencia.
Engelbart realmente se adelantó varias décadas a un futuro posible, ya desde 1951 había
empezado a desarrollar las posibilidades de conectar computadoras en redes, cuando apenas
existían varias docenas y bastante primitivas, entre otras ideas como el propio correo
electrónico, del que sería su primer usuario. Pensó que la informática podía usarse para
mucho más que cálculos matemáticos, y el ratón formaba parte de este ambicioso proyecto,
que pretendía aumentar la inteligencia colectiva fundando el Augmentation Research Center
(Centro para la investigación del incremento) en la Universidad de Stanford.
Y pese a las esperanzas iniciales de Engelbart de que fuera la punta del iceberg para un
desarrollo de distintos componentes informáticos similares, una década después era algo
único, revolucionario, que todavía no había cobrado popularidad. De hecho varios de los
conceptos e ideas surgidos aún hoy en día han conseguido éxito. Engelbart tampoco logró una
gran fortuna, la patente adjudicaba todos los derechos a la Universidad de Stanford y él
recibió un cheque de unos 10000 dólares.
El éxito de Apple
El 27 de abril de 1981 se lanzaba al mercado la primera computadora con ratón incluido:
Xerox Star 8010, fundamental para la nueva y potente interfaz gráfica que dependía de este
periférico, que fue a su vez, otra revolución. Posteriormente, surgieron otras computadoras
que también incluyeron el periférico, algunas de ellas fueron la Commodore Amiga, el Atari
ST, y la conocida Apple Lisa. Dos años después, Microsoft, que había tenido acceso al ratón de
Xerox en sus etapas de prototipo, dio a conocer su propio diseño disponible además con las
primeras versiones del procesador de texto Word. Tenía dos botones en color verde y podía
adquirirse por 195 dólares, pero su precio elevado para entonces y el no disponer de un
sistema operativo que realmente lo aprovechara, hizo que pasara completamente
desapercibido.
No fue hasta la aparición del Macintosh en 1984 cuando este periférico se popularizó. Su
diseño y creación corrió a cargo de nuevo de la Universidad de Stanford, cuando Apple en
1980 pidió a un grupo de jóvenes un periférico seguro, barato y que se pudiera producir en
serie. Partían de un ratón basado en tecnología de Xerox de un coste alrededor de los 400
dólares, con un funcionamiento regular y casi imposible de limpiar. El presidente, Steve Jobs,
quería un precio entre los 10 y los 35 dólares.
Si bien existen muchas variaciones posteriores, algunas innovaciones recientes y con éxito
han sido el uso de una rueda central o lateral, el sensor de movimiento óptico por diodo LED,
ambas introducidas por Microsoft en 1996 y 1999 respectivamente, o el sensor basado en un
láser no visible del fabricante Logitech.
En la actualidad, la marca europea Logitech es una de las mayores empresas dedicadas a la
fabricación y desarrollo de estos periféricos, más de la mitad de su producción la comercializa
a través de terceras empresas como IBM, Hewlett-Packard, Compaq o Apple.
Funcionamiento
Imagen habitual de un puntero movido por la pantalla usando un ratón.
Su funcionamiento principal depende de la tecnología que utilice para capturar el movimiento
al ser desplazado sobre una superficie plana o alfombrilla especial para ratón, y transmitir
esta información para mover una flecha o puntero sobre el monitor de la computadora.
Dependiendo de las tecnologías empleadas en el sensor del movimiento o por su mecanismo y
del método de comunicación entre éste y la computadora, existen multitud de tipos o familias.
El objetivo principal o más habitual es seleccionar distintas opciones que pueden aparecer en
la pantalla, con uno o dos clic, pulsaciones, en algún botón o botones. Para su manejo el
usuario debe acostumbrarse tanto a desplazar el puntero como a pulsar con uno o dos clic
para la mayoría de las tareas.
Con el avance de los nuevos ordenadores, el ratón se ha convertido en un dispositivo esencial
a la hora de jugar, destacando no solo para seleccionar y accionar objetos en pantalla en
juegos estratégicos, sino para cambiar la dirección de la cámara o la dirección de un
personaje en juegos de primera o tercera persona. Comunmente en la mayoría de estos
juegos, los botones del ratón se utilizan para accionar las armas u objetos seleccionados y la
rueda del ratón sirve para recorrer los objetos o armas de nuestro inventario.
Tipos o modelos
Por mecanismo
Mecánicos
Tienen una gran bola de plástico, de varias capas, en su parte inferior para mover dos ruedas
que generan pulsos en respuesta al movimiento de éste sobre la superficie. Una variante es el
modelo de Honeywell que utiliza dos ruedas inclinadas 90 grados entre ellas en vez de una
bola.
La circuitería interna cuenta los pulsos generados por la rueda y envía la información a la
computadora, que mediante software procesa e interpreta.
Parte inferior de un ratón con cable y sensor óptico.
Ópticos
Es una variante que carece de la bola de goma que evita el frecuente problema de la
acumulación de suciedad en el eje de transmisión, y por sus características ópticas es menos
propenso a sufrir un inconveniente similar. Se considera uno de los más modernos y prácticos
actualmente. Puede ofrecer un límite de 800 ppp, como cantidad de puntos distintos que
puede reconocer en 2,54 centímetros (una pulgada); a menor cifra peor actuará el sensor de
movimientos. Su funcionamiento se basa en un sensor óptico que fotografía la superficie
sobre la que se encuentra y detectando las variaciones entre sucesivas fotografías, se
determina si el ratón ha cambiado su posición. En superficies pulidas o sobre determinados
materiales brillantes, el ratón óptico causa movimiento nervioso sobre la pantalla, por eso se
hace necesario el uso de una alfombrilla o superficie que, para este tipo, no debe ser brillante
y mejor si carece de grabados multicolores que puedan "confundir" la información luminosa
devuelta.
Láser
Este tipo es más sensible y preciso, haciéndolo aconsejable especialmente para los
diseñadores gráficos y los jugadores de videojuegos. También detecta el movimiento
deslizándose sobre una superficie horizontal, pero el haz de luz de tecnología óptica se
sustituye por un láser con resoluciones a partir de 2000 ppp, lo que se traduce en un aumento
significativo de la precisión y sensibilidad.
Un modelo trackball de Logitech.
Trackball
El concepto de trackball es una idea que parte del hecho: se debe mover el puntero, no el
dispositivo, por lo que se adapta para presentar una bola, de tal forma que cuando se coloque
la mano encima se pueda mover mediante el dedo pulgar, sin necesidad de desplazar nada
más ni toda la mano como antes. De esta manera se reduce el esfuerzo y la necesidad de
espacio, además de evitarse un posible dolor de antebrazo por el movimiento de éste. A
algunas personas, sin embargo, no les termina de resultar realmente cómodo. Este tipo ha
sido muy útil por ejemplo en la informatización de la navegación marítima.
Por conexión
Por cable
Es el formato más popular y más económico, sin embargo existen multitud de características
añadidas que pueden elevar su precio, por ejemplo si hacen uso de tecnología láser como
sensor de movimiento. Actualmente se distribuyen con dos tipos de conectores posibles, tipo
USB y PS/2; antiguamente también era popular usar el puerto serie.
Es el preferido por los videojugadores experimentados, ya que la velocidad de transmisión de
datos por cable entre el ratón y el ordenador es óptima en juegos que requieren de una gran
precisión.
Un modelo inalámbrico con rueda y cuatro botones, y la base receptora de la señal.
Inalámbrico
En este caso el dispositivo carece de un cable que lo comunique con
el ordenador o computadora, en su lugar utiliza algún tipo de
tecnología inalámbrica. Para ello requiere un receptor que reciba la
señal inalámbrica que produce, mediante baterías, el ratón. El
receptor normalmente se conecta al ordenador a través de un
puerto USB o PS/2. Según la tecnología inalámbrica usada pueden
distinguirse varias posibilidades:
• Radio Frecuencia (RF): Es el tipo más común y económico
de este tipo de tecnologías. Funciona enviando una señal a
una frecuencia de 2.4Ghz, popular en la telefonía móvil o
celular, la misma que los estándares IEEE 802.11b y IEEE
802.11g. Es popular, entre otras cosas, por sus pocos
errores de desconexión o interferencias con otros equipos
inalámbricos, además de disponer de un alcance suficiente: hasta unos 10 metros.
• Infrarrojo (IR): Esta tecnología utiliza una señal de onda infrarroja como medio de
trasmisión de datos, popular también entre los controles o mandos remotos de
televisiones, equipos de música o en telefonía celular. A diferencia de la anterior,
tiene un alcance medio inferior a los 3 metros, y tanto el emisor como el receptor
deben estar en una misma línea visual de contacto directo ininterrumpido para que la
señal se reciba correctamente. Por ello su éxito ha sido menor, llegando incluso a
desaparecer del mercado.
• Bluetooth (BT): Bluetooth es la tecnología más reciente como transmisión inalámbrica
(estándar IEEE 802.15.1), que cuenta con cierto éxito en otros dispositivos. Su
alcance es de unos 10 metros o 30 pies (que corresponde a la Clase 2 del estándar
Bluetooth).
El controlador
Es, desde hace un tiempo, común en cualquier equipo informático, de tal manera que todos
los sistemas operativos modernos suelen incluir de serie un software controlador (driver)
básico para que éste pueda funcionar de manera inmediata y correcta. No obstante, es normal
encontrar software propio del fabricante que puede añadir una serie de funciones opcionales,
o propiamente los controladores si son necesarios.
Modelo Mighty Mouse de Apple.
Uno, dos o tres botones
Hasta mediados de 2005, la conocida empresa Apple, para sus sistemas Mac apostaba por un
ratón de un sólo botón, pensado para facilitar y simplificar al usuario las distintas tareas
posibles. Actualmente ha lanzado un modelo con dos botones simulados virtuales con
sensores debajo de la cubierta plástica, dos botones laterales programables, y una bola para
mover el puntero, llamado Mighty Mouse.
Modelo inalámbrico con cuatro botones.
En Windows, lo más habitual es el uso de dos o tres botones principales. En sistemas UNIX
como GNU/Linux que utilicen entorno gráfico (X Window), era habitual disponer de tres
botones (para facilitar la operación de copiar y pegar datos directamente). En la actualidad la
funcionalidad del tercer botón queda en muchos casos integrada en la rueda central de tal
manera que además de poder girarse, puede pulsarse.
Hoy en día cualquier sistema operativo moderno puede hacer uso de hasta estos tres botones
distintos e incluso reconocer más botones extra a los que el software reconoce, y puede
añadir distintas funciones concretas, como por ejemplo asignar a un cuarto y quinto botón la
operación de copiar y pegar texto.
La sofisticación ha llegado a extremos en algunos casos, por ejemplo el MX610 de Logitech,
lanzado en septiembre de 2005. Preparado anatómicamente para diestros, dispone de hasta
10 botones.
Problemas frecuentes
• Puntero que se atasca en la pantalla: Es el fallo más frecuente, se origina a causa de
la acumulación de suciedad, frenando o dificultando el movimiento del puntero en la
pantalla. Puede retirarse fácilmente la bola de goma por la parte inferior y así acceder
a los ejes de plástico para su limpieza, usando un pequeño pincel de cerdas duras.
Para retardar la aparición de suciedad en el interior del ratón es recomendable usar
una alfombrilla. Este problema es inexistente con tecnología óptica, ya que no
requiere partes mecánicas para detectar el desplazamiento. Es uno de los principales
motivos de su éxito.
• Pérdida de sensibilidad o contacto de los botones: se manifiesta cuando se pulsa una
vez un botón y la computadora lo recibe como ninguno, dos o más clics consecutivos,
de manera errónea. Esto se debe al desgaste de las piezas de plástico que forman
parte de los botones del ratón, que ya no golpean o pulsan correctamente sobre el
pulsador electrónico. Para solucionarlo normalmente debe desmontarse
completamente y colocar varias capas de papel adhesivo sobre la posible zona
desgastada hasta recuperar su forma original. En caso de uso frecuente, el desgaste
es normal, y suele darse a una cifra inferior al milímetro por cada 5 años de vida útil.
• Dolores musculares causados por el uso del ratón: Si el uso de la computadora es
frecuente, es importante usar un modelo lo más ergonómico posible, ya que puede
acarrear problemas físicos en la muñeca o brazo del usuario. Esto es por la posición
totalmente plana que adopta la mano, que puede resultar forzada, o puede también
producirse un fuerte desgaste del huesecillo que sobresale de la muñeca, hasta el
punto de considerarse una enfermedad profesional. Existen alfombrillas
especialmente diseñadas para mejorar la comodidad al usar el ratón.
¿Qué PROYECCION Y QUE ESPECTATIVAS OFRECE EL FUTURO?
INTRODUCCIÓN
En las últimas décadas del siglo XX asistimos a un conjunto de transformaciones económicas-
sociales y culturales cuya vertiginosidad y complejidad no admite precedente y nuestro país
no se encuentra ajeno a ello. Caen rápidamente todo tipo de muros y barreras entre las
naciones al mismo tiempo que se amplía la brecha en el nivel de desarrollo humano al que
acceden los distintos pueblos.
El mundo de hoy, esta inmerso en una nueva revolución tecnológica basada en la informática,
que encuentra su principal impulso en el acceso y en la capacidad de procesamiento de
información sobre todos los temas y sectores de la actividad humana. Ha contribuido a que
culturas y sociedadesse transformen aceleradamente tanto económica, como social y
políticamente, con el objetivo fundamental de alcanzar con plenitud sus potencialidades.
El conjunto de tecnologías que se concentran alrededor de las computadoras personales, de
las tecnologías de la información y de la comunicación, es sin duda la innovación que más ha
influido en el desarrollo de la vida social de fines del siglo XX y comienzo del XXI.
Esta última centuria ha sido extraordinariamente rica en avances técnicos y científicos, ha
visto el crecimiento pleno de otras tecnologías decisivas, como la electricidad y la electrónica,
los medios audiovisuales – en particular la televisión– y ha culminado con la implantación de
estas nuevas tecnologías (que ya no son tan nuevas), que han revolucionado el uso y la
manipulación de la información y se han constituido, a la vez, en vehículos de comunicación.
El desarrollo de las tecnologías está teniendo una gran influencia en el ámbito educativo, ya
que constituyen una nueva herramienta de trabajo que da acceso a una gran cantidad de
información y que acerca y agiliza la labor de personas e instituciones distantes entre si.
Cuando se habla del uso de las computadoras en la educación se argumenta y es inevitable
discutir sobre sus ventajas, inconvenientes y usos apropiados estas son discusiones técnicas
y pedagógicas, pero detrás de ellas hay algo más que argumentaciones racionales, detrás de
ellas hay también emociones.
Es por ello que intentaremos a través del presente trabajo plasmar un análisis integral de un
tema en particular: LA COMPUTADORA COMO MEDIO EDUCATIVO Y SUSU PELIGROS EN LA
FORMACIÓN DEL EDUCANDO, para lo cual tendremos que apoyarnos en investigaciones y
conjeturas propias, tratando de mantener una visión de la realidad como un todo. Para ello
hemos estructurado nuestra investigación en tres capítulos:
Primer Capítulo : "La Computadora y la Sociedad" , en el cual se describe a la computadora
como factor para el aprendizaje y desarrollo de los pueblos y su influencia en el ámbito
laboral, así como sus efectos en la sociedad en general, desde sus origenes hasta nuestros
días.
Segundo Capítulo: "La Computadora como Medio Educativo", a través del cual intentamos
establecer la relación de la computadora con la educación de la persona y la labor del
docente, para lograr la interacción en el aula y el desarrollo de la escuela. Así mismo se podrá
observar loas distintas formas o modelos de uso de la computadora en el la enseñanza
aprendizaje, entre otros.
Tercer Capítulo : " Peligros de la Computadora para la Formación del Educando", en este
plano se intenta clarificar de cómo el ordenador como medio para la enseñanza aprendizaje,
es ventajoso; pero al mismo tiempo de cómo puede convertirse en una amenaza que atente
contra la salud del educando y de su capacidad cognitiva; por otro lado de cómo se puede
convertir en un peligro para el docente desde el punto de vista laboral, al sentirse desplazado
por su vertiginoso empleo y gran capacidad de almacenamiento de datos.
Cuando se habla del uso de las computadoras en la educación se argumenta y es inevitable
discutir sobre sus ventajas, inconvenientes y usos apropiados estas son discusiones técnicas
y pedagógicas, pero detrás de ellas hay algo más que argumentaciones racionales, detrás de
ellas hay también emociones. A mediados de la década del 1970 las computadoras eran
usadas por pocas personas, pero ya en la actualidad han tenido un mayor impacto en la
sociedad que cualquier otro invento. Esta acogida se debe a sus características, las mismas
que son aprovechadas en los diferentes ámbitos laborales, en particular el educativo, por ello
vemos que las escuelas o instituciones educativas de hoy en día cada vez más apuestan por
implementar un centro de cómputo dentro de su infraestructura y así mantenerse acorde con
los adelantos de la informática y alcanzar el anhelado sueño de mejorar la enseñanza
aprendizaje a través de un mejor medio para concretar tal fin: La computadora
Esperamos que el presente trabajo de investigación colme las expectativas del docente así
mismo de que contribuya en el quehacer educativo de los estudiantes y la tarea por alcanzar
nuevos conocimientos, solo así diremos ¡Tarea cumplida¡
LOS ESTUDIANTES
OBJETIVOS
• Identificar los efectos educativos, culturales y laborales de la computadora dentro de
la sociedad.
• Analizar el uso de la computadora como medio didáctico en el ambiente escolarizado
y el uso de nueva metodología para el proceso enseñanza-aprendizaje.
• Reconocer los peligros del uso de la computadora para la formación del educando y
para su salud.
• Determinar las ventajas y desventajas de la computadora como medio didáctico en el
proceso docente educativo.
FUTURO Y PROSPECTIVA
Internet potenciará inteligencia, pero degradará la privacidad
Internet siempre a la mano evita tener que recordar mucha información
‘Inteligente’ será quien sepa buscar y relacionar gran cantidad de datos
El uso intensivo de Internet en la búsqueda de información para la vida cotidiana cambiará
por completo lo que entendemos por inteligencia durante la próxima década, potenciando
nuestro cerebro, pero también degradará nuestra privacidad.
Así lo señala el informe El futuro de Internet, publicado recientemente por el Pew Research
Center de Estados Unidos.
La exposición permanente a gran cantidad de información y la interacción con buscadores que
cada vez entienden mejor lo que necesitamos, hará superfluo manejar gran cantidad de datos
en la memoria humana y más bien obligará a las personas a desarrollar sus capacidades para
relacionar, rápidamente, distintas fuentes de conocimiento, se explica en el estudio.
Las conclusiones de El futuro de Internet están basadas en una encuesta y entrevistas
realizadas a 371 expertos y 524 usuarios intensivos de Internet sobre cómo imaginan
Internet en el 2020.
El 50% de los consultados ha estado utilizando Internet al menos desde el año 1992.
Nueva inteligencia. El 81% de los expertos y el 76% de los usuarios encuestados se
declararon a favor de la idea de que Internet provocará una mejora significativa de la
inteligencia humana para 2020.
La mayoría acepta que el ser humano ya no tendrá que recordar mucho ni guardar en su
cerebro detalles, pero sí pensar más y de una forma mucho más crítica.
“La tecnología no es el problema, sino los rasgos de carácter inherente a las personas.
Internet y los buscadores solo permiten a las personas ser más de lo que ya son. Si están
motivados y son astutos, utilizarán las nuevas herramientas para explorar en nuevas e
interesantes maneras de aprender. Si son perezosos o incapaces de concentrarse,
encontrarán nuevas maneras de ser distraídos y perder el tiempo”, dice el informe.
En el 2020 buena parte de la vida humana se desarrollará dentro en un ambiente de completa
conexión a Internet. Distintos dispositivos –desde el reloj de pulsera hasta el servidor que
manejará los electrodomésticos– estarán permanentemente recibiendo y enviando
información y tomando las decisiones más lógicas automáticamente.
El ser humano, por lo tanto, tendrá menos asuntos “sin trascendencia” a los cuales atender.
“Tenemos que pensar que en diez años nuestra definición de inteligencia será muy diferente.
Será ‘inteligente’ aquello que funciona en red y permite unir y dar un nuevo sentido a aquello
que no son más que bits de información separados”, explicó Christine Greenhow, de la
Universidad de Minesota y quien participó en el estudio.
La evolución que plantea Internet, recuerda el estudio, en el fondo no es diferente a otras
revoluciones ya vividas por la humanidad.
Platón, por ejemplo, llegó a criticar en sus inicios la escritura porque consideraba que el
pensamiento solo podía existir dentro de él mismo; es decir, en la mente de los humanos y no
en lo escrito.
También hubo críticas de algunos sectores conservadores tras la invención de la imprenta de
caracteres móviles en Occidente.
Esos sucesos cambiaron la forma de pensar de los humanos y ayudaron a crear la sociedad
actual. Ahora, Internet cambiará la forma de pensar de los humanos actuales y ayudará a
formar la sociedad del futuro, se afirma.
Poca privacidad. La popularización de Internet plantea para los expertos un escenario donde
la idea de privacidad también cambiará.
En este apartado será clave el concepto de autenticación; es decir, el estar seguro de que una
persona que ingresa a un sitio web y pide un servicio es quien dice ser.
“La presión para autenticación de los usuarios de Internet está creciendo y muchas
solicitudes son legítimas. Nuevos métodos para lograrla están siendo explorados pero aún no
está claro cuáles prevalecerán en el mercado”, dice el informe del Pew Research Center.
“Conforme crezca el e-comercio, el e-gobierno, la e-democracia y la e-educación, sistemas de
identificación robustos serán más y más comunes en la vida cotidiana”, comentó Ismael Peña
López, de la Universidad Abierta de Cataluña y quien participó en el estudio.
No obstante, el informe asume que nuevas regulaciones legales les darán a las personas
cierto nivel de privacidad, por debajo del actual, pero lo suficiente como para que utilizar un
pseudónimo y no el nombre real no sea mal visto en el mundo de Internet.
La confidencialidad de datos muy calificados no solo se mantendrá, sino que también se
crearán sistemas para asegurarla.
Mención aparte recibieron las redes sociales, responsables desde ahora –pero más en el
futuro– de que las personas olviden el sentido de decir algo o comportarse en Internet
anónimamente.
Las redes sociales dejan constancia pública de pensamientos, opiniones y actuar. Pronto se
potenciará el concepto de “responsabilidad informativa”, tratando de captar a más usuarios
de edad adulta, quienes crecieron en un mundo donde no informaban a todo el planeta
(literalmente) cuál película irían a ver al cine, cómo les fue de vacaciones o si su matrimonio
está en crisis.
Para Stewart Baker, abogado especialista de la firma Stepteo & Johnson, en el 2020 el
anonimato en Internet será como el anonimato en la vida real de nuestro días: cuando nos
encontramos a alguien que no conocemos en una calle solitaria apuramos el paso, cambiamos
de acera y salimos de ahí lo antes posible.
Pablo Fonseca
Después de 15 años, profecías de Gates muestran aciertos y errores
Muchas personas intentaron adivinar como sería la vida después del surgimiento de
internet. Una de ellas fue Bill Gates, quien lanzó hace 15 años el libro The Road Ahead (El
camino por recorrer). Repleto de previsiones del fundador de Microsoft para el futuro, el
libro erra en adivinar el impacto de la web, cuyo papel - estimaba - sería menor del que es.
Gates se equivocó al imaginar que el e-mail disminuiría las reuniones de trabajo, el impacto
de las redes inalámbricas y el comercio electrónico, por ejemplo. Pero, sin contar factores
sociales, enfocado sólo en el avance de la tecnología, el ex-jefe de la Microsoft hizo
afirmaciones que actualmente parecen obvias, pero 15 años atrás sonaban proféticas.
El sitio web estadounidense The Atlantic comparó algunas de ellas y lo que aconteció.
E-mail
Previsión: Gates escribió: "El email y las pantallas compartidas eliminarán la necesidad de
muchos encuentros. Cuando exista alguna reunión presencial, esta será más eficiente
porque los participantes ya intercambiaron informaciones básicas por e-mail.
Veredicto: Se equivocó. La visión de Gates sobre el e-mail ahora parece ingenuamente
utópica por no contar con algunas cuestiones inesperadas. Antes de cualquier cosa, el email
Actividad de afianzamiento
Actividad de afianzamiento
Actividad de afianzamiento
Actividad de afianzamiento
Actividad de afianzamiento
Actividad de afianzamiento
Actividad de afianzamiento
Actividad de afianzamiento
Actividad de afianzamiento
Actividad de afianzamiento
Actividad de afianzamiento
Actividad de afianzamiento
Actividad de afianzamiento
Actividad de afianzamiento
Actividad de afianzamiento
Actividad de afianzamiento
Actividad de afianzamiento
Actividad de afianzamiento
Actividad de afianzamiento
Actividad de afianzamiento
Actividad de afianzamiento
Actividad de afianzamiento
Actividad de afianzamiento
Actividad de afianzamiento
Actividad de afianzamiento
Actividad de afianzamiento

Más contenido relacionado

La actualidad más candente

La actualidad más candente (12)

INSTEL PENTIUM
INSTEL PENTIUMINSTEL PENTIUM
INSTEL PENTIUM
 
Historia de los procesadores
Historia de los procesadoresHistoria de los procesadores
Historia de los procesadores
 
Procesadores
ProcesadoresProcesadores
Procesadores
 
Procesador intel 486 (1)
Procesador intel 486 (1)Procesador intel 486 (1)
Procesador intel 486 (1)
 
Procesador 486
Procesador 486Procesador 486
Procesador 486
 
procesador
procesadorprocesador
procesador
 
Procesador
ProcesadorProcesador
Procesador
 
Evolución de los microprocesadores
Evolución de los microprocesadoresEvolución de los microprocesadores
Evolución de los microprocesadores
 
Evolucion de los microprocesadores
Evolucion de los microprocesadoresEvolucion de los microprocesadores
Evolucion de los microprocesadores
 
procesadors
procesadorsprocesadors
procesadors
 
Tarea hugo
Tarea hugoTarea hugo
Tarea hugo
 
Tarea hugo (1)
Tarea hugo (1)Tarea hugo (1)
Tarea hugo (1)
 

Similar a Actividad de afianzamiento

Evol..del procesador
Evol..del procesadorEvol..del procesador
Evol..del procesadorsiiomara
 
Evolucion microprocesadores
Evolucion microprocesadoresEvolucion microprocesadores
Evolucion microprocesadoresGladys Avendaño
 
Universidad popular del cesar
Universidad popular del cesarUniversidad popular del cesar
Universidad popular del cesarJhon Bueno
 
Algoritmo presentacion
Algoritmo presentacion Algoritmo presentacion
Algoritmo presentacion tavojulio
 
Evolución de los procesadores
Evolución de los procesadoresEvolución de los procesadores
Evolución de los procesadoresjuanitho2215
 
Evolución de los procesadores
Evolución de los procesadoresEvolución de los procesadores
Evolución de los procesadoresjuanitho2215
 
los procesadores
 los procesadores  los procesadores
los procesadores alejoandm
 
Los microprocesadores 1994 2017
Los microprocesadores  1994 2017Los microprocesadores  1994 2017
Los microprocesadores 1994 2017JavierCabezas02
 
LA BIOS
LA BIOSLA BIOS
LA BIOSsujed
 
Evolucion de los_procesadores
Evolucion de los_procesadoresEvolucion de los_procesadores
Evolucion de los_procesadoresSharkCuellar
 
Evolucion de los procesadores
Evolucion de los procesadoresEvolucion de los procesadores
Evolucion de los procesadoresSharkCuellar
 
Evolucion de los procesadores
Evolucion de los procesadoresEvolucion de los procesadores
Evolucion de los procesadoresSharkCuellar
 
Historia de los procesadores
Historia de los procesadoresHistoria de los procesadores
Historia de los procesadoreslucho2012
 
Evolucion de los procesadoes cristian david lamilla
Evolucion de los procesadoes cristian david lamillaEvolucion de los procesadoes cristian david lamilla
Evolucion de los procesadoes cristian david lamillacristianlamilla17
 
Evolucion de los procesadoes cristian david lamilla
Evolucion de los procesadoes cristian david lamillaEvolucion de los procesadoes cristian david lamilla
Evolucion de los procesadoes cristian david lamillaDavid Andrade
 
Evolucion de los procesadoes cristian david lamilla
Evolucion de los procesadoes cristian david lamillaEvolucion de los procesadoes cristian david lamilla
Evolucion de los procesadoes cristian david lamillaDavid Andrade
 
Microprocesadores
MicroprocesadoresMicroprocesadores
MicroprocesadoresJuan1215
 

Similar a Actividad de afianzamiento (20)

Evol..del procesador
Evol..del procesadorEvol..del procesador
Evol..del procesador
 
Evolucion microprocesadores
Evolucion microprocesadoresEvolucion microprocesadores
Evolucion microprocesadores
 
Universidad popular del cesar
Universidad popular del cesarUniversidad popular del cesar
Universidad popular del cesar
 
Algoritmo presentacion
Algoritmo presentacion Algoritmo presentacion
Algoritmo presentacion
 
Algoritmo
AlgoritmoAlgoritmo
Algoritmo
 
Evolución de los procesadores
Evolución de los procesadoresEvolución de los procesadores
Evolución de los procesadores
 
Evolución de los procesadores
Evolución de los procesadoresEvolución de los procesadores
Evolución de los procesadores
 
los procesadores
 los procesadores  los procesadores
los procesadores
 
Los microprocesadores 1994 2017
Los microprocesadores  1994 2017Los microprocesadores  1994 2017
Los microprocesadores 1994 2017
 
LA BIOS
LA BIOSLA BIOS
LA BIOS
 
Evolucion de los_procesadores
Evolucion de los_procesadoresEvolucion de los_procesadores
Evolucion de los_procesadores
 
Evolucion de los procesadores
Evolucion de los procesadoresEvolucion de los procesadores
Evolucion de los procesadores
 
Evolucion de los procesadores
Evolucion de los procesadoresEvolucion de los procesadores
Evolucion de los procesadores
 
Historia de los procesadores
Historia de los procesadoresHistoria de los procesadores
Historia de los procesadores
 
Evolucion de los procesadoes cristian david lamilla
Evolucion de los procesadoes cristian david lamillaEvolucion de los procesadoes cristian david lamilla
Evolucion de los procesadoes cristian david lamilla
 
Evolucion de los procesadoes cristian david lamilla
Evolucion de los procesadoes cristian david lamillaEvolucion de los procesadoes cristian david lamilla
Evolucion de los procesadoes cristian david lamilla
 
Evolucion de los procesadoes cristian david lamilla
Evolucion de los procesadoes cristian david lamillaEvolucion de los procesadoes cristian david lamilla
Evolucion de los procesadoes cristian david lamilla
 
Jorge
JorgeJorge
Jorge
 
Jorge
JorgeJorge
Jorge
 
Microprocesadores
MicroprocesadoresMicroprocesadores
Microprocesadores
 

Más de katherinrestrepo (20)

1
11
1
 
Actividad 4
Actividad 4Actividad 4
Actividad 4
 
Guia nº4
Guia nº4Guia nº4
Guia nº4
 
Trabajo de sena(etica)
Trabajo de sena(etica)Trabajo de sena(etica)
Trabajo de sena(etica)
 
Activida 2 punto 1
Activida 2 punto 1Activida 2 punto 1
Activida 2 punto 1
 
Conector rj45 viviana
Conector rj45 vivianaConector rj45 viviana
Conector rj45 viviana
 
Conector rj45 viviana
Conector rj45 vivianaConector rj45 viviana
Conector rj45 viviana
 
Conector rj45 viviana
Conector rj45 vivianaConector rj45 viviana
Conector rj45 viviana
 
Conector rj45 viviana
Conector rj45 vivianaConector rj45 viviana
Conector rj45 viviana
 
Conector rj45
Conector rj45Conector rj45
Conector rj45
 
Brenda
BrendaBrenda
Brenda
 
Tarea[1]
Tarea[1]Tarea[1]
Tarea[1]
 
Cable utp
Cable utpCable utp
Cable utp
 
Cable utp
Cable utpCable utp
Cable utp
 
Historia del modelo osi
Historia del modelo osiHistoria del modelo osi
Historia del modelo osi
 
Historia del modelo osi
Historia del modelo osiHistoria del modelo osi
Historia del modelo osi
 
Cable utp
Cable utpCable utp
Cable utp
 
Historia del modelo osi
Historia del modelo osiHistoria del modelo osi
Historia del modelo osi
 
Las telecomunicaciones sena
Las telecomunicaciones senaLas telecomunicaciones sena
Las telecomunicaciones sena
 
Redes 11 1
Redes 11 1Redes 11 1
Redes 11 1
 

Actividad de afianzamiento

  • 1. Actividad de afianzamiento ¿Que hay hoy? Eran los comienzos de la década de los '90, o más precisamente hablando, el año 1993. Algunos de los procesadores 486 ya llevaban cuatro años en el mercado, sin embargo, quien tenía uno podía considerarse un semidiós caminando sobre la tierra, teniendo en cuenta lo "pesadas" que eran las aplicaciones de ese entonces: D.O.S. como sistema operativo, y Windows 3.1 como "entorno". Pero Intel, que en ese tiempo enfrentaba una competencia mucho más dura frente a alternativas como IBM, AMD, Cyrix y Texas Instruments, decidió lanzar una nueva plataforma, mejorando la tecnología presente en los chips 486 de forma considerable. El nombre designado fue Pentium, representando la quinta generación de procesadores. Una de las razones para el nuevo nombre se debía a que las oficinas de patentes se negaban a registrar números como propiedad. En ese entonces, los procesadores eran clasificados como 80386 y 80486. Si hubiera sido posible, tal vez lo que conocemos por Pentium hoy no hubiera sido otra cosa más que 80586, pero Intel sabía en ese momento que necesitaría más que un nombre llamativo para imponerse frente a las plataformas existentes. La popularidad de los 486 fue algo impresionante, a un extremo tal que Intel recién dejó de fabricarlos en el año 2007, aunque ya estaban orientados a sistemas embebidos y con objetivos específicos. El primer Pentium: ¡60 megahertz de puro poder! El 22 de marzo de 1993 fue testigo de la aparición del Pentium 60. Tanto su frecuencia como su bus estaban sincronizados en 60 megahertz, y marcó la aparición de un nuevo zócalo, el socket 4, por lo que era necesario un nuevo motherboard para recibirlo (hubo una excepción, que la nombraremos más adelante). Unidad de punto flotante integrada, 64 bits de bus de datos, y un masivo consumo de energía (ubicado en los cinco voltios) eran algunas de las características del nuevo procesador. Al Pentium original se lo conoció como P5 en el círculo técnico, y sólo tuvo una versión superior, de 66 megahertz de velocidad. El consumo de energía se volvió un verdadero problema: Intel debió elevar a 5.25v para mantener estable al chip en 66 megahertz, algo que también despertó un demonio que ni siquiera hoy podemos derrotar del todo: La temperatura. Era necesario un diseño más eficiente (no era por nada que le decían "calentador de café" al Pentium), y así fue como Intel llegó, en octubre de 1994, a crear el P54C, una versión revisada del Pentium que, además de bajar el voltaje a 3.3v, también permitió elevar las velocidades de reloj a 75, 90 y 100 megahertz respectivamente. Sin embargo, hubo dos puntos muy importantes que jugaron en contra de la adopción del Pentium: Los nuevos P54C requerían un nuevo zócalo, el socket 5, que no era retrocompatible con el zócalo anterior. Y lo más importante, fue que se descubrió un bug en la unidad de punto flotante integrada en el diseño del Pentium, que se popularizó como el "bug FDIV". Lo que realmente causó problemas no fue el error en sí, sino el hecho de que Intel hubiera estado consciente del mismo cinco meses antes de que fuera reportado por el profesor Thomas Nicely del Lynchburg Collage, mientras trabajaba con el procesador sobre la Constante de Brun.
  • 2. El bug FDIV estuvo presente en una cantidad significativa de procesadores, pero fue la actitud de Intel la que hizo más daño Por otro lado, Intel debía ofrecer una opción de actualización para aquellos sistemas con zócalos antiguos, y así fue como se creó el Pentium OverDrive. De acuerdo a Intel, aquellos usuarios con un sistema 486 podían colocar un procesador OverDrive y alcanzar un rendimiento muy similar al de los procesadores Pentium. Lamentablemente, el diseño OverDrive fue víctima de múltiples problemas de compatibilidad, afectando su rendimiento final. Las alternativas presentadas por AMD y Cyrix ofrecían un rendimiento, y había circunstancias en las que incluso un 486DX4 podía vencer a un OverDrive. Tampoco debemos olvidar el precio, ya que si bien Intel había lanzado el OverDrive para que los usuarios evitaran cambiar todo el sistema, el dinero que se ahorraban en ese proceso prácticamente debían invertirlo sobre el OverDrive en sí. Los primeros OverDrive estuvieron disponibles para socket 2, 3, 4, 5, 7 y 8. Ninguna de las versiones OverDrive fue muy popular En poco más de tres años, Intel había logrado triplicar la velocidad de sus chips Pentium. Los P54C abrieron el camino para los P54CS, que elevaron las frecuencias a 133, 150, 166 y 200 megahertz respectivamente. Entre ambas estirpes apareció el P54CQS, representado únicamente por el Pentium 120. A partir de los diseños de 120 megahertz, los chips Pentium dejaron atrás al bug FDIV, pero el frente se abrió en dos. En primer lugar, aparecieron los P55C, más conocidos entre los usuarios como Pentium MMX. Y en segundo lugar, Intel lanzó al Pentium Pro en noviembre de 1995. Para cerrar con la quinta generación, los P55C introdujeron al mercado la extensión MMX, un conjunto de instrucciones adicionales que aumentaban el rendimiento de los chips en determinados procesos multimedia. Las versiones de escritorio poseían velocidades de 166, 200 y 233 megahertz, utilizando al socket 7 que ya existía desde los P54C. Los procesadores MMX también tuvieron su versión OverDrive para zócalos anteriores, pero su baja popularidad se mantuvo sin cambios.
  • 3. Intel elevó la apuesta con las nuevas instrucciones MMX El siguiente en la línea fue el Pentium Pro. Desde su lanzamiento se lo conoce oficialmente como integrante de la sexta generación de procesadores, también llamado P6, o i686, un término que se utiliza incluso en estos días (puedes encontrarlo en los nombres de las imágenes de algunas distros Linux). El Pentium Pro rápidamente se presentó como un chip completamente diferente de la familia P5, a pesar de que compartían parte del nombre. No poseía instrucciones MMX, pero su rendimiento era masivo, gracias a velocidades de reloj aumentadas y diseños que contaban con una memoria caché L2 de hasta un megabyte. Uno de los puntos más destacables del Pentium Pro era su rendimiento con software de 32 bits. Como mínimo, su velocidad superaba a la de los Pentium en un 25 por ciento, pero al mismo tiempo esto fue una de las cosas que lo perjudicó. Con un excelente rendimiento en 32 bits, su velocidad en procesos de 16 bits era inferior, incluso a la que entregaban sus hermanos menores. Como si eso fuera poco, un alto precio (provocado por lo complejo de su diseño) y la necesidad de cambiar de zócalo una vez más (socket 8), hicieron del Pentium Pro un procesador muy poco popular entre los usuarios, aunque mantuvo cierta presencia entre servidores de alto rendimiento. Sus modelos eran de 150, 166, 180 y 200 megahertz, con variantes de 256 KB, 512 KB, y 1 MB de memoria caché L2. El Pentium Pro fue un adelantado a su época en varios aspectos A pesar de los problemas que debió enfrentar con el Pentium Pro, Intel tomó lo aprendido a la hora de diseñar este chip, creando la base para lo que serían los Pentium II, Pentium III, Celeron y Xeon. El primer Pentium II apareció en mayo de 1997, y contaba con un diseño radical: El "chip" se había convertido en "cartucho", presentando oficialmente al slot 1. También introdujo la extensión MMX, y corrigió los problemas de rendimiento en aplicaciones de 16 bits que habían plagado al Pentium Pro. Su memoria caché L2 era de 512 KB, aunque más lenta, utilizando la mitad del ancho de banda. Sin embargo, el hecho de que Intel integrara la memoria caché en el cartucho y no en el interior del núcleo permitió bajar los costos lo suficiente como para hacer del Pentium II una opción muy atractiva entre los consumidores, mucho más de lo que jamás fuera el Pentium Pro. Su primera versión fue conocida como Klamath, que utilizaba un bus de 66 megahertz, y contaba con velocidades de 233, 266 y 300 megahertz. Menos de un año después llegó la familia Deschutes, con modelos de 333, 350, 400, y 450 megahertz. El bus de los Deschutes fue elevado a cien megahertz (a excepción del modelo 333 que permaneció en 66), algo que se mantuvo en procesadores posteriores. Tres meses después de la aparición de los Deschutes, Intel lanzó al procesador Celeron, una versión económica y mucho menos poderosa del Pentium II. Su principal debilidad era la ausencia total de caché L2, algo que despertó muchos reclamos entre el público. Sin embargo, tanto este Celeron como su posterior versión con 128 KB de caché L2 demostraron un potencial sin precedentes para realizar overclocking. El Celeron 300A se convirtió en uno de los procesadores más codiciados, ya que con una configuración adecuada se lo podía llevar a unos impresionantes 450 megahertz, un rendimiento que poco tenía que envidiarle al Pentium II 450, mucho más caro. En cuanto al Xeon, desde el comienzo fue posicionado como un procesador para servidores. Una ranura diferente a la de los Pentium II y una mayor cantidad de caché fueron apenas dos de los tantos factores que determinaron esto.
  • 4. El Pentium II cambió zócalo por ranura: El slot 1 estaba entre nosotros Los Pentium III estuvieron claramente definidos en tres sub.-generaciones. La primera fue Katmai, que ofreció un aumento en la velocidad de reloj, y la incorporación de las nuevas instrucciones SSE de aceleración multimedia. Sus modelos fueron de 450, 500, 533, 550 y 600 megahertz. Mientras que los Xeon también habían adquirido las características de los Pentium III a través de nuevas versiones, ocho meses después, en octubre de 1999, llegaron los modelos Coppermine. Los Coppermine marcaron la reintroducción de los zócalos entre los chips de Intel, con la llegada del socket 370. Muchos usuarios han cruzado en su camino a los famosos "adaptadores" de socket 370 a slot 1 para utilizar los nuevos chips en placas madre con ranura slot 1, y de los problemas de compatibilidad que podían surgir con ello. Los Coppermine estuvieron entre los primeros en ofrecer a los usuarios "regulares" la posibilidad de contar con un procesador de 1 Ghz, barrera que no se esperaba alcanzar hasta dentro de varios años. Algunos detalles adicionales se encontraron en la inclusión del bus de 133 megahertz, el uso completo del bus en la memoria caché L2 y la actualización de la línea Celeron, incorporando las mejoras de los Coppermine. Finalmente, llegaron los Tualatin. Por sí mismos, estos Pentium III eran muy poderosos, ya que los modelos superiores contaban con un reloj de 1.4 Ghz, y 512 KB de caché L2. Pero resultaron extremadamente difíciles de conseguir, sin mencionar su alto costo, y el detalle de que muchas placas madre resultaron incompatibles con estos procesadores, debido a limitaciones de diseño en sus chipsets. Quien contara con una placa madre compatible y un Tualatin cerca, tenía a un verdadero monstruo como ordenador. El Pentium III rápidamente volvió al zócalo, y se mantuvo así hasta el último modelo Tualatin Hasta aquí llegamos a lo que se puede considerar como "historia antigua", porque ahora entramos en la época de los primeros Pentium 4, que a falta de otras palabras, fueron demasiados para el gusto y la comprensión de los usuarios. Los primeros P4 correspondían a la familia Willamette, comenzando con una velocidad de reloj de 1.3 Ghz, nuevo zócalo (423), y la introducción de las instrucciones SSE2. Luego vinieron los Northwood, los Gallatin (más conocidos como Extreme Edition), los Prescott, los Prescott 2M, y finalmente los Cedar Mill. Todas estas familias presentaron múltiples cambios: El abandono del socket 423 en favor del 478, la introducción del Hyper-Threading, buses de 533 megahertz, instrucciones SSE3, buses de 800 megahertz, virtualización, el socket 775, y fundamentalmente, la llegada de la micro arquitectura NetBurst. La velocidad máxima de los Pentium 4 alcanzó unos impresionantes 3.8 Ghz, pero esto resultó ser más una limitación que un logro. Intel no podía ir más allá de esta velocidad sin seguir aumentando el voltaje y el diseño térmico, algo que además de ser problemático, también resultaría excesivamente caro. Intel necesitaba hacer las cosas más simples, en varios sentidos.
  • 5. El socket 423 fue abandonado en un tiempo bastante breve Aún es posible encontrar ordenadores con un Pentium 4 como este en su interior El último y más moderno de la estirpe: Pentium G6950 La solución llegó a través de algo ya cotidiano para nosotros: Los núcleos múltiples. Aunque el primer Pentium de dos núcleos apareció en mayo de 2005 (el llamado Pentium D), todavía se los puede encontrar funcionando como si fuera el primer día. Los primeros intentos de Intel fueron algo toscos, ya que los Pentium D resultaron ser muy ineficientes, especialmente en el aspecto de temperatura. Smithfield y Presler, junto con sus variaciones XE, fueron las que le dieron forma a esta serie D de procesadores Pentium. La arquitectura NetBurst necesitaba un reemplazo, y este llegó con algo que ya es muy familiar para todos nosotros: Los procesadores Core 2 Duo. Mientras que los modelos Core pasaron a la vanguardia, representando a los modelos de media y alta gama, los Pentium fueron relegados a un rol mucho más humilde, identificando procesadores con lo que hoy consideramos como "capacidades básicas". Sin embargo, eso no quiere decir que el nombre Pentium en sí mismo esté destinado a desaparecer. Hoy en día, Intel mantiene activos tres zócalos: El 775, el 1156 y el 1366. El primero está prácticamente desplazado, mientras que los otros dos concentran todos los nuevos modelos de procesadores, incluyendo al Pentium G6950, lanzado en enero pasado. Por lo tanto, que no te preocupe si el presupuesto te alcanza sólo para este nuevo Pentium. En cualquier momento podrás dar el salto a un CPU más completo, pero tampoco debes dejar de recordar que el nombre Pentium ha sabido dejar su huella en el mundo de la informática, con novedades, intentos, fracasos, y éxitos rotundos. Si no fuera por el nombre Pentium, probablemente Intel no estaría donde se encuentra ahora. Intel Core Duo es un microprocesador de sexta generación lanzado en enero del 2006 por Intel, posterior al Pentium D y antecesor al Core 2 Dúo. Dispone de dos núcleos de ejecución lo cual hace de este procesador especial para las aplicaciones de subprocesos múltiples y para multitarea. Puede ejecutar varias aplicaciones exigentes simultáneamente, como juegos con gráficos potentes o programas que requieran muchos cálculos, al mismo tiempo que permite descargar música o analizar el PC con un antivirus en segundo plano, por ejemplo. Este microprocesador implementa 2 MB de caché compartida para ambos núcleos más un bus frontal de 667 ó 553 MHz; además implementa el juego de instrucciones SSE3 y mejoras en las unidades de ejecución de SSE y SSE2. Sin embargo, el desempeño con enteros es ligeramente inferior debido a su caché con mayor latencia, además no es compatible con EM64T por lo que solo trabaja a 32 bits. Intel Core Duo fue el primer microprocesador de Intel usado en las computadoras Apple Macintosh.
  • 6. Existe también una versión con sólo un nucleo denominada Core Solo. Historia y evolución de las memorias Un dispositivo de almacenamiento es cualquier instrumento computacional que es capaz de almacenar datos o cualquier tipo de información. Históricamente se ha usado el papel como método más común, pero actualmente es posible almacenar digitalmente en un CD por ejemplo, los datos que cabrían en miles de carpetas archivadas. A lo largo de la historia se ha buscado el camino de encontrar el sistema más pequeño físicamente y con más capacidad para almacenar más datos y tratarlos rápidamente. Microchip También conocido como circuito integrado. Se desarrolló por primera vez en 1958 por el ingeniero Jack Kilby justo meses después de haber sido contratado por la firma Texas Instruments. Se trataba de un dispositivo de germanio que integraba seis transistores en una misma base semiconductora para formar un oscilador de rotación de fase. En el año 2000, Kilby obtuvo el Premio Nobel de Física por la contribución de su invento al desarrollo de la tecnología de la información. Un microchip es una pastilla muy delgada donde se encuentran miles o millones de dispositivos electrónicos interconectados, principalmente diodos y transistores, y también componentes pasivos como resistencia o capacitores. Su área puede ser de 1cm2 o inferior. Los microchips son quizás los sistemas de almacenamiento más empleados, hoy en día se utilizan además de en los computadores, en los teléfonos móviles, electrodomésticos, juguetes con algún componente electrónico, etc. El transistor actúa como interruptor. Puede encenderse o apagarse electrónicamente o amplificar corriente. Se usa en computadoras para almacenar información o en amplificadores para aumentar el volumen de sonido. Las resistencias limitan el flujo de electricidad y nos permiten controlar la cantidad de corriente que fluye, esto se usa por ejemplo para controlar el volumen de un televisor o radio. El desarrollo del microchip es especialmente importante en la historia, pues es algo increíblemente pequeño que puede almacenar cantidad de datos inmensas, que hace años era impensable. Se necesita un desarrollo a nivel microscópico para diseñar los microchips. El primer computador que usó microchips fue un IBM lanzado en 1965, llamado serie 360. Estas computadoras se consideran de la tercera generación de computadoras, y sustituyeron por completo a las de segunda generación, introduciendo una manera de programar que aún se mantiene en grandes computadoras de IBM. Memoria RAM (Random Access Memory) La Memoria de Acceso Aleatorio, o RAM (acrónimo inglés de Random Access Memory), es una memoria de semiconductor, en la que se puede tanto leer como escribir información. Es una memoria volátil, es decir, pierde su contenido al desconectarse de la electricidad. La memoria RAM es el componente de almacenamiento más importante de un computador actual, junto al disco duro. Con la llegada de los computadores de escritorio, había que idear un sistema de almacenamiento que no ocupara espacio, pues los computadores de escritorio se idearon para que cupiesen en una mesa de oficina. La memoria RAM se forma a partir de microchips con entradas de memoria. La memoria es almacenada en esas entradas de manera aleatoria, de ahí su nombre. La memoria RAM es uno de los componentes informáticos que más ha evolucionado en los últimos veinte años. Si a finales de los 80 la capacidad de las memorias RAM rondaban los 4 MB, ahora lo normal es comprarse un computador con al menos 1024 MB, (1 GB). Normalmente se ha ido avanzando en una cantidad de MB igual a potencias de 2. A mediados de los 90, con la llegada de Windows 95, los computadores comenzaron a usar memorias de 16 MB de RAM, más tarde de 32, 64, 128... hasta los Pentium 4 y usando Windows XP, en donde se recomienda al menos 256 MB de RAM, aunque hoy en día lo normal es que usen 1 gigabyte o más. Disco duro Es el medio de almacenamiento por excelencia. Desde que en 1.955 saliera el primer disco duro hasta nuestros días, el disco duro o HDD ha tenido un gran desarrollo. Los discos duros
  • 7. se emplean en computadores de escritorio, portátiles y unidades de almacenamiento de manejo más complejo (Ej.: CEL<editar esto!). El disco duro es el componente que se encarga de almacenar todos los datos que queremos. Mientras que la memoria RAM actúa como memoria "de apoyo" (como variable que almacena y pierde información según se van procesando datos), el disco duro almacena permanentemente la información que le metemos, hasta que es borrado. Generalmente, lo primero que se graba en un disco duro es el sistema operativo que vamos a usar en nuestro computador. Una vez tenemos instalado el sistema operativo en el disco duro, podemos usar todos los programas que queramos que hayan instalados, y toda la información que queramos guardar se almacenará en el disco duro. En el disco duro almacenamos cualquier cosa, como documentos, imagen, sonido, programas, vídeos, ficheros, etc. Los discos duros también han evolucionado muchísimo en los últimos veinte años, sobre todo ampliando su capacidad El disco duro esta compuesto básicamente de:- Varios discos de metal magnetizado, que es donde se guardan los datos.- Un motor que hace girar los discos.- Un conjunto de cabezales, que son los que leen la información guardada en los discos.- Un electroimán que mueve los cabezales.- Un circuito electrónico de control, que incluye el interface con el ordenador y la memoria caché.- Una caja hermética (aunque no al vacío), que protege el conjunto. Normalmente usan un sistema de grabación magnética analógica. El número de discos depende de la capacidad del HDD y el de cabezales del numero de discos x 2, ya que llevan un cabezal por cada cara de cada disco (4 discos = 8 caras = 8 cabezales). Actualmente el tamaño estándar es de 3.5' de ancho para los HDD de PCS y de 2.5' para los discos de ordenadores portátiles. Dispositivos portátiles Además de los dispositivos fijos que existen como componentes en una computadora, hay otros que pueden introducirse y sacarse en cualquier computador. Estos sistemas son realmente útiles para transportar información entre dos o más computadoras. Disquete También llamado disco flexible (floppy disk en inglés). A simple vista es una pieza cuadrada de plástico, en cuyo interior se encuentra el disco. Es un disco circular flexible y magnético, bastante frágil. Los disquetes se introducen en el computador mediante la disquetera. En los años 80 gozaron de gran popularidad. Los programas informáticos y los videojuegos para PC se distribuían en este formato. Ya que en aquella época los programas y juegos no llegaban ni a 1 MB, cabían perfectamente en los disquetes. En su día existió un disquete rectangular, y más tarde apareció el disquete de 3 1/2 pulgadas, el popular disquete cuadrado. En los noventa, los programas comenzaron a ocupar más memoria, por lo que en algunos casos se necesitaban varios disquetes para completar una instalación. El disquete es un sistema de almacenamiento magnético, al igual que los casetes o los discos duros, y aunque han gozado de gran popularidad desde los 80 hasta ahora, pero ya son obsoletos. De hecho, algunos computadores ya salen de fábrica sin disquetera, pues los disquetes se han quedado pequeños en cuanto a capacidad y velocidad. Teniendo en cuenta lo que ocupan los programas actuales, un disquete hoy en día solo sirve para almacenar algunos documentos de texto, imágenes y presentaciones. CD-ROM Es un disco compacto (del inglés: Compact Disc - Read Only Memory). Se trata de un disco compacto (no flexible como los disquetes) óptico utilizado para almacenar información no volátil, es decir, la información introducida en un CD en principio no se puede borrar. Una vez un CD es escrito, no puede ser modificado, sólo leído (de ahí su nombre, Read Only Memory). Un CD-ROM es un disco de plástico plano con información digital codificada en espiral desde el centro hasta el borde. Fueron lanzados a mediados de los 80 por compañías de prestigio como Sony y Philips. Microsoft y Apple fueron dos de las grandes compañías informáticas que la utilizaron en sus comienzos. Es uno de los dispositivos de almacenamiento más utilizados.
  • 8. De hecho, fue el sustituto de los casetes para almacenar música, y de los disquetes para almacenar otro tipo de datos. Hay varios tipos de CD-ROM. Los clásicos miden unos 12 centímetros de diámetro, y generalmente pueden almacenar 650 o 700 MB de información. Sin embargo en los últimos años también se han diseñado CD-ROMS con capacidades de 800 o 900 MB. Si tenemos en cuenta la capacidad en minutos de música, serían 80 minutos los de 700 MB, por ejemplo. También existen discos de 8 cm con menos capacidad, pero ideales para almacenar software relativamente pequeño. Generalmente se utilizan para grabar software, drivers, etc. de periféricos o similares, aunque también se usan para transportar datos normalmente como los CD normales. La principal ventaja del CD-ROM es su versatilidad, su comodidad de manejo, sus pequeñas dimensiones (sobre todo de grosor). Sin embargo sus principal inconveniente es que no pueden manipularse los datos almacenados en él. Con el fin de solucionar este problema aparecieron los CD-RW, o CD regrabable. Sus características son idénticas a los CD normales, pero con la peculiaridad de que pueden ser escritos tantas veces como se quiera. Los CD son leídos por lectores de CD, que incluyen un láser que va leyendo datos desde el centro del disco hasta el borde. El sistema es parecido al de las tarjetas perforadas. Mientras que una tarjeta perforada es claramente visible sus agujeros, en un CD también se incluyen micro perforaciones que son imperceptibles a simple vista, pues son microscópicas. A la hora de escribir en un CD, se emplea el sistema binario con perforación o no perforación (ceros y unos). DVD El crecimiento tecnológico en la informática es tal que incluso los CD se han quedado pequeños. Si hace 10 años los disquetes se habían quedado pequeño y parecía que un CD era algo demasiado "grande", algo ha cambiado, pues todas las aplicaciones, ya sean programas, sistemas operativos o videojuegos, ocupan mucha más memoria. De los tradicionales 700 MB de capacidad de un CD se pasaron a los 4,7 GB de un DVD. La primera ráfaga de ventas de DVDs aparecieron para formato vídeo, para sustituir a los clásicos VHS. Las ventajas de los DVD eran claras, a más capacidad, mejor calidad se puede almacenar. Y mejor se conservan los datos, ya que las cintas magnéticas de los videocasetes eran fácilmente desgastables. Un DVD es mucho más durarero, su calidad de imagen es mejor y también la calidad de sonido. Las películas en DVD comenzaron a popularizarse a finales de los años 90. Sin embargo en esos años aún los CD eran los más populares a nivel informático. Un videojuego solía ocupar unos 600mb de instalación, con lo que fácilmente cabía en un CD. Pero poco a poco los videojuegos y otros programas comenzaron a ocupar más, ya que conforme va avanzando la tecnología de datos, gráficos, etc. más memoria se necesita. Algunos videojuegos llegaban a ocupar 4 o 5 cds, lo que hacía muy incómodo su manipulación. Finalmente se ha decidido por fin que aquellos programas que ocupen más memoria de lo que cabe en un CD, sea almacenado en un DVD. Los DVD son más caros que los CD, aunque poco a poco se están haciendo con el mercado. Quizás sean los sustitutos definitivos de los CD, aunque por ahora estos últimos no están decayendo en absoluto. La venta de CD vírgenes sigue siendo abrumadora. Sin embargo se ha disparado la venta de DVD, pues cada vez más la gente empieza a grabar más datos y lógicamente se busca el menor espacio posible. Y si en un DVD se pueden almacenar seis películas, mejor que usar seis CD. También existen los DVD-R, ya que al igual que los CD, el DVD normal es de sólo lectura. Pero con la lección aprendida de los CD, se diseñaron los DVD regrabables. Además, hace unos años que existen los DVD de doble capa. Este tipo de DVD siguen leyendo por una cara, pero con doble capa de datos. Pero también existen DVD que se pueden leer por las dos caras. Los hay de doble cara y una capa, pero si el DVD es de doble cara y doble capa por cada una, la capacidad llega a los 17 GB. Sin embargo aún estos sistemas se utilizan mínimamente, son muy caros, pero seguramente algún día sustituirán a los actuales CD. Memoria USB La memoria USB fue inventada en 1998 por IBM, pero no fue patentada por él. Su objetivo era sustituir a los disquetes con mucha más capacidad y velocidad de transmisión de datos.Aunque actualmente en un CD o DVD se puede almacenar memoria para luego borrarla y manipularla, lo más cómodo y usado son las memorias USB. Son pequeños dispositivos del tamaño de un mechero que actúan prácitamente igual que un disquete, pero con una capacidad mucho mayor, que actualmente van desde los 64 mb a varios gigabytes. Su principal ventaja es su pequeño tamaño, su resistencia (la memoria en sí está protegida por
  • 9. una carcasa de plástico como un mechero) y su velocidad de transmisión, mucho más rápido que los disquetes. Actualmente está muy de moda este tipo de dispositivos, sobre todo entre jóvenes u oficinistas, pues gracias a su reducido tamaño y forma puede colgarse como llavero por ejemplo, y lo más importante, con el sistema operativo Windows XP, sólo hay que conectarlo al computador y usarlo sin más complicaciones. Además existen otros aparatos como los reproductores de MP3 que utilizan las mismas características. Pueden almacenar cualquier tipo de dato, pero su principal característica es que los ficheros de música en formato mp3 y wma sobre todo, son reconocidos y procesados para ser escuchados a través de unos auriculares conectados al aparato. Esto es pues, un sustituto del walkman. Pero además cada vez están apareciendo nuevos diseños que son capaces de almacenar ya decenas de gigabytes (miles de canciones) y también vídeo, que con una pequeña pantalla pueden ser visualizados. HISTORIA Y EVOLUCION DE LAS IMPRESORAS La impresora es un periférico que le permite realizar una impresión (en papel) de datos electrónicos. Existen varias tecnologías de impresoras, siendo las más comunes: • la impresora margarita • la impresora matriz de punto (también llamada impresora matriz de impacto). • la impresora de inyección de tinta y la impresora Bubble Jet</a> • la impresora láser Actualmente, las impresoras margarita y las de matriz ya casi no se utilizan. Características La impresora generalmente se caracteriza por los siguientes elementos: Velocidad de impresión: expresada en páginas por minuto (ppm), la velocidad de impresión representa la capacidad de la impresora para imprimir un gran número de páginas por minuto. Para impresoras a color, generalmente se realiza la distinción entre la velocidad de impresión monocromática y a color. Resolución: expresada en puntos por pulgada (abreviado dpi), resolución significa la nitidez del texto impreso. A veces, la resolución resulta diferente para una impresión monocromática, a color o de foto. Tiempo de calentamiento: el tiempo de espera necesario antes de realizar la primera impresión. Efectivamente, una impresora no puede imprimir cuando está "fría". Debe alcanzar una cierta temperatura para que funcione en forma óptima. Memoria integrada: la cantidad de memoria que le permite a la impresora almacenar trabajos de impresión. Cuanto más grande sea la memoria, más larga podrá ser la cola de la impresora. Formato de papel: según su tamaño, las impresoras pueden aceptar documentos de diferentes tamaños, por lo general aquellos en formato A4 (21 x 29,7 cm.), y con menos frecuencia, A3 (29,7 x 42 cm.). Algunas impresoras permiten imprimir en diferentes tipos de medio, tales como CD o DVD. Carga de papel: el método para cargar papel en la impresora y que se caracteriza por el modo en que se almacena el papel en blanco. La carga de papel suele variar según el lugar donde se ubique la impresora (se aconseja la carga posterior para impresoras que estarán contra una pared).* Los principales modos de carga de papel son: La bandeja de alimentación, que utiliza una fuente interna de alimentación de papel. Su capacidad es igual a la cantidad máxima de hojas de papel que la bandeja puede contener.
  • 10. El alimentador de papel es un método de alimentación manual que permite insertar hojas de papel en pequeñas cantidades (aproximadamente 100). El alimentador de papel en la parte posterior de la impresora puede ser horizontal o vertical. Cartuchos: los cartuchos raramente son estándar y dependen en gran medida de la marca y del modelo de la impresora. Algunos fabricantes prefieren los cartuchos de colores múltiples mientras que otros ofrecen cartuchos de tinta separados. Los cartuchos de tinta separados son más económicos porque a menudo se utiliza un color más que otro. Resulta interesante examinar el costo de impresión por hoja. El tamaño de gota de tinta es especialmente importante. Cuanto más pequeña sea la gota de tinta, más bajo será el costo de impresión y mejor la calidad de la imagen. Algunas impresoras pueden producir gotas que son de 1 ó 2 picolitros. Interfaz: cómo se conecta la impresora al equipo. Las principales interfaces son: USB Paralelo Red: este tipo de interfaz permite que varios equipos compartan una misma impresora. También existen impresoras WiFi disponibles a través de una red inalámbrica. Impresora margarita Las impresoras margarita se basan en el principio de las máquinas de escribir. Una matriz en forma de margarita contiene "pétalos" y cada uno de éstos posee un carácter en relieve. Para imprimir el texto, se ubica una cinta impregnado de tinta entre la margarita y la hoja de papel. Cuando la matriz golpea la cinta, ésta deposita tinta sobre el papel con la forma del carácter en el pétalo. Estas impresoras se han vuelto obsoletas porque son extremadamente ruidosas y lentas. Impresora matriz de punto La impresora matriz de punto (llamada algunas veces impresora de matriz o impresora de impacto) permite la impresión de documentos sobre papel gracias al movimiento "hacia atrás y hacia adelante" de un carro que contiene un cabezal de impresión. El cabezal se compone de pequeñas agujas metálicas, accionadas por electroimanes, que golpean una cinta de carbón llamada "cinta entintada", ubicada entre el cabezal y el papel. La cinta de carbón se desenrolla para que siempre haya tinta sobre ella. Al finalizar cada línea, un rodillo permite que la hoja avance.
  • 11. Las impresoras matriz de punto más recientes está equipadas con cabezales de 24 agujas, que permiten imprimir con una resolución de 216 dpi (puntos por pulgada). Impresora a chorro de tinta y Bubble Jet La tecnología de impresora a chorro de tinta fue inventada originalmente por Canon. Se basa en el principio de que un fluido caliente produce burbujas. El investigador que descubrió esto había puesto accidentalmente en contacto una jeringa llena de tinta con un soldador eléctrico. Esto creó una burbuja en la jeringa que hizo que la tinta saliera despedida de la jeringa. Actualmente, los cabezales de impresoras están hechos de varios inyectores (hasta 256), equivalentes a varias jeringas, calentadas a una temperatura de entre 300 y 400°C varias veces por segundo. Cada inyector produce una pequeña burbuja que sale eyectada como una gota muy fina. El vacío causado por la disminución de la presión crea a su vez una nueva burbuja. Generalmente, se efectúa una distinción entre las dos tecnologías diferentes: • Las impresoras a chorro de tinta utilizan inyectores que poseen su propio elemento de calentamiento incorporado. En este caso se utiliza tecnología térmica. • Las impresoras Bubble Jet utilizan inyectores que tienen tecnología piezoeléctrica. Cada inyector trabaja con un cristal piezoeléctrico que se deforma al ser estimulado por su frecuencia de resonancia y termina eyectando una burbuja de tinta. Impresora láser La impresora láser permite obtener impresiones de calidad a bajo costo y a una velocidad de impresión relativamente alta. Sin embargo, estas impresoras suelen utilizarse mayormente en ambientes profesionales y semiprofesionales ya que su costo resulta elevado. Las impresoras láser utilizan una tecnología similar a la de las fotocopiadoras. Una impresora láser está compuesta principalmente por un tambor fotosensible con carga electrostática mediante la cual atrae la tinta para hacer una forma que se depositará luego en la hoja de papel. Cómo funciona: un rodillo de carga principal carga positivamente las hojas. El láser carga positivamente ciertos puntos del tambor gracias a un espejo giratorio. Luego se deposita la
  • 12. tinta con carga negativa en forma de polvo (tóner) en las distintas partes del tambor que el láser cargó previamente. Al girar, el tambor deposita la tinta sobre el papel. Un alambre calentado (llamado corona de transferencia) permite finalmente la adhesión de la tinta en el papel. Dado que la impresora láser no tiene cabezales mecánicos, resulta rápida y silenciosa. Existen dos tipos diferentes de tecnología de impresora láser: "carrusel" (cuatro pasadas) o "tándem" (una pasada). Carrusel: con la tecnología de carrusel, la impresora efectúa cuatro pasadas sobre el papel para imprimir un documento (una por cada color primario y una para el negro, lo que en teoría hace que la impresión a color sea cuatro veces más lenta que en negro). Tándem: una impresora láser que utiliza tecnología "tándem" deposita cada color en una sola pasada. Los tóners se depositan simultáneamente. La salida es igual de rápida cuando se imprime a color como cuando se imprime en negro. Sin embargo, esta tecnología resulta más costosa ya que los mecanismos son más complejos. Por lo tanto, se suele utilizar en impresoras láser a color de mediana o alta calidad. Impresora LED Otra tecnología de impresión compite con las impresoras láser: la tecnología LED (diodo emisor de luz). Con esta tecnología, un cabezal de impresión con diodos electroluminiscentes polariza el tambor con un rayo de luz muy fino, permitiendo la obtención de puntos muy diminutos. Esta tecnología es particularmente útil para obtener una alta resolución (600, 1.200 ó 2.400 dpi). Teniendo en cuenta que cada diodo representa un punto, la velocidad de impresión termina afectando mínimamente la resolución. Además, esta tecnología carece de piezas móviles, lo que permite el diseño de impresoras menos costosas, más sólidas y más fiables. Lenguaje de comandos de la impresora El lenguaje de descripción de páginas es el lenguaje estándar que utilizan los equipos para comunicarse con las impresoras. En efecto, una impresora debe poder interpretar la información que un equipo le está enviando. Los dos lenguajes de descripción de página principales son: Lenguaje de comandos de la impresora (PCL): un lenguaje conformado por secuencias binarias. Los caracteres se transmiten según su código ASCII. Lenguaje PostScript: este lenguaje, utilizado inicialmente por Apple LaserWriters, se ha convertido en el estándar de los lenguajes de descripción de páginas. Es un lenguaje en sí mismo que se basa en un conjunto de instrucciones El teclado
  • 13. Un teclado es un periférico o dispositivo que permite ingresar información, tiene entre 99 y 108 teclas aproximadamente, esta dividido en 4 bloques: 1. Bloque de funciones: Va desde la tecla F1 a F12, en tres bloques de cuatro: de F1 a F4, de F5 a F8 y de F9 a F12. Funcionan de acuerdo al programa que este abierto. Ej. al presionar la tecla F1 permite en los programas de Microsoft acceder a la ayuda. 2. Bloque alfanumérico: Está ubicado en la parte inferior del bloque de funciones, contiene los números arábigos del 1 al 0 y el alfabeto organizado como en una máquina de escribir, además de algunas teclas especiales. 3. Bloque especial: Está ubicado a la derecha del bloque alfanumérico, contiene algunas teclas especiales como Imp Pant, Bloq de desplazamiento, pausa, inicio, fin, insertar, suprimir, Repag, Avpag y las flechas direccionales que permiten mover el punto de inserción en las cuatro direcciones. 4. Bloque numérico: Está ubicado a la derecha del bloque especial, se activa cuando al presionar la tecla Bloq Num, contiene los números arábigos organizados como en una calculadora con el fin de facilitar la digitacion de cifras, además contiene los signos de las cuatro operaciones básicas como suma +, resta -, multiplicación * y division /, también contiene una tecla de Intro o enter para ingresar las cifras. Teclado de un terminal CT-1024 Teclado integrado de un Apple Inc Plus Teclado integrado de un Sinclair ZX Spectrum.
  • 14. Terminal de computadora TeleVideo 925 Teclado ajustable de Apple. Teclado PC inalámbrico Disposición de las teclas [editar] La disposición de las teclas se remonta a las primeras máquinas de escribir, las cuales eran enteramente mecánicas. Al pulsar una letra en el teclado, se movía un pequeño martillo mecánico, que golpeaba el papel a través de una cinta impregnada en tinta. Al escribir con varios dedos de forma rápida, los martillos no tenían tiempo de volver a su posición por la frecuencia con la que cada letra aparecía en un texto. De esta manera la pulsación era más lenta con el fin de que los martillos se atascaran con menor frecuencia[cita requerida] . Sobre la distribución de los caracteres en el teclado surgieron dos variantes principales: la francesa AZERTY y la alemana QWERTY. Ambas se basaban en cambios en la disposición según las teclas más frecuentemente usadas en cada idioma. A los teclados en su versión para el idioma español además de la Ñ, se les añadieron los caracteres de acento agudo (´), grave (`) y circunflejo (^)), además de la cedilla (Ç) aunque estos caracteres son de mayor uso en francés, portugués o en catalán. Cuando aparecieron las máquinas de escribir eléctricas, y después los ordenadores, con sus teclados también eléctricos, se consideró seriamente modificar la distribución de las letras en los teclados, colocando las letras más corrientes en la zona central; es el caso del Teclado Simplificado Dvorak. El nuevo teclado ya estaba diseñado y los fabricantes preparados para iniciar la fabricación. Sin embargo, el proyecto se canceló debido al temor de que los usuarios tuvieran excesivas incomodidades para habituarse al nuevo teclado, y que ello perjudicara la introducción de las computadoras personales, que por aquel entonces se encontraban en pleno auge.
  • 15. Teclado QWERTY de 102 teclas con distribución Inglés de Estados Unidos Primeros teclado Además de teletipos y máquinas de escribir eléctricas como la IBM Selectric, los primeros teclados solían ser un terminal de computadora que se comunicaba por puerto serial con la computadora. Además de las normas de teletipo, se designó un estándar de comunicación serie, segun el tiempo de uso basado en el juego de caracteres ANSI, que hoy sigue presente en las comunicaciones por módem y con impresora (las primeras computadoras carecían de monitor, por lo que solían comunicarse, o bien por luces en su panel de control, o bien enviando la respuesta a un dispositivo de impresión). Se usaba para ellos las secuencias de escape, que se generaban o bien por teclas dedicadas, o bien por combinaciones de teclas, siendo una de las más usadas la tecla Control. La llegada de la computadora doméstica trae una inmensa variedad de teclados y de tecnologías y calidades (desde los muy reputados por duraderos del Dragon 32 a la fragilidad de las membranas de los equipos Sinclair), aunque la mayoría de equipos incorporan la placa madre bajo el teclado, y es la CPU o un circuito auxiliar (como el chip de sonido General Instrument AY-3-8910 en los MSX) el encargado de leerlo. Son casos contados los que recurren o soportan comunicación serial (curiosamente es la tecnología utilizada en el Sinclair Spectrum 128 para el keypad numérico). Sólo los MSX establecerán una norma sobre el teclado, y los diferentes clones del Apple II y el TRS-80 seguirán el diseño del clonado. Uno de los teclados más modernos, fue diseñado por una ama de casa llamada Diamea Stuart Medrid Aflory, de Rusia. Ella empezó a dibujar muchos tipos de teclados en un cuaderno de dibujo que tenía. Un día cuando unos inspectores investigaban su casa en contraron estos dibujos y los mandaron a USA. Este fue el teclado ajustable de Apple. Generación 16 bits Mientras que el teclado del IBM PC y la primera versión del IBM AT no tuvo influencia más allá de los clónicos PC, el Multifunción II (o teclado extendido AT de 101/102 teclas) aparecido en 1987 refleja y estandariza de facto el teclado moderno con cuatro bloques diferenciados : un bloque alfanumérico con al menos una tecla a cada lado de la barra espaciadora para acceder a símbolos adicionales; sobre él una hilera de 10 o 12 teclas de función; a la derecha un teclado numérico, y entre ambos grandes bloques, las teclas de cursor y sobre ellas varias teclas de edición. Con algunas variantes este será el esquema usado por los Atari ST, los Commodore Amiga (desde el Commodore Amiga 500), los Sharp X68000, las estaciones de trabajo SUN y Silicon Graphics y los Acorn Archimedes/Acorn RISC PC. Sólo los Mac siguen con el esquema bloque alfanumérico + bloque numérico, pero también producen teclados extendidos AT, sobre todo para los modelos con emulación PC por hardware. Mención especial merece la serie 55 de teclados IBM, que ganaron a pulso la fama de "indestructibles", pues tras más de 10 años de uso continuo en entornos como las aseguradoras o la administración pública seguían funcionando como el primer día. [Cita requerida] Con la aparición del conector PS/2, varios fabricantes de equipos no PC proceden a incorporarlo en sus equipos. Microsoft, además de hacerse un hueco en la gama de calidad alta, y de presentar avances ergonómicos como el Microsoft Natural Keyboard, añade 3 nuevas teclas tras del lanzamiento de Windows 95. A la vez se generalizan los teclados multimedia que añaden teclas para controlar en el PC el volumen, el lector de CD-ROM o el navegador, incorporan en el teclado altavoces, calculadora, almohadilla sensible al tacto o bola trazadora.
  • 16. Teclados con USB Aunque los teclados USB comienzan a verse al poco de definirse el estándar USB, es con la aparición del Apple iMac, que trae tanto teclado como mouse USB de serie cuando se estandariza el soporte de este tipo de teclado. Además tiene la ventaja de hacerlo independiente del hardware al que se conecta. El estándar define scancodes de 16 bits que se transmiten por la interfaz. Del 0 al 3 son códigos de error del protocolo, llamados NoEvent, ErrorRollOver, POSTFail, ErrorUndefined, respectivamente. Del 224 al 231 se reservan para las teclas modificadoras (LCtrl, LShift, LAlt, LGUI, RCtrl, RShift, RAlt, RGUI) Existen distintas disposiciones de teclado, para que se puedan utilizar en diversos lenguajes. El tipo estándar de teclado inglés se conoce como QWERTY. Denominación de los teclados de computadora y máquinas de escribir que se utilizan habitualmente en los países occidentales, con alfabeto latino. Las siglas corresponden a las primeras letras del teclado, comenzando por la izquierda en la fila superior. El teclado en español o su variante latinoamericana son teclados QWERTY que se diferencian del inglés por presentar la letra "ñ" y "Ñ" en su distribución de teclas. Se han sugerido distintas alternativas a la disposición de teclado QWERTY, indicando ventajas tales como mayores velocidades de tecleado. La alternativa más famosa es el Teclado Simplificado Dvorak. Sólo las teclas etiquetadas con una letra en mayúscula pueden ofrecer ambos tipos: mayúsculas y minúsculas. Para teclear un símbolo que se encuentra en la parte superior izquierda de una tecla, se emplea la tecla mayúscula, etiquetada como "↑". Para teclear un símbolo que se encuentra en la parte inferior derecha de una tecla, se emplea la tecla Alt.-Gr. Teclas inertes Algunas lenguas incluyen caracteres adicionales al teclado inglés, como los caracteres acentuados. Teclear los caracteres acentuados resulta más sencillo usando las teclas inertes. Cuando se utiliza una de estas teclas, si se presiona la tecla correspondiente al acento deseado nada ocurre en la pantalla, por lo que, a continuación se debe presionar la tecla del carácter a acentuar. Esta combinación de teclas requiere que se teclee una secuencia aceptable. Por ejemplo, si se presiona la tecla inerte del acento (ej. ´) seguido de la letra A, obtendrá una "a" acentuada (á). Sin embargo, si se presiona una tecla inerte y a continuación la tecla T, no aparecerá nada en la pantalla o aparecerán los dos caracteres por separado (´t), a menos que la fuente particular para su idioma incluya la "t" acentuada. Para teclear una marca de acento diacrítico, simplemente se presiona la tecla inerte del acento, seguida de la barra de espacio. Tipos de teclado [editar] Hubo y hay muchos teclados diferentes, dependiendo del idioma, fabricante… IBM ha soportado tres tipos de teclado: el XT, el AT y el MF-II. El primero (1981) de éstos tenía 83 teclas, usaban es Scan Code set1, unidireccionales y no eran muy ergonómicos, ahora está obsoleto. Más tarde (1984) apareció el teclado PC/AT con 84 teclas (una más al lado de SHIFT IZQ), ya es bidireccional, usa el Scan Code set 2 y al igual que el anterior cuenta con un conector DIN de 5 pines. En 1987 IBM desarrolló el MF-II (Multifunción II o teclado extendido) a partir del AT. Sus características son que usa el mismo interfaz que el AT, añade muchas teclas más, se ponen leds y soporta el Scan Code set 3, aunque usa por defecto el 2. De este tipo hay dos versiones, la americana con 101 teclas y la europea con 102. Los teclados PS/2 son básicamente iguales a los MF-II. Las únicas diferencias son el conector mini-DIN de 6 pines (más pequeño que el AT) y más comandos, pero la comunicación es la misma, usan el protocolo AT. Incluso los ratones PS/2 usan el mismo protocolo. Hoy en día existen también los teclados en pantalla, también llamados teclados virtuales, que son (como su mismo nombre indica) teclados representados en la pantalla, que se utilizan con el ratón o con un dispositivo especial (podría ser un joystick). Estos teclados lo utilizan personas con discapacidades que les impiden utilizar adecuadamente un teclado físico.
  • 17. Actualmente la denominación AT ó PS/2 sólo se refiere al conector porque hay una gran diversidad de ellos. Estructura Un teclado realiza sus funciones mediante un microcontrolador. Estos microcontroladores tienen un programa instalado para su funcionamiento, estos mismos programas son ejecutados y realizan la exploración matricial de las teclas cuando se presiona alguna, y así determinar cuales están pulsadas. Para lograr un sistema flexible los microcontroladores no identifican cada tecla con su carácter serigrafiado en la misma sino que se adjudica un valor numérico a cada una de ellas que sólo tiene que ver con su posición física.El teclado latinoamericano sólo da soporte con teclas directas a los caracteres específicos del castellano, que incluyen dos tipos de acento, la letra eñe y los signos de exclamación e interrogación. El resto de combinaciones de acentos se obtienen usando una tecla de extensión de grafismos.Por lo demás el teclado latinoamericano está orientado hacia la programación, con fácil acceso al juego de símbolos de la norma ASCII. Por cada pulsación o liberación de una tecla el microcontrolador envía un código identificativo que se llama Scan Code. Para permitir que varias teclas sean pulsadas simultáneamente, el teclado genera un código diferente cuando una tecla se pulsa y cuando dicha tecla se libera. Si el microcontrolador nota que ha cesado la pulsación de la tecla, el nuevo código generado (Break Code) tendrá un valor de pulsación incrementado en 128. Estos códigos son enviados al circuito microcontrolador donde serán tratados gracias al administrador de teclado, que no es más que un programa de labios y que determina qué carácter le corresponde a la tecla pulsada comparándolo con una tabla de caracteres que hay en el kernel, generando una interrupción por hardware y enviando los datos al procesador. El microcontrolador también posee cierto espacio de memoria RAM que hace que sea capaz de almacenar las últimas pulsaciones en caso de que no se puedan leer a causa de la velocidad de tecleo del usuario. Hay que tener en cuenta, que cuando realizamos una pulsación se pueden producir rebotes que duplican la señal. Con el fin de eliminarlos, el teclado también dispone de un circuito que limpia la señal. En los teclados AT los códigos generados son diferentes, por lo que por razones de compatibilidad es necesario traducirlos. De esta función se encarga el controlador de teclado que es otro microcontrolador (normalmente el 8042), éste ya situado en el PC. Este controlador recibe el Código de Búsqueda del Teclado (Kscan Code) y genera el propiamente dicho Código de Búsqueda. La comunicación del teclado es vía serie. El protocolo de comunicación es bidireccional, por lo que el servidor puede enviarle comandos al teclado para configurarlo, reiniciarlo, diagnósticos, etc. Disposición del teclado La disposición del teclado es la distribución de las teclas del teclado de una computadora, una máquina de escribir u otro dispositivo similar. Existen distintas distribuciones de teclado, creadas para usuarios de idiomas diferentes. El teclado estándar en español corresponde al diseño llamado QWERTY. Una variación de este mismo es utilizado por los usuarios de lengua inglesa. Para algunos idiomas se han desarrollado teclados que pretenden ser más cómodos que el QWERTY, por ejemplo el Teclado Dvorak. Las computadoras modernas permiten utilizar las distribuciones de teclado de varios idiomas distintos en un teclado que físicamente corresponde a un solo idioma. En el sistema operativo Windows, por ejemplo, pueden instalarse distribuciones adicionales desde el Panel de Control. Existen programas como Microsoft Keyboard Layout Creator1 y KbdEdit,2 que hacen muy fácil la tarea de crear nuevas distribuciones, ya para satisfacer las necesidades particulares de un usuario, ya para resolver problemas que afectan a todo un grupo lingüístico. Estas distribuciones pueden ser modificaciones a otras previamente existentes (como el teclado latinoamericano extendido3 o el gaélico4 ), o pueden ser enteramente nuevas (como la distribución para el Alfabeto Fonético Internacional,5 o el panibérico6 ). A primera vista en un teclado podemos notar una división de teclas, tanto por la
  • 18. diferenciación de sus colores, como por su distribución. Las teclas grisáceas sirven para distinguirse de las demás por ser teclas especiales (borrado, teclas de función, tabulación, tecla del sistema…). Si nos fijamos en su distribución vemos que están agrupadas en cuatro grupos: Teclas de función: situadas en la primera fila de los teclados. Combinadas con otras teclas, nos proporcionan acceso directo a algunas funciones del programa en ejecución. Teclas de edición: sirven para mover el cursor por la pantalla. Teclas alfanuméricas: son las más usadas. Su distribución suele ser la de los teclados QWERTY, por herencia de la distribución de las máquinas de escribir. Reciben este nombre por ser la primera fila de teclas, y su orden es debido a que cuando estaban organizadas alfabéticamente la máquina tendía a engancharse, y a base de probar combinaciones llegaron a la conclusión de que así es como menos problemas daban. A pesar de todo esto, se ha comprobado que hay una distribución mucho más cómoda y sencilla, llamada Dvorak, pero en desuso debido sobre todo a la incompatibilidad con la mayoría de los programas que usamos. Bloque numérico: situado a la derecha del teclado. Comprende los dígitos del sistema decimal y los símbolos de algunas operaciones aritméticas. Añade también la tecla especial Bloc num., que sirve para cambiar el valor de algunas teclas para pasar de valor numérico a desplazamiento de cursor en la pantalla. el teclado numérico también es similar al de un calculadora cuenta con las 4 operaciones básicas que son + (suma), - (resta), * (multiplicación) y / (división). Clasificación de teclados de computadoras En el mercado hay una gran variedad de teclados. A la hora de estudiarlos podemos clasificarlos en dos grupos: Según su forma física: Teclado XT de 83 teclas: se usaba en el PC XT (8086/88). Teclado AT de 83 teclas: usado con los PC AT (286/386). Teclado expandido de 101/102 teclas: es el teclado actual, con un mayor número de teclas. Teclado Windows de 103/104 teclas: el teclado anterior con 3 teclas adicionales para uso en Windows. Teclado ergonómico: diseñados para dar una mayor comodidad para el usuario, ayudándole a tener una posición más relajada de los brazos. Teclado multimedia: añade teclas especiales que llaman a algunos programas en el computador, a modo de acceso directo, como pueden ser el programa de correo electrónico, la calculadora, el reproductor multimedia… Teclado inalámbrico: suelen ser teclados comunes donde la comunicación entre el computador y el periférico se realiza a través de rayos infrarrojos, ondas de radio o mediante bluetooth. Teclado flexible: Estos teclados son de plástico suave o silicona que se puede doblar sobre sí mismo. Durante su uso, estos teclados pueden adaptarse a superficies irregulares, y son más resistentes a los líquidos que los teclados estándar. Estos también pueden ser conectados a dispositivos portátiles y teléfonos inteligentes. Algunos modelos pueden ser completamente sumergidos en agua, por lo que hospitales y laboratorios los usan, ya que pueden ser desinfectados.7 Según la tecnología de sus teclas se pueden clasificar como teclados de cúpula de goma, teclados de membrana: teclados capacitativos y teclados de contacto metálico. CLASIFICACION SEGÚN ESTANDARES DE MONITORES
  • 19. Según los estándares de monitores se pueden clasificar en varias categorías. Todos han ido evolucionando con el objetivo de ofrecer mayores prestaciones, definiciones y mejorar la calidad de las imágenes. Monitores MDA: Los monitores MDA por sus siglas en inglés “Monochrome Display Adapter” surgieron en el año 1981. Junto con la tarjeta CGA de IBM. Los MDA conocidos popularmente por los monitores monocromáticos solo ofrecían textos, no incorporaban modos gráficos. Este tipo de monitores se caracterizaban por tener un único color principalmente verde. El mismo creaba irritación en los ojos de sus usuarios. Características: Sin modo gráfico. Resolución 720_350 píxeles. Soporte de texto monocromático. No soporta gráfico ni colores. La tarjeta gráfica cuenta con una memoria de vídeo de 4 KB. Soporta subrayado, negrita, cursiva, normal, invisibilidad para textos. Monitor CGA: Los monitores CGA por sus siglas en inglés “Color Graphics Adapter” o “Adaptador de Gráficos en Color” en español. Este tipo de monitores fueron comercializados a partir del año 1981, cuando se desarrollo la primera tarjeta gráfica conjuntamente con un estándar de IBM. A pesar del lanzamiento de este nuevo monitor los compradores de PC seguían optando por los monitores MDA, ambos fueron lanzados al mercado en el mismo año existiendo competencia entre ellos. CGA fue el primero en contener sistema gráfico a color. Características:
  • 20. • Resoluciones 160_200, 320×200, 640×200 píxeles. • Soporte de gráfico a color. • Diseñado principalmente para juegos de computadoras. • La tarjeta gráfica contenía 16 KB de memoria de vídeo. Monitor EGA: Por sus siglas en inglés “Enhanced Graphics Adapter”, es un estándar desarrollado IBM para la visualización de gráficos, creado en 1984. Este nuevo monitor incorporaba una mayor amplitud de colores y resolución. EGA incorporaba mejoras con respecto al anterior CGA. Años después también sería sustituido por un monitor de mayores características. Características: • Resolución de 640_350 píxeles. • Soporte para 16 colores. • La tarjeta gráfica EGA estándar traían 64 KB de memoria de vídeo. Monitor VGA: Los monitores VGA por sus siglas en inglés “Video Graphics Array”, fue lanzado en 1987 por IBM. A partir del lanzamiento de los monitores VGA, los monitores anteriores empezaban a quedar obsoletos. El VGA incorporaba modo 256 con altas resoluciones. Por el desarrollo alcanzado hasta la fecha, incluidas en las tarjetas gráficas, los monitores anteriores no son compatibles a los VGA, estos incorporan señales analógicas. Características: Soporte de 720×400 píxeles en modo texto. Soporte de 640×480 píxeles en modo gráfico con 16 colores.
  • 21. Soporte de 320×200 píxeles en modo gráfico con 256 colores. Las tarjetas gráficas VGA estándares incorporaban 256 KB de memoria de vídeo. Monitor SVGA: SVGA denominado por sus siglas en inglés “Super Video Graphics Array”, también conocidos por “Súper VGA”. Estos tipos de monitores y estándares fueron desarrollados para eliminar incompatibilidades y crear nuevas mejoras de su antecesor VGA. SVGA fue lanzado en 1989, diseñado para brindar mayores resoluciones que el VGA. Este estándar cuenta con varias versiones, los cuales soportan diferentes resoluciones. Características: Resolución de 800×600, 1024_768 píxeles y superiores. Para este nuevo monitor se desarrollaron diferentes modelos de tarjetas gráficas como: ATI, GeForce, NVIDIA, entre otros. Clasificación según tecnología de monitores En cuanto al tipo de tecnología los monitores se pueden clasificar en varios aspectos. Estas evoluciones de la tecnología han sido llevadas a cabo en parte por el ahorro de energía, tamaño y por brindar un nuevo producto en el mercado. Monitores CRT: Está basado en un Tubo de Rayos Catódicos, en inglés “Cathode Ray Tube”. Es el más conocido, fue desarrollado en 1987 por Karl Ferdinand Braun. Utilizado principalmente en televisores, ordenadores, entre otros. Para lograr la calidad que hoy cuentan, estos pasaron por diferentes modificaciones y que en la actualidad también se realizan. Funcionamiento:
  • 22. Dibuja una imagen barriendo una señal eléctrica horizontalmente a lo largo de la pantalla, una línea por vez. La amplitud de dicha señal en el tiempo representa el brillo instantáneo en ese punto de la pantalla. Una amplitud nula, indica que el punto de la pantalla que se marca en ese instante no tendrá representando un píxel negro. Una amplitud máxima determina que ese punto tendrá el máximo brillo. Ventajas: Excelente calidad de imagen (definición, contraste, luminosidad). Económico. Tecnología robusta. Resolución de alta calidad. Desventajas: Presenta parpadeo por el refrescado de imagen. Consumo de energía. Generación de calor. Generación de radiaciones eléctricas y magnéticas. Alto peso y tamaño. Pantallas LCD: A este tipo de tecnología se le conoce por el nombre de pantalla o display LCD, sus siglas en inglés significan “Liquid Crystal Display” o “Pantalla de Cristal Líquido” en español. Este dispositivo fue inventado por Jack Janning. Estas pantallas son incluidas en los ordenadores portátiles, cámaras fotográficas, entre otros. Funcionamiento: El funcionamiento de estas pantallas se fundamenta en sustancias que comparten las propiedades de sólidos y líquidos a la vez. Cuando un rayo de luz atraviesa una partícula de estas sustancias tiene necesariamente que seguir el espacio vacío que hay entre sus moléculas como lo haría atravesar un cristal sólido pero a cada una de estas partículas se le puede aplicar una corriente eléctrica que cambie su polarización dejando pasar la luz o no. Una pantalla LCD esta formada por 2 filtros polarizados colocados perpendicularmente de manera que al aplicar una corriente eléctrica deja pasar o no la luz. Para conseguir el color es necesario aplicar tres filtros más para cada uno de los colores básicos rojo, verde y azul. Para la reproducción de varias tonalidades de color se deben aplicar
  • 23. diferentes niveles de brillo intermedios entre luz y no luz lo cual se consigue con variaciones en el voltaje que se aplica a los filtros. Ventajas: Poco peso y tamaño. Buena calidad de colores. No contiene parpadeo. Poco consume de energía. Poca generación de calor. No genera radiaciones eléctricas y magnéticas. Desventajas: • Alto costo. • Angulo limitado de visibilidad. • Brillo limitado. • Bajo tiempo de respuesta de píxeles. • Contiene mercurio. Pantallas Plasma: La pantalla de plasma fue desarrollada en la Universidad de Illinois por Donald L. Bitzer y H. Gene Slottow. Originalmente los paneles eran monocromáticos. En 1995 Larry Weber logró crear la pantalla de plasma de color. Este tipo de pantalla entre sus principales ventajas se encuentran una la mayor resolución y ángulo de visibilidad. Funcionamiento: El principio de funcionamiento de una pantalla de plasma consiste en iluminar pequeñas luces fluorescentes de colores para conformar una imagen. Las pantallas de plasma funcionan como las lámparas fluorescentes, en que cada píxel es semejante a un pequeño foco coloreado. Cada uno de los píxeles que integran la pantalla está formado por una pequeña celda estanca que contiene un gas inerte (generalmente neón o xenón). Al aplicar una diferencia de potencial entre los electrodos de la celda, dicho gas pasa al estado de plasma. El gas así cargado emite radiación ultravioleta (UV) que golpea y excita el material fosforescente que recubre el interior de la celda.
  • 24. Cuando el material fosforescente regresa a su estado energético natural, emite luz visible. Ventajas: • Excelente brillo. • Alta resolución. • Amplio ángulo de visión. • No contiene mercurio. • Tamaño de pantalla elevado. Desventajas: • Vida útil corta. • Coste de fabricación elevado, superior a los LCD. • Consumo de electricidad elevado. • Poca pureza del color. • Consumo energético y emisión de calor elevada. ¿Qué es la resolución de pantalla? Se denomina al número de píxeles (o máxima resolución de imagen) que puede ser mostrada en la pantalla. Viene dada por el producto de las columnas (”X”), el cual se coloca al principio y el número de filas (”Y”) con el que se obtiene una razón. Por ejemplo podemos encontrar: Los monitores han evolucionado conjuntamente con las tarjetas de vídeos. La necesidad de mostrar resoluciones mayores, con alta calidad de colores, ha llevado día a día a su desarrollo. Ratón
  • 25. Ratón con cable y rueda. Ratón para videojugadores. El ratón o mouse (del inglés, pronunciado [maʊs]) es un dispositivo apuntador usado para facilitar el manejo de un entorno gráfico en un computador. Generalmente está fabricado en plástico y se utiliza con una de las manos. Detecta su movimiento relativo en dos dimensiones por la superficie plana en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor. Hoy en día es un elemento imprescindible en un equipo informático para la mayoría de las personas, y pese a la aparición de otras tecnologías con una función similar, como la pantalla táctil, la práctica ha demostrado que tendrá todavía muchos años de vida útil. No obstante, en el futuro podría ser posible mover el cursor o el puntero con los ojos o basarse en el reconocimiento de voz. El nombre La forma del dispositivo originó su nombre. Aunque cuando se patentó recibió el nombre de «X-Y Position Indicator for a Display System» (Indicador de posición X-Y para un sistema con pantalla), el más usado nombre de ratón (mouse en inglés) se lo dio el equipo de la Universidad de Stanford durante su desarrollo, ya que su forma y su cola (cable) recuerdan a un ratón. En América predomina el término inglés mouse mientras que en España se utiliza prácticamente de manera exclusiva el calco semántico «ratón». El Diccionario panhispánico de dudas recoge ambos términos, aunque considera que, como existe el calco semántico, el anglicismo es innecesario.1 El DRAE únicamente acepta la entrada ratón para este dispositivo informático, pero indica que es un españolismo.2 Hoy en día Habitualmente se compone de al menos dos botones y otros dispositivos opcionales como una «rueda», más otros botones secundarios o de distintas tecnologías como sensores del movimiento que pueden mejorar o hacer más cómodo su uso. Se suele presentar para manejarse con ambas manos por igual, pero algunos fabricantes también ofrecen modelos únicamente para usuarios diestros o zurdos. Los sistemas operativos pueden también facilitar su manejo a todo tipo de personas, generalmente invirtiendo la función de los botones.
  • 26. En los primeros años de la informática, el teclado era casi siempre la forma más popular como dispositivo para la entrada de datos o control de la computadora. La aparición y éxito del ratón, además de la posterior evolución de los sistemas operativos, logró facilitar y mejorar la comodidad, aunque no relegó el papel primordial del teclado. Aún hoy en día, pueden compartir algunas funciones dejando al usuario que escoja la opción más conveniente a sus gustos o tareas. Historia Fue diseñado por Douglas Engelbart y Bill English durante los años 60 en el Stanford Research Institute, un laboratorio de la Universidad de Stanford, en pleno Silicon Valley en California. Más tarde fue mejorado en los laboratorios de Palo Alto de la compañía Xerox (conocidos como Xerox PARC). Su invención no fue un hecho banal ni fortuito, sino que surgió dentro de un proyecto importante que buscaba aumentar el intelecto humano mejorando la comunicación entre el hombre y la máquina. Con su aparición, logró también dar el paso definitivo a la aparición de los primeros entornos o interfaces gráficas de usuario. La primera maqueta Copia del primer prototipo. La primera maqueta se construyó de manera artesanal de madera, y se patentó con el nombre de "X-Y Position Indicator for a Display System". A pesar de su aspecto arcaico, su funcionamiento básico sigue siendo igual hoy en día. Tenía un aspecto de adoquín, encajaba bien en la mano y disponía de dos ruedas metálicas que, al desplazarse por la superficie, movían dos ejes: uno para controlar el movimiento vertical del cursor en pantalla y el otro para el sentido horizontal, contando además con un botón rojo en su parte superior. Por primera vez se lograba un intermediario directo entre una persona y la computadora, era algo que, a diferencia del teclado, cualquiera podía aprender a manejar sin apenas conocimientos previos. En esa época además la informática todavía estaba en una etapa primitiva: ejecutar un simple cálculo necesitaba de instrucciones escritas en un lenguaje de programación. Presentación ¿Cómo se captura el movimiento de un ratón mecánico estándar? 1: Al arrastrarlo sobre la superficie gira la bola, 2: ésta a su vez mueve los rodillos ortogonales, 3: éstos están unidos a unos discos de codificación óptica, opacos pero perforados, 4: dependiendo de su posición pueden dejar pasar o interrumpir señales infrarrojas de un diodo LED. 5: Estos pulsos ópticos son captados por sensores que obtienen así unas señales digitales de la velocidad vertical y horizontal actual para trasmitirse finalmente al ordenador.
  • 27. En San Francisco, a finales de 1968 se presentó públicamente el primer modelo oficial. Durante hora y media además se mostró una presentación multimedia de un sistema informático interconectado en red y también por primera vez se daba a conocer un entorno gráfico con el sistema de ventanas que luego adoptarían la práctica totalidad de sistemas operativos modernos. En ese momento además, se exhibió hipermedia, un mecanismo para navegar por Internet y usar videoconferencia. Engelbart realmente se adelantó varias décadas a un futuro posible, ya desde 1951 había empezado a desarrollar las posibilidades de conectar computadoras en redes, cuando apenas existían varias docenas y bastante primitivas, entre otras ideas como el propio correo electrónico, del que sería su primer usuario. Pensó que la informática podía usarse para mucho más que cálculos matemáticos, y el ratón formaba parte de este ambicioso proyecto, que pretendía aumentar la inteligencia colectiva fundando el Augmentation Research Center (Centro para la investigación del incremento) en la Universidad de Stanford. Y pese a las esperanzas iniciales de Engelbart de que fuera la punta del iceberg para un desarrollo de distintos componentes informáticos similares, una década después era algo único, revolucionario, que todavía no había cobrado popularidad. De hecho varios de los conceptos e ideas surgidos aún hoy en día han conseguido éxito. Engelbart tampoco logró una gran fortuna, la patente adjudicaba todos los derechos a la Universidad de Stanford y él recibió un cheque de unos 10000 dólares. El éxito de Apple El 27 de abril de 1981 se lanzaba al mercado la primera computadora con ratón incluido: Xerox Star 8010, fundamental para la nueva y potente interfaz gráfica que dependía de este periférico, que fue a su vez, otra revolución. Posteriormente, surgieron otras computadoras que también incluyeron el periférico, algunas de ellas fueron la Commodore Amiga, el Atari ST, y la conocida Apple Lisa. Dos años después, Microsoft, que había tenido acceso al ratón de Xerox en sus etapas de prototipo, dio a conocer su propio diseño disponible además con las primeras versiones del procesador de texto Word. Tenía dos botones en color verde y podía adquirirse por 195 dólares, pero su precio elevado para entonces y el no disponer de un sistema operativo que realmente lo aprovechara, hizo que pasara completamente desapercibido. No fue hasta la aparición del Macintosh en 1984 cuando este periférico se popularizó. Su diseño y creación corrió a cargo de nuevo de la Universidad de Stanford, cuando Apple en 1980 pidió a un grupo de jóvenes un periférico seguro, barato y que se pudiera producir en serie. Partían de un ratón basado en tecnología de Xerox de un coste alrededor de los 400 dólares, con un funcionamiento regular y casi imposible de limpiar. El presidente, Steve Jobs, quería un precio entre los 10 y los 35 dólares. Si bien existen muchas variaciones posteriores, algunas innovaciones recientes y con éxito han sido el uso de una rueda central o lateral, el sensor de movimiento óptico por diodo LED, ambas introducidas por Microsoft en 1996 y 1999 respectivamente, o el sensor basado en un láser no visible del fabricante Logitech. En la actualidad, la marca europea Logitech es una de las mayores empresas dedicadas a la fabricación y desarrollo de estos periféricos, más de la mitad de su producción la comercializa a través de terceras empresas como IBM, Hewlett-Packard, Compaq o Apple. Funcionamiento Imagen habitual de un puntero movido por la pantalla usando un ratón. Su funcionamiento principal depende de la tecnología que utilice para capturar el movimiento al ser desplazado sobre una superficie plana o alfombrilla especial para ratón, y transmitir
  • 28. esta información para mover una flecha o puntero sobre el monitor de la computadora. Dependiendo de las tecnologías empleadas en el sensor del movimiento o por su mecanismo y del método de comunicación entre éste y la computadora, existen multitud de tipos o familias. El objetivo principal o más habitual es seleccionar distintas opciones que pueden aparecer en la pantalla, con uno o dos clic, pulsaciones, en algún botón o botones. Para su manejo el usuario debe acostumbrarse tanto a desplazar el puntero como a pulsar con uno o dos clic para la mayoría de las tareas. Con el avance de los nuevos ordenadores, el ratón se ha convertido en un dispositivo esencial a la hora de jugar, destacando no solo para seleccionar y accionar objetos en pantalla en juegos estratégicos, sino para cambiar la dirección de la cámara o la dirección de un personaje en juegos de primera o tercera persona. Comunmente en la mayoría de estos juegos, los botones del ratón se utilizan para accionar las armas u objetos seleccionados y la rueda del ratón sirve para recorrer los objetos o armas de nuestro inventario. Tipos o modelos Por mecanismo Mecánicos Tienen una gran bola de plástico, de varias capas, en su parte inferior para mover dos ruedas que generan pulsos en respuesta al movimiento de éste sobre la superficie. Una variante es el modelo de Honeywell que utiliza dos ruedas inclinadas 90 grados entre ellas en vez de una bola. La circuitería interna cuenta los pulsos generados por la rueda y envía la información a la computadora, que mediante software procesa e interpreta. Parte inferior de un ratón con cable y sensor óptico. Ópticos Es una variante que carece de la bola de goma que evita el frecuente problema de la acumulación de suciedad en el eje de transmisión, y por sus características ópticas es menos propenso a sufrir un inconveniente similar. Se considera uno de los más modernos y prácticos actualmente. Puede ofrecer un límite de 800 ppp, como cantidad de puntos distintos que puede reconocer en 2,54 centímetros (una pulgada); a menor cifra peor actuará el sensor de movimientos. Su funcionamiento se basa en un sensor óptico que fotografía la superficie sobre la que se encuentra y detectando las variaciones entre sucesivas fotografías, se determina si el ratón ha cambiado su posición. En superficies pulidas o sobre determinados materiales brillantes, el ratón óptico causa movimiento nervioso sobre la pantalla, por eso se hace necesario el uso de una alfombrilla o superficie que, para este tipo, no debe ser brillante y mejor si carece de grabados multicolores que puedan "confundir" la información luminosa devuelta. Láser Este tipo es más sensible y preciso, haciéndolo aconsejable especialmente para los diseñadores gráficos y los jugadores de videojuegos. También detecta el movimiento deslizándose sobre una superficie horizontal, pero el haz de luz de tecnología óptica se sustituye por un láser con resoluciones a partir de 2000 ppp, lo que se traduce en un aumento significativo de la precisión y sensibilidad.
  • 29. Un modelo trackball de Logitech. Trackball El concepto de trackball es una idea que parte del hecho: se debe mover el puntero, no el dispositivo, por lo que se adapta para presentar una bola, de tal forma que cuando se coloque la mano encima se pueda mover mediante el dedo pulgar, sin necesidad de desplazar nada más ni toda la mano como antes. De esta manera se reduce el esfuerzo y la necesidad de espacio, además de evitarse un posible dolor de antebrazo por el movimiento de éste. A algunas personas, sin embargo, no les termina de resultar realmente cómodo. Este tipo ha sido muy útil por ejemplo en la informatización de la navegación marítima. Por conexión Por cable Es el formato más popular y más económico, sin embargo existen multitud de características añadidas que pueden elevar su precio, por ejemplo si hacen uso de tecnología láser como sensor de movimiento. Actualmente se distribuyen con dos tipos de conectores posibles, tipo USB y PS/2; antiguamente también era popular usar el puerto serie. Es el preferido por los videojugadores experimentados, ya que la velocidad de transmisión de datos por cable entre el ratón y el ordenador es óptima en juegos que requieren de una gran precisión. Un modelo inalámbrico con rueda y cuatro botones, y la base receptora de la señal. Inalámbrico En este caso el dispositivo carece de un cable que lo comunique con el ordenador o computadora, en su lugar utiliza algún tipo de tecnología inalámbrica. Para ello requiere un receptor que reciba la señal inalámbrica que produce, mediante baterías, el ratón. El receptor normalmente se conecta al ordenador a través de un puerto USB o PS/2. Según la tecnología inalámbrica usada pueden distinguirse varias posibilidades: • Radio Frecuencia (RF): Es el tipo más común y económico de este tipo de tecnologías. Funciona enviando una señal a una frecuencia de 2.4Ghz, popular en la telefonía móvil o celular, la misma que los estándares IEEE 802.11b y IEEE 802.11g. Es popular, entre otras cosas, por sus pocos errores de desconexión o interferencias con otros equipos inalámbricos, además de disponer de un alcance suficiente: hasta unos 10 metros. • Infrarrojo (IR): Esta tecnología utiliza una señal de onda infrarroja como medio de trasmisión de datos, popular también entre los controles o mandos remotos de televisiones, equipos de música o en telefonía celular. A diferencia de la anterior, tiene un alcance medio inferior a los 3 metros, y tanto el emisor como el receptor deben estar en una misma línea visual de contacto directo ininterrumpido para que la señal se reciba correctamente. Por ello su éxito ha sido menor, llegando incluso a desaparecer del mercado.
  • 30. • Bluetooth (BT): Bluetooth es la tecnología más reciente como transmisión inalámbrica (estándar IEEE 802.15.1), que cuenta con cierto éxito en otros dispositivos. Su alcance es de unos 10 metros o 30 pies (que corresponde a la Clase 2 del estándar Bluetooth). El controlador Es, desde hace un tiempo, común en cualquier equipo informático, de tal manera que todos los sistemas operativos modernos suelen incluir de serie un software controlador (driver) básico para que éste pueda funcionar de manera inmediata y correcta. No obstante, es normal encontrar software propio del fabricante que puede añadir una serie de funciones opcionales, o propiamente los controladores si son necesarios. Modelo Mighty Mouse de Apple. Uno, dos o tres botones Hasta mediados de 2005, la conocida empresa Apple, para sus sistemas Mac apostaba por un ratón de un sólo botón, pensado para facilitar y simplificar al usuario las distintas tareas posibles. Actualmente ha lanzado un modelo con dos botones simulados virtuales con sensores debajo de la cubierta plástica, dos botones laterales programables, y una bola para mover el puntero, llamado Mighty Mouse. Modelo inalámbrico con cuatro botones. En Windows, lo más habitual es el uso de dos o tres botones principales. En sistemas UNIX como GNU/Linux que utilicen entorno gráfico (X Window), era habitual disponer de tres botones (para facilitar la operación de copiar y pegar datos directamente). En la actualidad la funcionalidad del tercer botón queda en muchos casos integrada en la rueda central de tal manera que además de poder girarse, puede pulsarse. Hoy en día cualquier sistema operativo moderno puede hacer uso de hasta estos tres botones distintos e incluso reconocer más botones extra a los que el software reconoce, y puede añadir distintas funciones concretas, como por ejemplo asignar a un cuarto y quinto botón la operación de copiar y pegar texto. La sofisticación ha llegado a extremos en algunos casos, por ejemplo el MX610 de Logitech, lanzado en septiembre de 2005. Preparado anatómicamente para diestros, dispone de hasta 10 botones. Problemas frecuentes • Puntero que se atasca en la pantalla: Es el fallo más frecuente, se origina a causa de la acumulación de suciedad, frenando o dificultando el movimiento del puntero en la pantalla. Puede retirarse fácilmente la bola de goma por la parte inferior y así acceder a los ejes de plástico para su limpieza, usando un pequeño pincel de cerdas duras. Para retardar la aparición de suciedad en el interior del ratón es recomendable usar una alfombrilla. Este problema es inexistente con tecnología óptica, ya que no requiere partes mecánicas para detectar el desplazamiento. Es uno de los principales motivos de su éxito.
  • 31. • Pérdida de sensibilidad o contacto de los botones: se manifiesta cuando se pulsa una vez un botón y la computadora lo recibe como ninguno, dos o más clics consecutivos, de manera errónea. Esto se debe al desgaste de las piezas de plástico que forman parte de los botones del ratón, que ya no golpean o pulsan correctamente sobre el pulsador electrónico. Para solucionarlo normalmente debe desmontarse completamente y colocar varias capas de papel adhesivo sobre la posible zona desgastada hasta recuperar su forma original. En caso de uso frecuente, el desgaste es normal, y suele darse a una cifra inferior al milímetro por cada 5 años de vida útil. • Dolores musculares causados por el uso del ratón: Si el uso de la computadora es frecuente, es importante usar un modelo lo más ergonómico posible, ya que puede acarrear problemas físicos en la muñeca o brazo del usuario. Esto es por la posición totalmente plana que adopta la mano, que puede resultar forzada, o puede también producirse un fuerte desgaste del huesecillo que sobresale de la muñeca, hasta el punto de considerarse una enfermedad profesional. Existen alfombrillas especialmente diseñadas para mejorar la comodidad al usar el ratón. ¿Qué PROYECCION Y QUE ESPECTATIVAS OFRECE EL FUTURO? INTRODUCCIÓN En las últimas décadas del siglo XX asistimos a un conjunto de transformaciones económicas- sociales y culturales cuya vertiginosidad y complejidad no admite precedente y nuestro país no se encuentra ajeno a ello. Caen rápidamente todo tipo de muros y barreras entre las naciones al mismo tiempo que se amplía la brecha en el nivel de desarrollo humano al que acceden los distintos pueblos. El mundo de hoy, esta inmerso en una nueva revolución tecnológica basada en la informática, que encuentra su principal impulso en el acceso y en la capacidad de procesamiento de información sobre todos los temas y sectores de la actividad humana. Ha contribuido a que culturas y sociedadesse transformen aceleradamente tanto económica, como social y políticamente, con el objetivo fundamental de alcanzar con plenitud sus potencialidades. El conjunto de tecnologías que se concentran alrededor de las computadoras personales, de las tecnologías de la información y de la comunicación, es sin duda la innovación que más ha influido en el desarrollo de la vida social de fines del siglo XX y comienzo del XXI. Esta última centuria ha sido extraordinariamente rica en avances técnicos y científicos, ha visto el crecimiento pleno de otras tecnologías decisivas, como la electricidad y la electrónica, los medios audiovisuales – en particular la televisión– y ha culminado con la implantación de estas nuevas tecnologías (que ya no son tan nuevas), que han revolucionado el uso y la manipulación de la información y se han constituido, a la vez, en vehículos de comunicación. El desarrollo de las tecnologías está teniendo una gran influencia en el ámbito educativo, ya que constituyen una nueva herramienta de trabajo que da acceso a una gran cantidad de información y que acerca y agiliza la labor de personas e instituciones distantes entre si. Cuando se habla del uso de las computadoras en la educación se argumenta y es inevitable discutir sobre sus ventajas, inconvenientes y usos apropiados estas son discusiones técnicas y pedagógicas, pero detrás de ellas hay algo más que argumentaciones racionales, detrás de ellas hay también emociones. Es por ello que intentaremos a través del presente trabajo plasmar un análisis integral de un tema en particular: LA COMPUTADORA COMO MEDIO EDUCATIVO Y SUSU PELIGROS EN LA FORMACIÓN DEL EDUCANDO, para lo cual tendremos que apoyarnos en investigaciones y conjeturas propias, tratando de mantener una visión de la realidad como un todo. Para ello hemos estructurado nuestra investigación en tres capítulos: Primer Capítulo : "La Computadora y la Sociedad" , en el cual se describe a la computadora como factor para el aprendizaje y desarrollo de los pueblos y su influencia en el ámbito
  • 32. laboral, así como sus efectos en la sociedad en general, desde sus origenes hasta nuestros días. Segundo Capítulo: "La Computadora como Medio Educativo", a través del cual intentamos establecer la relación de la computadora con la educación de la persona y la labor del docente, para lograr la interacción en el aula y el desarrollo de la escuela. Así mismo se podrá observar loas distintas formas o modelos de uso de la computadora en el la enseñanza aprendizaje, entre otros. Tercer Capítulo : " Peligros de la Computadora para la Formación del Educando", en este plano se intenta clarificar de cómo el ordenador como medio para la enseñanza aprendizaje, es ventajoso; pero al mismo tiempo de cómo puede convertirse en una amenaza que atente contra la salud del educando y de su capacidad cognitiva; por otro lado de cómo se puede convertir en un peligro para el docente desde el punto de vista laboral, al sentirse desplazado por su vertiginoso empleo y gran capacidad de almacenamiento de datos. Cuando se habla del uso de las computadoras en la educación se argumenta y es inevitable discutir sobre sus ventajas, inconvenientes y usos apropiados estas son discusiones técnicas y pedagógicas, pero detrás de ellas hay algo más que argumentaciones racionales, detrás de ellas hay también emociones. A mediados de la década del 1970 las computadoras eran usadas por pocas personas, pero ya en la actualidad han tenido un mayor impacto en la sociedad que cualquier otro invento. Esta acogida se debe a sus características, las mismas que son aprovechadas en los diferentes ámbitos laborales, en particular el educativo, por ello vemos que las escuelas o instituciones educativas de hoy en día cada vez más apuestan por implementar un centro de cómputo dentro de su infraestructura y así mantenerse acorde con los adelantos de la informática y alcanzar el anhelado sueño de mejorar la enseñanza aprendizaje a través de un mejor medio para concretar tal fin: La computadora Esperamos que el presente trabajo de investigación colme las expectativas del docente así mismo de que contribuya en el quehacer educativo de los estudiantes y la tarea por alcanzar nuevos conocimientos, solo así diremos ¡Tarea cumplida¡ LOS ESTUDIANTES OBJETIVOS • Identificar los efectos educativos, culturales y laborales de la computadora dentro de la sociedad. • Analizar el uso de la computadora como medio didáctico en el ambiente escolarizado y el uso de nueva metodología para el proceso enseñanza-aprendizaje. • Reconocer los peligros del uso de la computadora para la formación del educando y para su salud. • Determinar las ventajas y desventajas de la computadora como medio didáctico en el proceso docente educativo.
  • 33. FUTURO Y PROSPECTIVA Internet potenciará inteligencia, pero degradará la privacidad Internet siempre a la mano evita tener que recordar mucha información ‘Inteligente’ será quien sepa buscar y relacionar gran cantidad de datos El uso intensivo de Internet en la búsqueda de información para la vida cotidiana cambiará por completo lo que entendemos por inteligencia durante la próxima década, potenciando nuestro cerebro, pero también degradará nuestra privacidad. Así lo señala el informe El futuro de Internet, publicado recientemente por el Pew Research Center de Estados Unidos. La exposición permanente a gran cantidad de información y la interacción con buscadores que cada vez entienden mejor lo que necesitamos, hará superfluo manejar gran cantidad de datos en la memoria humana y más bien obligará a las personas a desarrollar sus capacidades para relacionar, rápidamente, distintas fuentes de conocimiento, se explica en el estudio. Las conclusiones de El futuro de Internet están basadas en una encuesta y entrevistas realizadas a 371 expertos y 524 usuarios intensivos de Internet sobre cómo imaginan Internet en el 2020. El 50% de los consultados ha estado utilizando Internet al menos desde el año 1992. Nueva inteligencia. El 81% de los expertos y el 76% de los usuarios encuestados se declararon a favor de la idea de que Internet provocará una mejora significativa de la inteligencia humana para 2020.
  • 34. La mayoría acepta que el ser humano ya no tendrá que recordar mucho ni guardar en su cerebro detalles, pero sí pensar más y de una forma mucho más crítica. “La tecnología no es el problema, sino los rasgos de carácter inherente a las personas. Internet y los buscadores solo permiten a las personas ser más de lo que ya son. Si están motivados y son astutos, utilizarán las nuevas herramientas para explorar en nuevas e interesantes maneras de aprender. Si son perezosos o incapaces de concentrarse, encontrarán nuevas maneras de ser distraídos y perder el tiempo”, dice el informe. En el 2020 buena parte de la vida humana se desarrollará dentro en un ambiente de completa conexión a Internet. Distintos dispositivos –desde el reloj de pulsera hasta el servidor que manejará los electrodomésticos– estarán permanentemente recibiendo y enviando información y tomando las decisiones más lógicas automáticamente. El ser humano, por lo tanto, tendrá menos asuntos “sin trascendencia” a los cuales atender. “Tenemos que pensar que en diez años nuestra definición de inteligencia será muy diferente. Será ‘inteligente’ aquello que funciona en red y permite unir y dar un nuevo sentido a aquello que no son más que bits de información separados”, explicó Christine Greenhow, de la Universidad de Minesota y quien participó en el estudio. La evolución que plantea Internet, recuerda el estudio, en el fondo no es diferente a otras revoluciones ya vividas por la humanidad. Platón, por ejemplo, llegó a criticar en sus inicios la escritura porque consideraba que el pensamiento solo podía existir dentro de él mismo; es decir, en la mente de los humanos y no en lo escrito. También hubo críticas de algunos sectores conservadores tras la invención de la imprenta de caracteres móviles en Occidente. Esos sucesos cambiaron la forma de pensar de los humanos y ayudaron a crear la sociedad actual. Ahora, Internet cambiará la forma de pensar de los humanos actuales y ayudará a formar la sociedad del futuro, se afirma. Poca privacidad. La popularización de Internet plantea para los expertos un escenario donde la idea de privacidad también cambiará. En este apartado será clave el concepto de autenticación; es decir, el estar seguro de que una persona que ingresa a un sitio web y pide un servicio es quien dice ser. “La presión para autenticación de los usuarios de Internet está creciendo y muchas solicitudes son legítimas. Nuevos métodos para lograrla están siendo explorados pero aún no está claro cuáles prevalecerán en el mercado”, dice el informe del Pew Research Center. “Conforme crezca el e-comercio, el e-gobierno, la e-democracia y la e-educación, sistemas de identificación robustos serán más y más comunes en la vida cotidiana”, comentó Ismael Peña López, de la Universidad Abierta de Cataluña y quien participó en el estudio. No obstante, el informe asume que nuevas regulaciones legales les darán a las personas cierto nivel de privacidad, por debajo del actual, pero lo suficiente como para que utilizar un pseudónimo y no el nombre real no sea mal visto en el mundo de Internet.
  • 35. La confidencialidad de datos muy calificados no solo se mantendrá, sino que también se crearán sistemas para asegurarla. Mención aparte recibieron las redes sociales, responsables desde ahora –pero más en el futuro– de que las personas olviden el sentido de decir algo o comportarse en Internet anónimamente. Las redes sociales dejan constancia pública de pensamientos, opiniones y actuar. Pronto se potenciará el concepto de “responsabilidad informativa”, tratando de captar a más usuarios de edad adulta, quienes crecieron en un mundo donde no informaban a todo el planeta (literalmente) cuál película irían a ver al cine, cómo les fue de vacaciones o si su matrimonio está en crisis. Para Stewart Baker, abogado especialista de la firma Stepteo & Johnson, en el 2020 el anonimato en Internet será como el anonimato en la vida real de nuestro días: cuando nos encontramos a alguien que no conocemos en una calle solitaria apuramos el paso, cambiamos de acera y salimos de ahí lo antes posible. Pablo Fonseca Después de 15 años, profecías de Gates muestran aciertos y errores Muchas personas intentaron adivinar como sería la vida después del surgimiento de internet. Una de ellas fue Bill Gates, quien lanzó hace 15 años el libro The Road Ahead (El camino por recorrer). Repleto de previsiones del fundador de Microsoft para el futuro, el libro erra en adivinar el impacto de la web, cuyo papel - estimaba - sería menor del que es. Gates se equivocó al imaginar que el e-mail disminuiría las reuniones de trabajo, el impacto de las redes inalámbricas y el comercio electrónico, por ejemplo. Pero, sin contar factores sociales, enfocado sólo en el avance de la tecnología, el ex-jefe de la Microsoft hizo afirmaciones que actualmente parecen obvias, pero 15 años atrás sonaban proféticas. El sitio web estadounidense The Atlantic comparó algunas de ellas y lo que aconteció. E-mail Previsión: Gates escribió: "El email y las pantallas compartidas eliminarán la necesidad de muchos encuentros. Cuando exista alguna reunión presencial, esta será más eficiente porque los participantes ya intercambiaron informaciones básicas por e-mail. Veredicto: Se equivocó. La visión de Gates sobre el e-mail ahora parece ingenuamente utópica por no contar con algunas cuestiones inesperadas. Antes de cualquier cosa, el email