El documento resume la historia de los procesadores Pentium de Intel desde su lanzamiento en 1993 hasta la actualidad. El primer Pentium funcionaba a 60 MHz y marcó el comienzo de la quinta generación de procesadores de Intel. Versiones posteriores como el Pentium Pro introdujeron mejoras de rendimiento pero tuvieron problemas de compatibilidad. El Pentium II popularizó el slot 1 y elevó las frecuencias a 450 MHz. Versiones recientes como el Pentium G6950 mantienen vivo el nombre aunque ahora se posicionan como procesadores de gama baja.
Este documento resume la historia de los procesadores desde 1971 hasta 2003. Comienza describiendo los primeros
procesadores de Intel como el 4004 y el 8008 de 4 y 8 bits respectivamente. Luego describe las 7 generaciones de procesadores
de Intel, desde el 8080 de 8 bits hasta el Pentium III de 32 bits, destacando mejoras como mayor ancho de bus, velocidad y
número de instrucciones por ciclo. También cubre los procesadores de AMD como el K6 y Athlon que compitieron con Intel.
La 8a generación introdujo pro
Buenas Tardes. Esta es Nuestra Presentación de el tema Evolución de los Microprocesadores. Esperamos Sea de Su Agrado Y Completo Beneficio!. Gladys Avendaño y Diana Nieves. 11/02/2011
El documento resume la historia de los microprocesadores desde el primero fabricado por Intel en 1971 hasta la séptima generación. Destaca los saltos tecnológicos clave como el aumento del ancho de bus, la integración de la unidad de punto flotante y la memoria cache, y la adopción de arquitecturas de mayor rendimiento como la superscalar y la de múltiples pipelines. También describe las principales familias de procesadores fabricadas por Intel, AMD y otros como Motorola.
El documento describe la historia de varios procesadores Intel, incluyendo el i486, Pentium, Pentium II, Pentium III y Pentium 4. Detalla las mejoras en las frecuencias de reloj y conjuntos de instrucciones de cada generación de procesadores a medida que la tecnología avanzaba.
El documento resume la evolución de los procesadores Intel desde el Pentium hasta el Pentium 4, describiendo las principales versiones de cada uno y sus características técnicas clave como el número de transistores, velocidad de reloj, tamaño de proceso de fabricación y memoria caché.
El documento describe las diferentes generaciones de procesadores desde la primera hasta la octava generación, mencionando los modelos más importantes de Intel, AMD y otros fabricantes para cada generación y resaltando las principales mejoras tecnológicas incorporadas en cada una.
El documento describe la evolución de los microprocesadores de Intel y AMD desde sus inicios hasta diseños actuales como Bulldozer y Bobcat. Detalla los primeros procesadores de AMD como clones de Intel y sus diseños propios como el K5, K6 y Athlon. También cubre la historia de Intel desde el 8086 hasta el Pentium y sus futuros procesadores.
Este documento resume la evolución de varios procesadores de Intel a través de los años, incluyendo el Intel 486, Pentium II, Pentium III, Pentium IV, Core 2 Duo y Core 2 Quad. Describe las mejoras tecnológicas clave de cada procesador y cómo fueron reemplazando a sus predecesores a medida que la tecnología avanzaba.
Este documento resume la historia de los procesadores desde 1971 hasta 2003. Comienza describiendo los primeros
procesadores de Intel como el 4004 y el 8008 de 4 y 8 bits respectivamente. Luego describe las 7 generaciones de procesadores
de Intel, desde el 8080 de 8 bits hasta el Pentium III de 32 bits, destacando mejoras como mayor ancho de bus, velocidad y
número de instrucciones por ciclo. También cubre los procesadores de AMD como el K6 y Athlon que compitieron con Intel.
La 8a generación introdujo pro
Buenas Tardes. Esta es Nuestra Presentación de el tema Evolución de los Microprocesadores. Esperamos Sea de Su Agrado Y Completo Beneficio!. Gladys Avendaño y Diana Nieves. 11/02/2011
El documento resume la historia de los microprocesadores desde el primero fabricado por Intel en 1971 hasta la séptima generación. Destaca los saltos tecnológicos clave como el aumento del ancho de bus, la integración de la unidad de punto flotante y la memoria cache, y la adopción de arquitecturas de mayor rendimiento como la superscalar y la de múltiples pipelines. También describe las principales familias de procesadores fabricadas por Intel, AMD y otros como Motorola.
El documento describe la historia de varios procesadores Intel, incluyendo el i486, Pentium, Pentium II, Pentium III y Pentium 4. Detalla las mejoras en las frecuencias de reloj y conjuntos de instrucciones de cada generación de procesadores a medida que la tecnología avanzaba.
El documento resume la evolución de los procesadores Intel desde el Pentium hasta el Pentium 4, describiendo las principales versiones de cada uno y sus características técnicas clave como el número de transistores, velocidad de reloj, tamaño de proceso de fabricación y memoria caché.
El documento describe las diferentes generaciones de procesadores desde la primera hasta la octava generación, mencionando los modelos más importantes de Intel, AMD y otros fabricantes para cada generación y resaltando las principales mejoras tecnológicas incorporadas en cada una.
El documento describe la evolución de los microprocesadores de Intel y AMD desde sus inicios hasta diseños actuales como Bulldozer y Bobcat. Detalla los primeros procesadores de AMD como clones de Intel y sus diseños propios como el K5, K6 y Athlon. También cubre la historia de Intel desde el 8086 hasta el Pentium y sus futuros procesadores.
Este documento resume la evolución de varios procesadores de Intel a través de los años, incluyendo el Intel 486, Pentium II, Pentium III, Pentium IV, Core 2 Duo y Core 2 Quad. Describe las mejoras tecnológicas clave de cada procesador y cómo fueron reemplazando a sus predecesores a medida que la tecnología avanzaba.
Los documentos describen la evolución de los microprocesadores Intel Pentium desde su introducción en 1993 hasta el Pentium M en 2003. Cada generación introdujo mejoras de rendimiento y nuevas características como instrucciones MMX y SSE. Los modelos posteriores incluyeron múltiples núcleos como el Pentium D y mejoras para portátiles como el Pentium M.
Este documento resume la historia de los procesadores desde el primero en 1971 hasta los procesadores actuales. Comenzó con procesadores del tamaño de un armario y se redujeron a circuitos integrados en chips. Los primeros procesadores tenían pocos transistores y baja velocidad en comparación con los procesadores modernos como el Core i7. Los procesadores han evolucionado de 4 bits a 32 y 64 bits, y de unos pocos KHz a GHz, a la vez que se han ido agregando nuevas características e instrucciones.
El documento describe las diferentes generaciones de procesadores desde la primera hasta la octava generación. Detalla los procesadores clave de cada generación como el 8086, 80286, 80386, 80486, Pentium, Pentium Pro, Pentium II y Pentium III de Intel y los equivalentes de AMD como el K6 y Athlon.
El documento proporciona información sobre varios procesadores de Intel a través de la historia, incluyendo el Intel 486, Pentium II, Pentium III, Pentium 4, Core 2 Duo, Core 2 Quad, Core i3, Core i5, Core i7 y Atom. Describe las características clave, especificaciones y evolución de cada procesador.
El documento proporciona información sobre varios procesadores de Intel, incluyendo el Intel 80486, Pentium, Pentium II, Pentium III y Pentium 4. Describe las mejoras clave y las velocidades de cada uno, así como otros detalles técnicos.
El documento proporciona información sobre varios procesadores de Intel a través de los años, incluyendo el Intel 80486, Pentium, Pentium II, Pentium III y Pentium 4. Describe las mejoras clave y especificaciones técnicas de cada procesador, como el número de transistores, velocidad del reloj, tamaño del proceso de fabricación y conjunto de instrucciones.
El documento proporciona información sobre varios procesadores Intel. Brevemente describe el Intel 80486, el primer Pentium lanzado en 1993, el Pentium II de 1997, el Pentium III de 1999 y el Pentium 4 de 2000, incluyendo detalles clave como velocidades, transistores y arquitecturas para cada uno.
Este documento resume la evolución de los microprocesadores desde el año 2000 hasta el 2013, describiendo los principales modelos lanzados por Intel y AMD en cada año e identificando las mejoras tecnológicas incorporadas, como el aumento en el número de núcleos, la reducción del tamaño de transistor, y la inclusión de nuevas instrucciones.
El documento resume la evolución de los microprocesadores Intel y AMD a través de los años, desde el primer procesador Intel 4004 en 1971 hasta los procesadores de doble núcleo recientes. Detalla los hitos clave como el Pentium, Athlon y procesadores de 64 bits, y describe las principales características y mejoras de cada generación de procesadores.
El documento proporciona información sobre varios procesadores, incluyendo su arquitectura, marcas y modelos. Describe las características clave de las CPU, como el número de núcleos, tamaño de caché y frecuencia de reloj. También explica brevemente la evolución de procesadores como Intel Core 2, Phenom II de AMD y los procesadores Intel Core i3, i5 e i7.
El documento proporciona información sobre diferentes tipos de CPUs. Menciona CPUs AMD como el Phenom II X2 y modelos Intel como el Core 2 Duo y Core i7. Explica las características clave de estos CPUs como el número de núcleos, velocidad de reloj, tamaño de caché y socket de montaje. También proporciona detalles sobre marcas actuales como AMD Athlon II X3 y modelos Intel Core i5 e i3.
El documento proporciona información sobre diferentes modelos de CPUs, incluyendo Phenom II X2, Intel Core 2 Duo E8500, AMD Athlon II X3 455, Intel Core i7-2600r, Intel Core i5 e Intel Core i3. Describe las características clave de cada CPU como el número de núcleos, la velocidad del reloj, el tamaño de la caché y el socket de cada uno. También menciona algunas compañías que producen estos CPUs como AMD e Intel.
El documento describe la historia de varios procesadores Intel, incluyendo el i486, Pentium, Pentium II, Pentium III y Pentium 4. Resumiendo, el i486 mejoró sobre el i386 con un conjunto de instrucciones optimizado e integración de la unidad de coma flotante. El Pentium fue el sucesor del i486 y llegó al mercado en 1993. Posteriormente vinieron el Pentium II en 1997, el Pentium III en 1999 e introdujo instrucciones SSE, y finalmente el Pentium 4 en 2000 con la microarquitectura NetBurst.
Buenas Tardes!. Esta es Nuestra Presentación Sobre Evolución de los Microprocesadores. Esperamos sea De Su Agrado y Completo Beneficio. Gladys Avendaño y Diana Nieves. 11-02-2011
El documento resume la evolución de los microprocesadores desde los primeros chips de 4 bits en los años 70 hasta los procesadores de 64 bits más recientes. Describe las diferentes generaciones de microprocesadores de Intel como el 4004, 8008, 8080, 8086, 80386, 80486 y los procesadores Pentium. También resume los principales procesadores de AMD como el K5, K6, K6-2, K6-III, Athlon y Athlon XP.
AMD es la segunda compañía productora de microprocesadores a nivel mundial. Ha lanzado varias series de procesadores como el K5, K6 y K8 para competir con los procesadores de Intel como el Pentium. Los procesadores AMD fueron los primeros en soportar 64 bits y características como reducción de velocidad para ahorrar energía. Intel ha sido pionera en la fabricación de microprocesadores desde 1971 y ha lanzado varias generaciones como el 4004, 80286, Pentium y Pentium 4.
AMD es la segunda compañía productora de microprocesadores a nivel mundial. Ha lanzado varias series de procesadores como el K5, K6 y K8 para competir con los procesadores de Intel como el Pentium. Los procesadores de AMD fueron los primeros en soportar 64 bits.
El documento describe la evolución de los procesadores desde el Intel 846 (i486) hasta el Intel dual core, incluyendo modelos como el Pentium, Pentium II, Pentium III, Pentium 4 y el primer procesador dual núcleo de Intel después del Pentium D. Se detallan las características y especificaciones técnicas clave de cada generación de procesadores.
El documento resume la evolución de los procesadores desde el Intel 846 (i486) hasta el Intel Pentium 4, destacando las características clave y versiones de cada uno. Luego menciona brevemente el surgimiento de los procesadores dual core de Intel como una continuación de la serie Pentium D y Core 2 Duo.
Este documento resume la evolución de varios procesadores de Intel a través de los años, incluyendo el Intel 486, Pentium II, Pentium III, Pentium IV, Core 2 Duo y Core 2 Quad. Describe las mejoras tecnológicas clave de cada procesador y cómo fueron reemplazando a sus predecesores a medida que la industria de los semiconductores avanzaba.
El documento resume la evolución de los microprocesadores entre 1994 y 2004, destacando los principales modelos lanzados por Intel y AMD en este período. Se mencionan procesadores como el Pentium, PowerPC 620, Pentium Pro, AMD K5 y K6, Pentium II, Athlon y sus versiones mejoradas, y el último Pentium 4.
El documento resume la evolución de varios procesadores de Intel desde el Intel 486 hasta el Core 2 Quad. Describe las características clave y mejoras de cada procesador, incluyendo el Pentium II, Pentium III, Pentium IV y Core 2 Duo. Explica que cada nueva generación de procesadores ha mejorado el rendimiento al tiempo que ha reducido el consumo de energía.
Los documentos describen la evolución de los microprocesadores Intel Pentium desde su introducción en 1993 hasta el Pentium M en 2003. Cada generación introdujo mejoras de rendimiento y nuevas características como instrucciones MMX y SSE. Los modelos posteriores incluyeron múltiples núcleos como el Pentium D y mejoras para portátiles como el Pentium M.
Este documento resume la historia de los procesadores desde el primero en 1971 hasta los procesadores actuales. Comenzó con procesadores del tamaño de un armario y se redujeron a circuitos integrados en chips. Los primeros procesadores tenían pocos transistores y baja velocidad en comparación con los procesadores modernos como el Core i7. Los procesadores han evolucionado de 4 bits a 32 y 64 bits, y de unos pocos KHz a GHz, a la vez que se han ido agregando nuevas características e instrucciones.
El documento describe las diferentes generaciones de procesadores desde la primera hasta la octava generación. Detalla los procesadores clave de cada generación como el 8086, 80286, 80386, 80486, Pentium, Pentium Pro, Pentium II y Pentium III de Intel y los equivalentes de AMD como el K6 y Athlon.
El documento proporciona información sobre varios procesadores de Intel a través de la historia, incluyendo el Intel 486, Pentium II, Pentium III, Pentium 4, Core 2 Duo, Core 2 Quad, Core i3, Core i5, Core i7 y Atom. Describe las características clave, especificaciones y evolución de cada procesador.
El documento proporciona información sobre varios procesadores de Intel, incluyendo el Intel 80486, Pentium, Pentium II, Pentium III y Pentium 4. Describe las mejoras clave y las velocidades de cada uno, así como otros detalles técnicos.
El documento proporciona información sobre varios procesadores de Intel a través de los años, incluyendo el Intel 80486, Pentium, Pentium II, Pentium III y Pentium 4. Describe las mejoras clave y especificaciones técnicas de cada procesador, como el número de transistores, velocidad del reloj, tamaño del proceso de fabricación y conjunto de instrucciones.
El documento proporciona información sobre varios procesadores Intel. Brevemente describe el Intel 80486, el primer Pentium lanzado en 1993, el Pentium II de 1997, el Pentium III de 1999 y el Pentium 4 de 2000, incluyendo detalles clave como velocidades, transistores y arquitecturas para cada uno.
Este documento resume la evolución de los microprocesadores desde el año 2000 hasta el 2013, describiendo los principales modelos lanzados por Intel y AMD en cada año e identificando las mejoras tecnológicas incorporadas, como el aumento en el número de núcleos, la reducción del tamaño de transistor, y la inclusión de nuevas instrucciones.
El documento resume la evolución de los microprocesadores Intel y AMD a través de los años, desde el primer procesador Intel 4004 en 1971 hasta los procesadores de doble núcleo recientes. Detalla los hitos clave como el Pentium, Athlon y procesadores de 64 bits, y describe las principales características y mejoras de cada generación de procesadores.
El documento proporciona información sobre varios procesadores, incluyendo su arquitectura, marcas y modelos. Describe las características clave de las CPU, como el número de núcleos, tamaño de caché y frecuencia de reloj. También explica brevemente la evolución de procesadores como Intel Core 2, Phenom II de AMD y los procesadores Intel Core i3, i5 e i7.
El documento proporciona información sobre diferentes tipos de CPUs. Menciona CPUs AMD como el Phenom II X2 y modelos Intel como el Core 2 Duo y Core i7. Explica las características clave de estos CPUs como el número de núcleos, velocidad de reloj, tamaño de caché y socket de montaje. También proporciona detalles sobre marcas actuales como AMD Athlon II X3 y modelos Intel Core i5 e i3.
El documento proporciona información sobre diferentes modelos de CPUs, incluyendo Phenom II X2, Intel Core 2 Duo E8500, AMD Athlon II X3 455, Intel Core i7-2600r, Intel Core i5 e Intel Core i3. Describe las características clave de cada CPU como el número de núcleos, la velocidad del reloj, el tamaño de la caché y el socket de cada uno. También menciona algunas compañías que producen estos CPUs como AMD e Intel.
El documento describe la historia de varios procesadores Intel, incluyendo el i486, Pentium, Pentium II, Pentium III y Pentium 4. Resumiendo, el i486 mejoró sobre el i386 con un conjunto de instrucciones optimizado e integración de la unidad de coma flotante. El Pentium fue el sucesor del i486 y llegó al mercado en 1993. Posteriormente vinieron el Pentium II en 1997, el Pentium III en 1999 e introdujo instrucciones SSE, y finalmente el Pentium 4 en 2000 con la microarquitectura NetBurst.
Buenas Tardes!. Esta es Nuestra Presentación Sobre Evolución de los Microprocesadores. Esperamos sea De Su Agrado y Completo Beneficio. Gladys Avendaño y Diana Nieves. 11-02-2011
El documento resume la evolución de los microprocesadores desde los primeros chips de 4 bits en los años 70 hasta los procesadores de 64 bits más recientes. Describe las diferentes generaciones de microprocesadores de Intel como el 4004, 8008, 8080, 8086, 80386, 80486 y los procesadores Pentium. También resume los principales procesadores de AMD como el K5, K6, K6-2, K6-III, Athlon y Athlon XP.
AMD es la segunda compañía productora de microprocesadores a nivel mundial. Ha lanzado varias series de procesadores como el K5, K6 y K8 para competir con los procesadores de Intel como el Pentium. Los procesadores AMD fueron los primeros en soportar 64 bits y características como reducción de velocidad para ahorrar energía. Intel ha sido pionera en la fabricación de microprocesadores desde 1971 y ha lanzado varias generaciones como el 4004, 80286, Pentium y Pentium 4.
AMD es la segunda compañía productora de microprocesadores a nivel mundial. Ha lanzado varias series de procesadores como el K5, K6 y K8 para competir con los procesadores de Intel como el Pentium. Los procesadores de AMD fueron los primeros en soportar 64 bits.
El documento describe la evolución de los procesadores desde el Intel 846 (i486) hasta el Intel dual core, incluyendo modelos como el Pentium, Pentium II, Pentium III, Pentium 4 y el primer procesador dual núcleo de Intel después del Pentium D. Se detallan las características y especificaciones técnicas clave de cada generación de procesadores.
El documento resume la evolución de los procesadores desde el Intel 846 (i486) hasta el Intel Pentium 4, destacando las características clave y versiones de cada uno. Luego menciona brevemente el surgimiento de los procesadores dual core de Intel como una continuación de la serie Pentium D y Core 2 Duo.
Este documento resume la evolución de varios procesadores de Intel a través de los años, incluyendo el Intel 486, Pentium II, Pentium III, Pentium IV, Core 2 Duo y Core 2 Quad. Describe las mejoras tecnológicas clave de cada procesador y cómo fueron reemplazando a sus predecesores a medida que la industria de los semiconductores avanzaba.
El documento resume la evolución de los microprocesadores entre 1994 y 2004, destacando los principales modelos lanzados por Intel y AMD en este período. Se mencionan procesadores como el Pentium, PowerPC 620, Pentium Pro, AMD K5 y K6, Pentium II, Athlon y sus versiones mejoradas, y el último Pentium 4.
El documento resume la evolución de varios procesadores de Intel desde el Intel 486 hasta el Core 2 Quad. Describe las características clave y mejoras de cada procesador, incluyendo el Pentium II, Pentium III, Pentium IV y Core 2 Duo. Explica que cada nueva generación de procesadores ha mejorado el rendimiento al tiempo que ha reducido el consumo de energía.
El documento resume la evolución de varios procesadores de Intel desde el Intel 486 hasta el Core 2 Quad. Describe las características clave y mejoras de cada procesador, incluyendo el Pentium II, Pentium III, Pentium IV y Core 2 Duo. Explica que cada nueva generación de procesadores trajo mejoras en el rendimiento, la velocidad y la eficiencia energética a través de nuevas arquitecturas y procesos de fabricación más pequeños.
El documento resume la evolución de varios procesadores de Intel desde el Intel 486 hasta el Core 2 Quad. Describe las características clave y mejoras de cada procesador, incluyendo el Pentium II, Pentium III, Pentium IV y Core 2 Duo. Explica que cada nueva generación de procesadores ha mejorado el rendimiento al tiempo que ha reducido el consumo de energía.
El documento resume la evolución de varios procesadores de Intel desde el Intel 486 hasta el Core 2 Quad. Describe las características clave y mejoras de cada procesador, incluyendo el Pentium II, Pentium III, Pentium IV y Core 2 Duo. Explica que cada nueva generación de procesadores ha mejorado el rendimiento al tiempo que ha reducido el consumo de energía.
El documento resume la historia de los procesadores desde el Intel 4004 de 1971 hasta los procesadores Core actuales. Comenzaron siendo grandes, luego se redujeron de tamaño hasta ser integrados en un solo chip. Los procesadores han aumentado su velocidad, número de transistores, tamaño de memoria direccionable y funcionalidades con el tiempo.
Evolucion de los procesadoes cristian david lamillacristianlamilla17
El documento proporciona información sobre varios procesadores Intel a través de los años, incluyendo el Intel 80486, Pentium, Pentium II, Pentium III, Pentium 4, Core 2 Quad, Core i3, Core i5 e Core i7. Describe las características clave de cada procesador como su velocidad, tamaño de transistor, conjunto de instrucciones y otros detalles técnicos.
Evolucion de los procesadoes cristian david lamillaDavid Andrade
El documento proporciona información sobre varios procesadores de Intel a través de los años, incluyendo el Intel 80486, Pentium, Pentium II, Pentium III y Pentium 4. Describe las mejoras clave y especificaciones técnicas de cada procesador, como el número de transistores, velocidad del reloj, tamaño del proceso de fabricación y conjunto de instrucciones.
Evolucion de los procesadoes cristian david lamillaDavid Andrade
El documento proporciona información sobre varios procesadores de Intel a través de los años, incluyendo el Intel 80486, Pentium, Pentium II, Pentium III y Pentium 4. Describe las mejoras clave y especificaciones técnicas de cada procesador, como el número de transistores, velocidad del reloj, tamaño del proceso de fabricación y conjunto de instrucciones.
Este documento resume la evolución de los microprocesadores de las familias Intel, AMD y Asrock desde 1971 hasta el presente. Describe los primeros procesadores Intel 4004 y 8008 y cómo llevaron al desarrollo del primer ordenador personal. Explica luego el surgimiento de los procesadores Pentium, Pentium Pro, Pentium V y los planes de Intel para procesadores de 10 nm en el futuro. También resume los primeros procesadores AMD como el K5 y cómo la arquitectura x86-64 ha evolucionado para manejar direcciones de 64 bits.
Este documento resume la evolución de los microprocesadores de las familias Intel, AMD y Asrock desde 1971 hasta el presente. Describe los primeros procesadores Intel 4004 y 8008 y cómo llevaron al desarrollo del primer ordenador personal. También cubre los procesadores Pentium, Pentium Pro, Pentium V y las tecnologías de Intel de 32 y 10 nanómetros. Finalmente, resume los primeros procesadores AMD como el K5 y cómo la arquitectura x86-64 ha evolucionado.
El documento describe la historia y desarrollo de los microprocesadores desde el Intel 4004 en 1971 hasta el Intel Core i7 en 2008. Detalla hitos como el primer microprocesador de Intel, el uso de los 8080 en las primeras computadoras personales, el éxito del 8088 en el IBM PC, y el lanzamiento de procesadores posteriores como el 286, 386, 486 y Pentium. También cubre la competencia de AMD con procesadores como el K5, K6 y Athlon 64.
Este documento presenta 16 dinámicas grupales para promover la integración, el conocimiento mutuo y la confianza entre los participantes. Algunas de las dinámicas incluyen juegos para adivinar nombres como "Pedro llama a Pablo", ejercicios de presentación como "La pelota preguntona" y actividades para compartir experiencias personales como "Confidencias". El objetivo general es fomentar la cohesión del grupo a través de actividades lúdicas e intercambios entre los miembros.
El documento proporciona un cuestionario sobre controladores y drivers de sistemas operativos. Explica que los controladores permiten la interacción entre el sistema operativo y los periféricos, proporcionando una interfaz estandarizada. También indica que es necesario instalar drivers correctos cuando se cambia el hardware para que los dispositivos funcionen adecuadamente. Finalmente, ofrece instrucciones básicas para buscar, encontrar e instalar drivers de hardware.
El kernel es el núcleo o parte central del sistema operativo que gestiona los recursos del hardware y la comunicación entre programas y hardware. Sus funciones principales incluyen administrar la memoria, controlar el acceso al sistema, gestionar tareas y procesos, y administrar y controlar dispositivos. El registro almacena información de configuración para usuarios, aplicaciones y hardware para Windows. Contiene llaves como HKEY_CURRENT_USER, HKEY_USERS, HKEY_LOCAL_MACHINE y HKEY_CLASSES_ROOT. Instalar más de dos sistemas operativos en un disco
El documento describe el trabajo colaborativo, definido como procesos intencionales de un grupo para alcanzar objetivos específicos con el apoyo de herramientas tecnológicas. Explica que el trabajo colaborativo se basa en la interdependencia entre los miembros del grupo y la responsabilidad compartida para lograr las metas del grupo. También destaca la importancia de habilidades de comunicación y deseo de compartir tareas entre los participantes.
El documento resume la historia de las telecomunicaciones desde el telégrafo en 1830 hasta el desarrollo de las redes digitales en la década de 1980. Algunos hitos clave incluyen el telégrafo de Morse en 1837, el telégrafo múltiple de Baudot en 1874, el teléfono de Bell en 1875, el teletipo en 1910 y el desarrollo de las redes de computadoras y protocolos como ARPANET y TCP/IP en la década de 1970. El documento también cubre la consolidación de la teleinformática y las primer
Este documento proporciona información sobre conectores RJ45 y cables de red. Explica el propósito del conector RJ45, cómo se usa comúnmente para Ethernet, y los diferentes tipos de cables como cables directos y cruzados. También describe las normas 568A y 568B para la conexión de cables y cómo se usan para conectar dispositivos de red.
Este documento describe los componentes básicos de una red de computadoras, incluyendo conectores RJ45, cables, tipos de cable y cómo conectar dispositivos de red. Explica las normas 568A y 568B para la conexión de cables de red y cómo usar cables directos y cruzados para diferentes configuraciones. También cubre racks, conectores de audio y otros temas relacionados con redes y conectividad.
Este documento proporciona información sobre conectores RJ45 y cables de red. Explica los tipos de conectores RJ45, cómo se conectan los cables de red, los diferentes tipos de cables (directos y cruzados), y los estándares TIA/EIA-568-A y TIA/EIA-568-B para la conexión de cables de red. También cubre conexiones entre switches y concentradores, y conexiones directas entre PCs.
Este documento proporciona información sobre conectores RJ45 y cables de red. Explica los tipos de conectores RJ45, cómo se conectan los cables de red, los códigos de colores de los cables y los diferentes tipos de cables como directos y cruzados. También describe brevemente racks y conectores de audio.
El RJ45 es un conector comúnmente usado para conectar redes a Internet, diferente al RJ11 que se usa para teléfonos. Los conectores Jack de 3.5 mm en las tarjetas de sonido de PC usan códigos de colores estándar para distinguir las entradas y salidas de audio y micrófono.
El documento describe la historia de las telecomunicaciones y el desarrollo de Internet desde principios del siglo XIX hasta finales del siglo XX. Se destaca el papel fundamental de inventos como el telégrafo, teléfono y ordenador, y cómo investigaciones en las décadas de 1960 y 1970 sobre conmutación de paquetes y redes de computadoras llevaron al desarrollo de ARPANET y los principios de una arquitectura de red abierta e interconexión de redes, considerados los orígenes de Internet.
El documento describe los diferentes tipos de cable UTP (par trenzado no blindado) categorizados según su ancho de banda, así como sus aplicaciones principales en redes Ethernet. Explica que el cable UTP se normaliza según las normas TIA/EIA-568-B e ISO/IEC 11801 y se utiliza comúnmente para redes LAN debido a su bajo costo y facilidad de instalación. También menciona cables similares como el STP (par trenzado blindado) y FTP (par trenzado con blindaje global) que ofrecen mayor
El documento describe los diferentes tipos de cable UTP (par trenzado no blindado) categorizados según su ancho de banda, así como sus aplicaciones principales en redes Ethernet y telefonía. Explica que el cable UTP se normaliza según las normas TIA/EIA-568-B e ISO/IEC 11801 y que va desde categorías de 0.4 MHz hasta 1200 MHz, siendo las más comunes las categorías 5, 5e y 6 para redes Ethernet de 100 Mbps, 1000 Mbps y 10 Gbps respectivamente.
Este documento contiene 3 oraciones o menos:
Este documento presenta una lista de nombres de personas y una institución educativa, así como una fecha y ubicación. No proporciona más información relevante.
Este documento contiene 3 resúmenes breves de diferentes temas relacionados con redes de comunicaciones:
1) Explica la importancia del modelo OSI para permitir la comunicación entre redes al estandarizar los protocolos de comunicación.
2) Define las 7 capas del modelo OSI y sus funciones principales.
3) Describe algunas redes de comunicaciones importantes como ARPANET, BITNET, CUNET e INTERNET y cómo se interconectan.
El documento describe los diferentes tipos de cable UTP (par trenzado no blindado) categorizados según su ancho de banda, así como sus aplicaciones principales en redes Ethernet y telefonía. Explica que el cable UTP se normaliza según las normas TIA/EIA-568-B e ISO/IEC 11801 y que va desde categorías de 0.4 MHz hasta 1200 MHz, siendo las más comunes las categorías 5, 5e y 6 para redes Ethernet de 100 Mbps, 1000 Mbps y 10 Gbps respectivamente.
1) Este documento presenta información sobre la historia y definición del modelo OSI, la importancia de este modelo, las capas que lo componen y el flujo de datos en una red. 2) También explica conceptos como redes de comunicaciones, topologías de red, cableado estructurado y la aparición de niveles en el cableado. 3) El documento proporciona detalles técnicos sobre estos temas de redes de computadoras.
El documento describe la historia y evolución de las telecomunicaciones desde el siglo XIX hasta la actualidad. Comenzó con el telégrafo eléctrico y luego se desarrolló el teléfono y la radio. Más tarde aparecieron tecnologías como el módem, Internet y las redes inalámbricas. Actualmente las telecomunicaciones convergen a través de dispositivos cada vez más avanzados.
Este documento describe diferentes tipos de redes, incluyendo redes de área local (LAN), redes de área metropolitana (MAN) y redes de área amplia (WAN). Explica que las LAN son redes privadas de pequeño tamaño como oficinas o escuelas, que usan tecnologías como Ethernet y operan a altas velocidades. También describe elementos de red como conmutadores, routers y cables UTP.
Catalogo Buzones BTV Amado Salvador Distribuidor Oficial ValenciaAMADO SALVADOR
Descubra el catálogo completo de buzones BTV, una marca líder en la fabricación de buzones y cajas fuertes para los sectores de ferretería, bricolaje y seguridad. Como distribuidor oficial de BTV, Amado Salvador se enorgullece de presentar esta amplia selección de productos diseñados para satisfacer las necesidades de seguridad y funcionalidad en cualquier entorno.
Descubra una variedad de buzones residenciales, comerciales y corporativos, cada uno construido con los más altos estándares de calidad y durabilidad. Desde modelos clásicos hasta diseños modernos, los buzones BTV ofrecen una combinación perfecta de estilo y resistencia, garantizando la protección de su correspondencia en todo momento.
Amado Salvador, se compromete a ofrecer productos de primera clase respaldados por un servicio excepcional al cliente. Como distribuidor oficial de BTV, entendemos la importancia de la seguridad y la tranquilidad para nuestros clientes. Por eso, trabajamos en colaboración con BTV para brindarle acceso a los mejores productos del mercado.
Explore el catálogo de buzones ahora y encuentre la solución perfecta para sus necesidades de correo y seguridad. Confíe en Amado Salvador y BTV para proporcionarle buzones de calidad excepcional que cumplan y superen sus expectativas.
Catalogo Cajas Fuertes BTV Amado Salvador Distribuidor OficialAMADO SALVADOR
Explora el catálogo completo de cajas fuertes BTV, disponible a través de Amado Salvador, distribuidor oficial de BTV. Este catálogo presenta una amplia variedad de cajas fuertes, cada una diseñada con la más alta calidad para ofrecer la máxima seguridad y satisfacer las diversas necesidades de protección de nuestros clientes.
En Amado Salvador, como distribuidor oficial de BTV, ofrecemos productos que destacan por su innovación, durabilidad y robustez. Las cajas fuertes BTV son reconocidas por su eficiencia en la protección contra robos, incendios y otros riesgos, lo que las convierte en una opción ideal tanto para uso doméstico como comercial.
Amado Salvador, distribuidor oficial BTV, asegura que cada producto cumpla con los más estrictos estándares de calidad y seguridad. Al adquirir una caja fuerte a través de Amado Salvador, distribuidor oficial BTV, los clientes pueden tener la tranquilidad de que están obteniendo una solución confiable y duradera para la protección de sus pertenencias.
Este catálogo incluye detalles técnicos, características y opciones de personalización de cada modelo de caja fuerte BTV. Desde cajas fuertes empotrables hasta modelos de alta seguridad, Amado Salvador, como distribuidor oficial de BTV, tiene la solución perfecta para cualquier necesidad de seguridad. No pierdas la oportunidad de conocer todos los beneficios y características de las cajas fuertes BTV y protege lo que más valoras con la calidad y seguridad que solo BTV y Amado Salvador, distribuidor oficial BTV, pueden ofrecerte.
Catalogo Refrigeracion Miele Distribuidor Oficial Amado Salvador ValenciaAMADO SALVADOR
Descubre el catálogo general de la gama de productos de refrigeración del fabricante de electrodomésticos Miele, presentado por Amado Salvador distribuidor oficial Miele en Valencia. Como distribuidor oficial de electrodomésticos Miele, Amado Salvador ofrece una amplia selección de refrigeradores, congeladores y soluciones de refrigeración de alta calidad, resistencia y diseño superior de esta marca.
La gama de productos de Miele se caracteriza por su innovación tecnológica y eficiencia energética, garantizando que cada electrodoméstico no solo cumpla con las expectativas, sino que las supere. Los refrigeradores Miele están diseñados para ofrecer un rendimiento óptimo y una conservación perfecta de los alimentos, con características avanzadas como la tecnología de enfriamiento Dynamic Cooling, sistemas de almacenamiento flexible y acabados premium.
En este catálogo, encontrarás detalles sobre los distintos modelos de refrigeradores y congeladores Miele, incluyendo sus especificaciones técnicas, características destacadas y beneficios para el usuario. Amado Salvador, como distribuidor oficial de electrodomésticos Miele, garantiza que todos los productos cumplen con los más altos estándares de calidad y durabilidad.
Explora el catálogo completo y encuentra el refrigerador Miele perfecto para tu hogar con Amado Salvador, el distribuidor oficial de electrodomésticos Miele.
Catalogo general Ariston Amado Salvador distribuidor oficial ValenciaAMADO SALVADOR
Distribuidor Oficial Ariston en Valencia: Amado Salvador distribuidor autorizado de Ariston, una marca líder en soluciones de calefacción y agua caliente sanitaria. Amado Salvador pone a tu disposición el catálogo completo de Ariston, encontrarás una amplia gama de productos diseñados para satisfacer las necesidades de hogares y empresas.
Calderas de condensación: Ofrecemos calderas de alta eficiencia energética que aprovechan al máximo el calor residual. Estas calderas Ariston son ideales para reducir el consumo de gas y minimizar las emisiones de CO2.
Bombas de calor: Las bombas de calor Ariston son una opción sostenible para la producción de agua caliente. Utilizan energía renovable del aire o el suelo para calentar el agua, lo que las convierte en una alternativa ecológica.
Termos eléctricos: Los termos eléctricos, como el modelo VELIS TECH DRY (sustito de los modelos Duo de Fleck), ofrecen diseño moderno y conectividad WIFI. Son ideales para hogares donde se necesita agua caliente de forma rápida y eficiente.
Aerotermia: Si buscas una solución aún más sostenible, considera la aerotermia. Esta tecnología extrae energía del aire exterior para calentar tu hogar y agua. Además, puede ser elegible para subvenciones locales.
Amado Salvador es el distribuidor oficial de Ariston en Valencia. Explora el catálogo y descubre cómo mejorar la comodidad y la eficiencia en tu hogar o negocio.
Catalogo general Ariston Amado Salvador distribuidor oficial Valencia
Actividad de afianzamiento
1. Actividad de afianzamiento
¿Que hay hoy?
Eran los comienzos de la década de los '90, o más precisamente hablando, el año 1993.
Algunos de los procesadores 486 ya llevaban cuatro años en el mercado, sin embargo, quien
tenía uno podía considerarse un semidiós caminando sobre la tierra, teniendo en cuenta lo
"pesadas" que eran las aplicaciones de ese entonces: D.O.S. como sistema operativo, y
Windows 3.1 como "entorno". Pero Intel, que en ese tiempo enfrentaba una competencia
mucho más dura frente a alternativas como IBM, AMD, Cyrix y Texas Instruments, decidió
lanzar una nueva plataforma, mejorando la tecnología presente en los chips 486 de forma
considerable. El nombre designado fue Pentium, representando la quinta generación de
procesadores. Una de las razones para el nuevo nombre se debía a que las oficinas de
patentes se negaban a registrar números como propiedad. En ese entonces, los procesadores
eran clasificados como 80386 y 80486. Si hubiera sido posible, tal vez lo que conocemos por
Pentium hoy no hubiera sido otra cosa más que 80586, pero Intel sabía en ese momento que
necesitaría más que un nombre llamativo para imponerse frente a las plataformas existentes.
La popularidad de los 486 fue algo impresionante, a un extremo tal que Intel recién dejó de
fabricarlos en el año 2007, aunque ya estaban orientados a sistemas embebidos y con
objetivos específicos.
El primer Pentium: ¡60 megahertz de puro
poder!
El 22 de marzo de 1993 fue testigo de la aparición del Pentium 60. Tanto su frecuencia como
su bus estaban sincronizados en 60 megahertz, y marcó la aparición de un nuevo zócalo, el
socket 4, por lo que era necesario un nuevo motherboard para recibirlo (hubo una excepción,
que la nombraremos más adelante). Unidad de punto flotante integrada, 64 bits de bus de
datos, y un masivo consumo de energía (ubicado en los cinco voltios) eran algunas de las
características del nuevo procesador. Al Pentium original se lo conoció como P5 en el círculo
técnico, y sólo tuvo una versión superior, de 66 megahertz de velocidad. El consumo de
energía se volvió un verdadero problema: Intel debió elevar a 5.25v para mantener estable al
chip en 66 megahertz, algo que también despertó un demonio que ni siquiera hoy podemos
derrotar del todo: La temperatura. Era necesario un diseño más eficiente (no era por nada
que le decían "calentador de café" al Pentium), y así fue como Intel llegó, en octubre de
1994, a crear el P54C, una versión revisada del Pentium que, además de bajar el voltaje a
3.3v, también permitió elevar las velocidades de reloj a 75, 90 y 100 megahertz
respectivamente. Sin embargo, hubo dos puntos muy importantes que jugaron en contra de la
adopción del Pentium: Los nuevos P54C requerían un nuevo zócalo, el socket 5, que no era
retrocompatible con el zócalo anterior. Y lo más importante, fue que se descubrió un bug en la
unidad de punto flotante integrada en el diseño del Pentium, que se popularizó como el "bug
FDIV". Lo que realmente causó problemas no fue el error en sí, sino el hecho de que Intel
hubiera estado consciente del mismo cinco meses antes de que fuera reportado por el
profesor Thomas Nicely del Lynchburg Collage, mientras trabajaba con el procesador sobre la
Constante de Brun.
2. El bug FDIV estuvo presente en una cantidad significativa de
procesadores, pero fue la actitud de Intel la que hizo más daño
Por otro lado, Intel debía ofrecer una opción de actualización para aquellos sistemas con
zócalos antiguos, y así fue como se creó el Pentium OverDrive. De acuerdo a Intel, aquellos
usuarios con un sistema 486 podían colocar un procesador OverDrive y alcanzar un
rendimiento muy similar al de los procesadores Pentium. Lamentablemente, el diseño
OverDrive fue víctima de múltiples problemas de compatibilidad, afectando su rendimiento
final. Las alternativas presentadas por AMD y Cyrix ofrecían un rendimiento, y había
circunstancias en las que incluso un 486DX4 podía vencer a un OverDrive. Tampoco debemos
olvidar el precio, ya que si bien Intel había lanzado el OverDrive para que los usuarios
evitaran cambiar todo el sistema, el dinero que se ahorraban en ese proceso prácticamente
debían invertirlo sobre el OverDrive en sí. Los primeros OverDrive estuvieron disponibles para
socket 2, 3, 4, 5, 7 y 8.
Ninguna de las versiones OverDrive fue muy popular
En poco más de tres años, Intel había logrado triplicar la velocidad de sus chips Pentium. Los
P54C abrieron el camino para los P54CS, que elevaron las frecuencias a 133, 150, 166 y 200
megahertz respectivamente. Entre ambas estirpes apareció el P54CQS, representado
únicamente por el Pentium 120. A partir de los diseños de 120 megahertz, los chips Pentium
dejaron atrás al bug FDIV, pero el frente se abrió en dos. En primer lugar, aparecieron los
P55C, más conocidos entre los usuarios como Pentium MMX. Y en segundo lugar, Intel lanzó
al Pentium Pro en noviembre de 1995. Para cerrar con la quinta generación, los P55C
introdujeron al mercado la extensión MMX, un conjunto de instrucciones adicionales que
aumentaban el rendimiento de los chips en determinados procesos multimedia. Las versiones
de escritorio poseían velocidades de 166, 200 y 233 megahertz, utilizando al socket 7 que ya
existía desde los P54C. Los procesadores MMX también tuvieron su versión OverDrive para
zócalos anteriores, pero su baja popularidad se mantuvo sin cambios.
3. Intel elevó la apuesta con las nuevas instrucciones MMX
El siguiente en la línea fue el Pentium Pro. Desde su lanzamiento se lo conoce oficialmente
como integrante de la sexta generación de procesadores, también llamado P6, o i686, un
término que se utiliza incluso en estos días (puedes encontrarlo en los nombres de las
imágenes de algunas distros Linux). El Pentium Pro rápidamente se presentó como un chip
completamente diferente de la familia P5, a pesar de que compartían parte del nombre. No
poseía instrucciones MMX, pero su rendimiento era masivo, gracias a velocidades de reloj
aumentadas y diseños que contaban con una memoria caché L2 de hasta un megabyte. Uno
de los puntos más destacables del Pentium Pro era su rendimiento con software de 32 bits.
Como mínimo, su velocidad superaba a la de los Pentium en un 25 por ciento, pero al mismo
tiempo esto fue una de las cosas que lo perjudicó. Con un excelente rendimiento en 32 bits,
su velocidad en procesos de 16 bits era inferior, incluso a la que entregaban sus hermanos
menores. Como si eso fuera poco, un alto precio (provocado por lo complejo de su diseño) y la
necesidad de cambiar de zócalo una vez más (socket 8), hicieron del Pentium Pro un
procesador muy poco popular entre los usuarios, aunque mantuvo cierta presencia entre
servidores de alto rendimiento. Sus modelos eran de 150, 166, 180 y 200 megahertz, con
variantes de 256 KB, 512 KB, y 1 MB de memoria caché L2.
El Pentium Pro fue un adelantado a su época en varios aspectos
A pesar de los problemas que debió enfrentar con el Pentium Pro, Intel tomó lo aprendido a la
hora de diseñar este chip, creando la base para lo que serían los Pentium II, Pentium III,
Celeron y Xeon. El primer Pentium II apareció en mayo de 1997, y contaba con un diseño
radical: El "chip" se había convertido en "cartucho", presentando oficialmente al slot 1.
También introdujo la extensión MMX, y corrigió los problemas de rendimiento en aplicaciones
de 16 bits que habían plagado al Pentium Pro. Su memoria caché L2 era de 512 KB, aunque
más lenta, utilizando la mitad del ancho de banda. Sin embargo, el hecho de que Intel
integrara la memoria caché en el cartucho y no en el interior del núcleo permitió bajar los
costos lo suficiente como para hacer del Pentium II una opción muy atractiva entre los
consumidores, mucho más de lo que jamás fuera el Pentium Pro. Su primera versión fue
conocida como Klamath, que utilizaba un bus de 66 megahertz, y contaba con velocidades de
233, 266 y 300 megahertz. Menos de un año después llegó la familia Deschutes, con modelos
de 333, 350, 400, y 450 megahertz. El bus de los Deschutes fue elevado a cien megahertz (a
excepción del modelo 333 que permaneció en 66), algo que se mantuvo en procesadores
posteriores. Tres meses después de la aparición de los Deschutes, Intel lanzó al procesador
Celeron, una versión económica y mucho menos poderosa del Pentium II. Su principal
debilidad era la ausencia total de caché L2, algo que despertó muchos reclamos entre el
público. Sin embargo, tanto este Celeron como su posterior versión con 128 KB de caché L2
demostraron un potencial sin precedentes para realizar overclocking. El Celeron 300A se
convirtió en uno de los procesadores más codiciados, ya que con una configuración adecuada
se lo podía llevar a unos impresionantes 450 megahertz, un rendimiento que poco tenía que
envidiarle al Pentium II 450, mucho más caro. En cuanto al Xeon, desde el comienzo fue
posicionado como un procesador para servidores. Una ranura diferente a la de los Pentium II
y una mayor cantidad de caché fueron apenas dos de los tantos factores que determinaron
esto.
4. El Pentium II cambió zócalo por ranura: El slot 1 estaba entre nosotros
Los Pentium III estuvieron claramente definidos en tres sub.-generaciones. La primera fue
Katmai, que ofreció un aumento en la velocidad de reloj, y la incorporación de las nuevas
instrucciones SSE de aceleración multimedia. Sus modelos fueron de 450, 500, 533, 550 y 600
megahertz. Mientras que los Xeon también habían adquirido las características de los Pentium
III a través de nuevas versiones, ocho meses después, en octubre de 1999, llegaron los
modelos Coppermine. Los Coppermine marcaron la reintroducción de los zócalos entre los
chips de Intel, con la llegada del socket 370. Muchos usuarios han cruzado en su camino a los
famosos "adaptadores" de socket 370 a slot 1 para utilizar los nuevos chips en placas madre
con ranura slot 1, y de los problemas de compatibilidad que podían surgir con ello. Los
Coppermine estuvieron entre los primeros en ofrecer a los usuarios "regulares" la posibilidad
de contar con un procesador de 1 Ghz, barrera que no se esperaba alcanzar hasta dentro de
varios años. Algunos detalles adicionales se encontraron en la inclusión del bus de 133
megahertz, el uso completo del bus en la memoria caché L2 y la actualización de la línea
Celeron, incorporando las mejoras de los Coppermine. Finalmente, llegaron los Tualatin. Por
sí mismos, estos Pentium III eran muy poderosos, ya que los modelos superiores contaban
con un reloj de 1.4 Ghz, y 512 KB de caché L2. Pero resultaron extremadamente difíciles de
conseguir, sin mencionar su alto costo, y el detalle de que muchas placas madre resultaron
incompatibles con estos procesadores, debido a limitaciones de diseño en sus chipsets. Quien
contara con una placa madre compatible y un Tualatin cerca, tenía a un verdadero monstruo
como ordenador.
El Pentium III rápidamente volvió al zócalo, y se mantuvo así hasta el último modelo Tualatin
Hasta aquí llegamos a lo que se puede considerar como "historia antigua", porque ahora
entramos en la época de los primeros Pentium 4, que a falta de otras palabras, fueron
demasiados para el gusto y la comprensión de los usuarios. Los primeros P4 correspondían a
la familia Willamette, comenzando con una velocidad de reloj de 1.3 Ghz, nuevo zócalo (423),
y la introducción de las instrucciones SSE2. Luego vinieron los Northwood, los Gallatin (más
conocidos como Extreme Edition), los Prescott, los Prescott 2M, y finalmente los Cedar Mill.
Todas estas familias presentaron múltiples cambios: El abandono del socket 423 en favor del
478, la introducción del Hyper-Threading, buses de 533 megahertz, instrucciones SSE3, buses
de 800 megahertz, virtualización, el socket 775, y fundamentalmente, la llegada de la micro
arquitectura NetBurst. La velocidad máxima de los Pentium 4 alcanzó unos impresionantes
3.8 Ghz, pero esto resultó ser más una limitación que un logro. Intel no podía ir más allá de
esta velocidad sin seguir aumentando el voltaje y el diseño térmico, algo que además de ser
problemático, también resultaría excesivamente caro. Intel necesitaba hacer las cosas más
simples, en varios sentidos.
5. El socket 423 fue abandonado en un tiempo
bastante breve
Aún es posible encontrar ordenadores con un
Pentium 4 como este en su interior
El último y más moderno de la estirpe: Pentium G6950
La solución llegó a través de algo ya cotidiano para nosotros: Los núcleos múltiples. Aunque
el primer Pentium de dos núcleos apareció en mayo de 2005 (el llamado Pentium D), todavía
se los puede encontrar funcionando como si fuera el primer día. Los primeros intentos de
Intel fueron algo toscos, ya que los Pentium D resultaron ser muy ineficientes, especialmente
en el aspecto de temperatura. Smithfield y Presler, junto con sus variaciones XE, fueron las
que le dieron forma a esta serie D de procesadores Pentium. La arquitectura NetBurst
necesitaba un reemplazo, y este llegó con algo que ya es muy familiar para todos nosotros:
Los procesadores Core 2 Duo. Mientras que los modelos Core pasaron a la vanguardia,
representando a los modelos de media y alta gama, los Pentium fueron relegados a un rol
mucho más humilde, identificando procesadores con lo que hoy consideramos como
"capacidades básicas". Sin embargo, eso no quiere decir que el nombre Pentium en sí mismo
esté destinado a desaparecer. Hoy en día, Intel mantiene activos tres zócalos: El 775, el 1156
y el 1366. El primero está prácticamente desplazado, mientras que los otros dos concentran
todos los nuevos modelos de procesadores, incluyendo al Pentium G6950, lanzado en enero
pasado. Por lo tanto, que no te preocupe si el presupuesto te alcanza sólo para este nuevo
Pentium. En cualquier momento podrás dar el salto a un CPU más completo, pero tampoco
debes dejar de recordar que el nombre Pentium ha sabido dejar su huella en el mundo de la
informática, con novedades, intentos, fracasos, y éxitos rotundos. Si no fuera por el nombre
Pentium, probablemente Intel no estaría donde se encuentra ahora.
Intel Core Duo es un microprocesador de sexta generación lanzado en enero del 2006 por
Intel, posterior al Pentium D y antecesor al Core 2 Dúo. Dispone de dos núcleos de ejecución
lo cual hace de este procesador especial para las aplicaciones de subprocesos múltiples y para
multitarea. Puede ejecutar varias aplicaciones exigentes simultáneamente, como juegos con
gráficos potentes o programas que requieran muchos cálculos, al mismo tiempo que permite
descargar música o analizar el PC con un antivirus en segundo plano, por ejemplo.
Este microprocesador implementa 2 MB de caché compartida para ambos núcleos más un bus
frontal de 667 ó 553 MHz; además implementa el juego de instrucciones SSE3 y mejoras en
las unidades de ejecución de SSE y SSE2. Sin embargo, el desempeño con enteros es
ligeramente inferior debido a su caché con mayor latencia, además no es compatible con
EM64T por lo que solo trabaja a 32 bits.
Intel Core Duo fue el primer microprocesador de Intel usado en las computadoras Apple
Macintosh.
6. Existe también una versión con sólo un nucleo denominada Core Solo.
Historia y evolución de las memorias
Un dispositivo de almacenamiento es cualquier instrumento computacional que es capaz de
almacenar datos o cualquier tipo de información. Históricamente se ha usado el papel como
método más común, pero actualmente es posible almacenar digitalmente en un CD por
ejemplo, los datos que cabrían en miles de carpetas archivadas. A lo largo de la historia se ha
buscado el camino de encontrar el sistema más pequeño físicamente y con más capacidad
para almacenar más datos y tratarlos rápidamente.
Microchip También conocido como circuito integrado. Se desarrolló por primera vez en 1958
por el ingeniero Jack Kilby justo meses después de haber sido contratado por la firma
Texas Instruments. Se trataba de un dispositivo de germanio que integraba seis
transistores en una misma base semiconductora para formar un oscilador de rotación
de fase. En el año 2000, Kilby obtuvo el Premio Nobel de Física por la contribución de
su invento al desarrollo de la tecnología de la información.
Un microchip es una pastilla muy delgada donde se encuentran miles o millones de
dispositivos electrónicos interconectados, principalmente diodos y transistores, y también
componentes pasivos como resistencia o capacitores. Su área puede ser de 1cm2 o inferior.
Los microchips son quizás los sistemas de almacenamiento más empleados, hoy en día se
utilizan además de en los computadores, en los teléfonos móviles, electrodomésticos,
juguetes con algún componente electrónico, etc.
El transistor actúa como interruptor. Puede encenderse o apagarse electrónicamente o
amplificar corriente. Se usa en computadoras para almacenar información o en amplificadores
para aumentar el volumen de sonido. Las resistencias limitan el flujo de electricidad y nos
permiten controlar la cantidad de corriente que fluye, esto se usa por ejemplo para controlar
el volumen de un televisor o radio.
El desarrollo del microchip es especialmente importante en la historia, pues es algo
increíblemente pequeño que puede almacenar cantidad de datos inmensas, que hace años era
impensable. Se necesita un desarrollo a nivel microscópico para diseñar los microchips.
El primer computador que usó microchips fue un IBM lanzado en 1965, llamado serie 360.
Estas computadoras se consideran de la tercera generación de computadoras, y sustituyeron
por completo a las de segunda generación, introduciendo una manera de programar que aún
se mantiene en grandes computadoras de IBM.
Memoria RAM (Random Access Memory)
La Memoria de Acceso Aleatorio, o RAM (acrónimo inglés de Random Access Memory), es una
memoria de semiconductor, en la que se puede tanto leer como escribir información. Es una
memoria volátil, es decir, pierde su contenido al desconectarse de la electricidad.
La memoria RAM es el componente de almacenamiento más importante de un computador
actual, junto al disco duro. Con la llegada de los computadores de escritorio, había que idear
un sistema de almacenamiento que no ocupara espacio, pues los computadores de escritorio
se idearon para que cupiesen en una mesa de oficina. La memoria RAM se forma a partir de
microchips con entradas de memoria. La memoria es almacenada en esas entradas de manera
aleatoria, de ahí su nombre. La memoria RAM es uno de los componentes informáticos que
más ha evolucionado en los últimos veinte años. Si a finales de los 80 la capacidad de las
memorias RAM rondaban los 4 MB, ahora lo normal es comprarse un computador con al
menos 1024 MB, (1 GB). Normalmente se ha ido avanzando en una cantidad de MB igual a
potencias de 2. A mediados de los 90, con la llegada de Windows 95, los computadores
comenzaron a usar memorias de 16 MB de RAM, más tarde de 32, 64, 128... hasta los Pentium
4 y usando Windows XP, en donde se recomienda al menos 256 MB de RAM, aunque hoy en
día lo normal es que usen 1 gigabyte o más.
Disco duro
Es el medio de almacenamiento por excelencia. Desde que en 1.955 saliera el primer disco
duro hasta nuestros días, el disco duro o HDD ha tenido un gran desarrollo. Los discos duros
7. se emplean en computadores de escritorio, portátiles y unidades de almacenamiento de
manejo más complejo (Ej.: CEL<editar esto!). El disco duro es el componente que se encarga
de almacenar todos los datos que queremos. Mientras que la memoria RAM actúa como
memoria "de apoyo" (como variable que almacena y pierde información según se van
procesando datos), el disco duro almacena permanentemente la información que le metemos,
hasta que es borrado. Generalmente, lo primero que se graba en un disco duro es el sistema
operativo que vamos a usar en nuestro computador. Una vez tenemos instalado el sistema
operativo en el disco duro, podemos usar todos los programas que queramos que hayan
instalados, y toda la información que queramos guardar se almacenará en el disco duro. En el
disco duro almacenamos cualquier cosa, como documentos, imagen, sonido, programas,
vídeos, ficheros, etc.
Los discos duros también han evolucionado muchísimo en los últimos veinte años, sobre todo
ampliando su capacidad
El disco duro esta compuesto básicamente de:- Varios discos de metal magnetizado, que es
donde se guardan los datos.- Un motor que hace girar los discos.- Un conjunto de cabezales,
que son los que leen la información guardada en los discos.- Un electroimán que mueve los
cabezales.- Un circuito electrónico de control, que incluye el interface con el ordenador y la
memoria caché.- Una caja hermética (aunque no al vacío), que protege el conjunto.
Normalmente usan un sistema de grabación magnética analógica.
El número de discos depende de la capacidad del HDD y el de cabezales del numero de discos
x 2, ya que llevan un cabezal por cada cara de cada disco (4 discos = 8 caras = 8 cabezales).
Actualmente el tamaño estándar es de 3.5' de ancho para los HDD de PCS y de 2.5' para los
discos de ordenadores portátiles.
Dispositivos portátiles
Además de los dispositivos fijos que existen como componentes en una computadora, hay
otros que pueden introducirse y sacarse en cualquier computador. Estos sistemas son
realmente útiles para transportar información entre dos o más computadoras.
Disquete
También llamado disco flexible (floppy disk en inglés). A simple vista es una pieza cuadrada
de plástico, en cuyo interior se encuentra el disco. Es un disco circular flexible y magnético,
bastante frágil. Los disquetes se introducen en el computador mediante la disquetera.
En los años 80 gozaron de gran popularidad. Los programas informáticos y los videojuegos
para PC se distribuían en este formato. Ya que en aquella época los programas y juegos no
llegaban ni a 1 MB, cabían perfectamente en los disquetes. En su día existió un disquete
rectangular, y más tarde apareció el disquete de 3 1/2 pulgadas, el popular disquete
cuadrado. En los noventa, los programas comenzaron a ocupar más memoria, por lo que en
algunos casos se necesitaban varios disquetes para completar una instalación.
El disquete es un sistema de almacenamiento magnético, al igual que los casetes o los discos
duros, y aunque han gozado de gran popularidad desde los 80 hasta ahora, pero ya son
obsoletos. De hecho, algunos computadores ya salen de fábrica sin disquetera, pues los
disquetes se han quedado pequeños en cuanto a capacidad y velocidad. Teniendo en cuenta lo
que ocupan los programas actuales, un disquete hoy en día solo sirve para almacenar algunos
documentos de texto, imágenes y presentaciones.
CD-ROM
Es un disco compacto (del inglés: Compact Disc - Read Only Memory). Se trata de un disco
compacto (no flexible como los disquetes) óptico utilizado para almacenar información no
volátil, es decir, la información introducida en un CD en principio no se puede borrar. Una vez
un CD es escrito, no puede ser modificado, sólo leído (de ahí su nombre, Read Only Memory).
Un CD-ROM es un disco de plástico plano con información digital codificada en espiral desde
el centro hasta el borde. Fueron lanzados a mediados de los 80 por compañías de prestigio
como Sony y Philips. Microsoft y Apple fueron dos de las grandes compañías informáticas que
la utilizaron en sus comienzos. Es uno de los dispositivos de almacenamiento más utilizados.
8. De hecho, fue el sustituto de los casetes para almacenar música, y de los disquetes para
almacenar otro tipo de datos.
Hay varios tipos de CD-ROM. Los clásicos miden unos 12 centímetros de diámetro, y
generalmente pueden almacenar 650 o 700 MB de información. Sin embargo en los últimos
años también se han diseñado CD-ROMS con capacidades de 800 o 900 MB. Si tenemos en
cuenta la capacidad en minutos de música, serían 80 minutos los de 700 MB, por ejemplo.
También existen discos de 8 cm con menos capacidad, pero ideales para almacenar software
relativamente pequeño. Generalmente se utilizan para grabar software, drivers, etc. de
periféricos o similares, aunque también se usan para transportar datos normalmente como
los CD normales.
La principal ventaja del CD-ROM es su versatilidad, su comodidad de manejo, sus pequeñas
dimensiones (sobre todo de grosor). Sin embargo sus principal inconveniente es que no
pueden manipularse los datos almacenados en él. Con el fin de solucionar este problema
aparecieron los CD-RW, o CD regrabable. Sus características son idénticas a los CD normales,
pero con la peculiaridad de que pueden ser escritos tantas veces como se quiera. Los CD son
leídos por lectores de CD, que incluyen un láser que va leyendo datos desde el centro del
disco hasta el borde. El sistema es parecido al de las tarjetas perforadas. Mientras que una
tarjeta perforada es claramente visible sus agujeros, en un CD también se incluyen micro
perforaciones que son imperceptibles a simple vista, pues son microscópicas. A la hora de
escribir en un CD, se emplea el sistema binario con perforación o no perforación (ceros y
unos).
DVD
El crecimiento tecnológico en la informática es tal que incluso los CD se han quedado
pequeños. Si hace 10 años los disquetes se habían quedado pequeño y parecía que un CD era
algo demasiado "grande", algo ha cambiado, pues todas las aplicaciones, ya sean programas,
sistemas operativos o videojuegos, ocupan mucha más memoria. De los tradicionales 700 MB
de capacidad de un CD se pasaron a los 4,7 GB de un DVD. La primera ráfaga de ventas de
DVDs aparecieron para formato vídeo, para sustituir a los clásicos VHS. Las ventajas de los
DVD eran claras, a más capacidad, mejor calidad se puede almacenar. Y mejor se conservan
los datos, ya que las cintas magnéticas de los videocasetes eran fácilmente desgastables. Un
DVD es mucho más durarero, su calidad de imagen es mejor y también la calidad de sonido.
Las películas en DVD comenzaron a popularizarse a finales de los años 90.
Sin embargo en esos años aún los CD eran los más populares a nivel informático. Un
videojuego solía ocupar unos 600mb de instalación, con lo que fácilmente cabía en un CD.
Pero poco a poco los videojuegos y otros programas comenzaron a ocupar más, ya que
conforme va avanzando la tecnología de datos, gráficos, etc. más memoria se necesita.
Algunos videojuegos llegaban a ocupar 4 o 5 cds, lo que hacía muy incómodo su
manipulación. Finalmente se ha decidido por fin que aquellos programas que ocupen más
memoria de lo que cabe en un CD, sea almacenado en un DVD. Los DVD son más caros que los
CD, aunque poco a poco se están haciendo con el mercado. Quizás sean los sustitutos
definitivos de los CD, aunque por ahora estos últimos no están decayendo en absoluto. La
venta de CD vírgenes sigue siendo abrumadora. Sin embargo se ha disparado la venta de
DVD, pues cada vez más la gente empieza a grabar más datos y lógicamente se busca el
menor espacio posible. Y si en un DVD se pueden almacenar seis películas, mejor que usar
seis CD.
También existen los DVD-R, ya que al igual que los CD, el DVD normal es de sólo lectura. Pero
con la lección aprendida de los CD, se diseñaron los DVD regrabables. Además, hace unos
años que existen los DVD de doble capa. Este tipo de DVD siguen leyendo por una cara, pero
con doble capa de datos. Pero también existen DVD que se pueden leer por las dos caras. Los
hay de doble cara y una capa, pero si el DVD es de doble cara y doble capa por cada una, la
capacidad llega a los 17 GB. Sin embargo aún estos sistemas se utilizan mínimamente, son
muy caros, pero seguramente algún día sustituirán a los actuales CD.
Memoria USB
La memoria USB fue inventada en 1998 por IBM, pero no fue patentada por él. Su objetivo era
sustituir a los disquetes con mucha más capacidad y velocidad de transmisión de
datos.Aunque actualmente en un CD o DVD se puede almacenar memoria para luego borrarla
y manipularla, lo más cómodo y usado son las memorias USB. Son pequeños dispositivos del
tamaño de un mechero que actúan prácitamente igual que un disquete, pero con una
capacidad mucho mayor, que actualmente van desde los 64 mb a varios gigabytes. Su
principal ventaja es su pequeño tamaño, su resistencia (la memoria en sí está protegida por
9. una carcasa de plástico como un mechero) y su velocidad de transmisión, mucho más rápido
que los disquetes.
Actualmente está muy de moda este tipo de dispositivos, sobre todo entre jóvenes u
oficinistas, pues gracias a su reducido tamaño y forma puede colgarse como llavero por
ejemplo, y lo más importante, con el sistema operativo Windows XP, sólo hay que conectarlo
al computador y usarlo sin más complicaciones. Además existen otros aparatos como los
reproductores de MP3 que utilizan las mismas características. Pueden almacenar cualquier
tipo de dato, pero su principal característica es que los ficheros de música en formato mp3 y
wma sobre todo, son reconocidos y procesados para ser escuchados a través de unos
auriculares conectados al aparato. Esto es pues, un sustituto del walkman. Pero además cada
vez están apareciendo nuevos diseños que son capaces de almacenar ya decenas de
gigabytes (miles de canciones) y también vídeo, que con una pequeña pantalla pueden ser
visualizados.
HISTORIA Y EVOLUCION DE LAS IMPRESORAS
La impresora es un periférico que le permite realizar una impresión (en papel) de datos
electrónicos.
Existen varias tecnologías de impresoras, siendo las más comunes:
• la impresora margarita
• la impresora matriz de punto (también llamada impresora matriz de impacto).
• la impresora de inyección de tinta y la impresora Bubble Jet</a>
• la impresora láser
Actualmente, las impresoras margarita y las de matriz ya casi no se utilizan.
Características
La impresora generalmente se caracteriza por los siguientes elementos:
Velocidad de impresión: expresada en páginas por minuto (ppm), la velocidad de impresión
representa la capacidad de la impresora para imprimir un gran número de páginas por
minuto. Para impresoras a color, generalmente se realiza la distinción entre la velocidad de
impresión monocromática y a color.
Resolución: expresada en puntos por pulgada (abreviado dpi), resolución significa la nitidez
del texto impreso. A veces, la resolución resulta diferente para una impresión monocromática,
a color o de foto.
Tiempo de calentamiento: el tiempo de espera necesario antes de realizar la primera
impresión. Efectivamente, una impresora no puede imprimir cuando está "fría". Debe alcanzar
una cierta temperatura para que funcione en forma óptima.
Memoria integrada: la cantidad de memoria que le permite a la impresora almacenar trabajos
de impresión. Cuanto más grande sea la memoria, más larga podrá ser la cola de la
impresora.
Formato de papel: según su tamaño, las impresoras pueden aceptar documentos de
diferentes tamaños, por lo general aquellos en formato A4 (21 x 29,7 cm.), y con menos
frecuencia, A3 (29,7 x 42 cm.). Algunas impresoras permiten imprimir en diferentes tipos de
medio, tales como CD o DVD.
Carga de papel: el método para cargar papel en la impresora y que se caracteriza por el modo
en que se almacena el papel en blanco. La carga de papel suele variar según el lugar donde se
ubique la impresora (se aconseja la carga posterior para impresoras que estarán contra una
pared).* Los principales modos de carga de papel son:
La bandeja de alimentación, que utiliza una fuente interna de alimentación de papel. Su
capacidad es igual a la cantidad máxima de hojas de papel que la bandeja puede contener.
10. El alimentador de papel es un método de alimentación manual que permite insertar hojas de
papel en pequeñas cantidades (aproximadamente 100). El alimentador de papel en la parte
posterior de la impresora puede ser horizontal o vertical.
Cartuchos: los cartuchos raramente son estándar y dependen en gran medida de la marca y
del modelo de la impresora. Algunos fabricantes prefieren los cartuchos de colores múltiples
mientras que otros ofrecen cartuchos de tinta separados. Los cartuchos de tinta separados
son más económicos porque a menudo se utiliza un color más que otro.
Resulta interesante examinar el costo de impresión por hoja. El tamaño de gota de tinta es
especialmente importante. Cuanto más pequeña sea la gota de tinta, más bajo será el costo
de impresión y mejor la calidad de la imagen. Algunas impresoras pueden producir gotas que
son de 1 ó 2 picolitros.
Interfaz: cómo se conecta la impresora al equipo. Las principales interfaces son:
USB
Paralelo
Red: este tipo de interfaz permite que varios equipos compartan una misma impresora.
También existen impresoras WiFi disponibles a través de una red inalámbrica.
Impresora margarita
Las impresoras margarita se basan en el principio de las máquinas de escribir. Una matriz en
forma de margarita contiene "pétalos" y cada uno de éstos posee un carácter en relieve. Para
imprimir el texto, se ubica una cinta impregnado de tinta entre la margarita y la hoja de
papel. Cuando la matriz golpea la cinta, ésta deposita tinta sobre el papel con la forma del
carácter en el pétalo.
Estas impresoras se han vuelto obsoletas porque son extremadamente ruidosas y lentas.
Impresora matriz de punto
La impresora matriz de punto (llamada algunas veces impresora de matriz o impresora de
impacto) permite la impresión de documentos sobre papel gracias al movimiento "hacia atrás
y hacia adelante" de un carro que contiene un cabezal de impresión.
El cabezal se compone de pequeñas agujas metálicas, accionadas por electroimanes, que
golpean una cinta de carbón llamada "cinta entintada", ubicada entre el cabezal y el papel.
La cinta de carbón se desenrolla para que siempre haya tinta sobre ella. Al finalizar cada
línea, un rodillo permite que la hoja avance.
11. Las impresoras matriz de punto más recientes está equipadas con cabezales de 24 agujas,
que permiten imprimir con una resolución de 216 dpi (puntos por pulgada).
Impresora a chorro de tinta y Bubble Jet
La tecnología de impresora a chorro de tinta fue inventada originalmente por Canon. Se basa
en el principio de que un fluido caliente produce burbujas.
El investigador que descubrió esto había puesto accidentalmente en contacto una jeringa
llena de tinta con un soldador eléctrico. Esto creó una burbuja en la jeringa que hizo que la
tinta saliera despedida de la jeringa.
Actualmente, los cabezales de impresoras están hechos de varios inyectores (hasta 256),
equivalentes a varias jeringas, calentadas a una temperatura de entre 300 y 400°C varias
veces por segundo.
Cada inyector produce una pequeña burbuja que sale eyectada como una gota muy fina. El
vacío causado por la disminución de la presión crea a su vez una nueva burbuja.
Generalmente, se efectúa una distinción entre las dos tecnologías diferentes:
• Las impresoras a chorro de tinta utilizan inyectores que poseen su propio elemento de
calentamiento incorporado. En este caso se utiliza tecnología térmica.
• Las impresoras Bubble Jet utilizan inyectores que tienen tecnología piezoeléctrica.
Cada inyector trabaja con un cristal piezoeléctrico que se deforma al ser estimulado
por su frecuencia de resonancia y termina eyectando una burbuja de tinta.
Impresora láser
La impresora láser permite obtener impresiones de calidad a bajo costo y a una velocidad de
impresión relativamente alta. Sin embargo, estas impresoras suelen utilizarse mayormente en
ambientes profesionales y semiprofesionales ya que su costo resulta elevado.
Las impresoras láser utilizan una tecnología similar a la de las fotocopiadoras. Una impresora
láser está compuesta principalmente por un tambor fotosensible con carga electrostática
mediante la cual atrae la tinta para hacer una forma que se depositará luego en la hoja de
papel.
Cómo funciona: un rodillo de carga principal carga positivamente las hojas. El láser carga
positivamente ciertos puntos del tambor gracias a un espejo giratorio. Luego se deposita la
12. tinta con carga negativa en forma de polvo (tóner) en las distintas partes del tambor que el
láser cargó previamente.
Al girar, el tambor deposita la tinta sobre el papel. Un alambre calentado (llamado corona de
transferencia) permite finalmente la adhesión de la tinta en el papel.
Dado que la impresora láser no tiene cabezales mecánicos, resulta rápida y silenciosa.
Existen dos tipos diferentes de tecnología de impresora láser: "carrusel" (cuatro pasadas) o
"tándem" (una pasada).
Carrusel: con la tecnología de carrusel, la impresora efectúa cuatro pasadas sobre el papel
para imprimir un documento (una por cada color primario y una para el negro, lo que en
teoría hace que la impresión a color sea cuatro veces más lenta que en negro).
Tándem: una impresora láser que utiliza tecnología "tándem" deposita cada color en una sola
pasada. Los tóners se depositan simultáneamente. La salida es igual de rápida cuando se
imprime a color como cuando se imprime en negro. Sin embargo, esta tecnología resulta más
costosa ya que los mecanismos son más complejos. Por lo tanto, se suele utilizar en
impresoras láser a color de mediana o alta calidad.
Impresora LED
Otra tecnología de impresión compite con las impresoras láser: la tecnología LED (diodo
emisor de luz). Con esta tecnología, un cabezal de impresión con diodos electroluminiscentes
polariza el tambor con un rayo de luz muy fino, permitiendo la obtención de puntos muy
diminutos. Esta tecnología es particularmente útil para obtener una alta resolución (600,
1.200 ó 2.400 dpi).
Teniendo en cuenta que cada diodo representa un punto, la velocidad de impresión termina
afectando mínimamente la resolución. Además, esta tecnología carece de piezas móviles, lo
que permite el diseño de impresoras menos costosas, más sólidas y más fiables.
Lenguaje de comandos de la impresora
El lenguaje de descripción de páginas es el lenguaje estándar que utilizan los equipos para
comunicarse con las impresoras. En efecto, una impresora debe poder interpretar la
información que un equipo le está enviando.
Los dos lenguajes de descripción de página principales son:
Lenguaje de comandos de la impresora (PCL): un lenguaje conformado por secuencias
binarias. Los caracteres se transmiten según su código ASCII.
Lenguaje PostScript: este lenguaje, utilizado inicialmente por Apple LaserWriters, se ha
convertido en el estándar de los lenguajes de descripción de páginas. Es un lenguaje en sí
mismo que se basa en un conjunto de instrucciones
El teclado
13. Un teclado es un periférico o dispositivo que permite ingresar información, tiene entre 99 y
108 teclas aproximadamente, esta dividido en 4 bloques:
1. Bloque de funciones: Va desde la tecla F1 a F12, en tres bloques de cuatro: de F1 a F4, de
F5 a F8 y de F9 a F12. Funcionan de acuerdo al programa que este abierto. Ej. al presionar la
tecla F1 permite en los programas de Microsoft acceder a la ayuda.
2. Bloque alfanumérico: Está ubicado en la parte inferior del bloque de funciones, contiene los
números arábigos del 1 al 0 y el alfabeto organizado como en una máquina de escribir,
además de algunas teclas especiales.
3. Bloque especial: Está ubicado a la derecha del bloque alfanumérico, contiene algunas teclas
especiales como Imp Pant, Bloq de desplazamiento, pausa, inicio, fin, insertar, suprimir,
Repag, Avpag y las flechas direccionales que permiten mover el punto de inserción en las
cuatro direcciones.
4. Bloque numérico: Está ubicado a la derecha del bloque especial, se activa cuando al
presionar la tecla Bloq Num, contiene los números arábigos organizados como en una
calculadora con el fin de facilitar la digitacion de cifras, además contiene los signos de las
cuatro operaciones básicas como suma +, resta -, multiplicación * y division /, también
contiene una tecla de Intro o enter para ingresar las cifras.
Teclado de un terminal CT-1024
Teclado integrado de un Apple Inc Plus
Teclado integrado de un Sinclair ZX Spectrum.
14. Terminal de computadora TeleVideo 925
Teclado ajustable de Apple.
Teclado PC inalámbrico
Disposición de las teclas [editar]
La disposición de las teclas se remonta a las primeras máquinas de escribir, las cuales eran
enteramente mecánicas. Al pulsar una letra en el teclado, se movía un pequeño martillo
mecánico, que golpeaba el papel a través de una cinta impregnada en tinta. Al escribir con
varios dedos de forma rápida, los martillos no tenían tiempo de volver a su posición por la
frecuencia con la que cada letra aparecía en un texto. De esta manera la pulsación era más
lenta con el fin de que los martillos se atascaran con menor frecuencia[cita requerida]
.
Sobre la distribución de los caracteres en el teclado surgieron dos variantes principales: la
francesa AZERTY y la alemana QWERTY. Ambas se basaban en cambios en la disposición
según las teclas más frecuentemente usadas en cada idioma. A los teclados en su versión
para el idioma español además de la Ñ, se les añadieron los caracteres de acento agudo (´),
grave (`) y circunflejo (^)), además de la cedilla (Ç) aunque estos caracteres son de mayor
uso en francés, portugués o en catalán.
Cuando aparecieron las máquinas de escribir eléctricas, y después los ordenadores, con sus
teclados también eléctricos, se consideró seriamente modificar la distribución de las letras en
los teclados, colocando las letras más corrientes en la zona central; es el caso del Teclado
Simplificado Dvorak. El nuevo teclado ya estaba diseñado y los fabricantes preparados para
iniciar la fabricación. Sin embargo, el proyecto se canceló debido al temor de que los usuarios
tuvieran excesivas incomodidades para habituarse al nuevo teclado, y que ello perjudicara la
introducción de las computadoras personales, que por aquel entonces se encontraban en
pleno auge.
15. Teclado QWERTY de 102 teclas con distribución Inglés de Estados Unidos
Primeros teclado
Además de teletipos y máquinas de escribir eléctricas como la IBM Selectric, los primeros
teclados solían ser un terminal de computadora que se comunicaba por puerto serial con la
computadora. Además de las normas de teletipo, se designó un estándar de comunicación
serie, segun el tiempo de uso basado en el juego de caracteres ANSI, que hoy sigue presente
en las comunicaciones por módem y con impresora (las primeras computadoras carecían de
monitor, por lo que solían comunicarse, o bien por luces en su panel de control, o bien
enviando la respuesta a un dispositivo de impresión). Se usaba para ellos las secuencias de
escape, que se generaban o bien por teclas dedicadas, o bien por combinaciones de teclas,
siendo una de las más usadas la tecla Control.
La llegada de la computadora doméstica trae una inmensa variedad de teclados y de
tecnologías y calidades (desde los muy reputados por duraderos del Dragon 32 a la fragilidad
de las membranas de los equipos Sinclair), aunque la mayoría de equipos incorporan la placa
madre bajo el teclado, y es la CPU o un circuito auxiliar (como el chip de sonido General
Instrument AY-3-8910 en los MSX) el encargado de leerlo. Son casos contados los que
recurren o soportan comunicación serial (curiosamente es la tecnología utilizada en el Sinclair
Spectrum 128 para el keypad numérico). Sólo los MSX establecerán una norma sobre el
teclado, y los diferentes clones del Apple II y el TRS-80 seguirán el diseño del clonado.
Uno de los teclados más modernos, fue diseñado por una ama de casa llamada Diamea Stuart
Medrid Aflory, de Rusia. Ella empezó a dibujar muchos tipos de teclados en un cuaderno de
dibujo que tenía. Un día cuando unos inspectores investigaban su casa en contraron estos
dibujos y los mandaron a USA. Este fue el teclado ajustable de Apple.
Generación 16 bits
Mientras que el teclado del IBM PC y la primera versión del IBM AT no tuvo influencia más allá
de los clónicos PC, el Multifunción II (o teclado extendido AT de 101/102 teclas) aparecido en
1987 refleja y estandariza de facto el teclado moderno con cuatro bloques diferenciados : un
bloque alfanumérico con al menos una tecla a cada lado de la barra espaciadora para acceder
a símbolos adicionales; sobre él una hilera de 10 o 12 teclas de función; a la derecha un
teclado numérico, y entre ambos grandes bloques, las teclas de cursor y sobre ellas varias
teclas de edición. Con algunas variantes este será el esquema usado por los Atari ST, los
Commodore Amiga (desde el Commodore Amiga 500), los Sharp X68000, las estaciones de
trabajo SUN y Silicon Graphics y los Acorn Archimedes/Acorn RISC PC. Sólo los Mac siguen
con el esquema bloque alfanumérico + bloque numérico, pero también producen teclados
extendidos AT, sobre todo para los modelos con emulación PC por hardware.
Mención especial merece la serie 55 de teclados IBM, que ganaron a pulso la fama de
"indestructibles", pues tras más de 10 años de uso continuo en entornos como las
aseguradoras o la administración pública seguían funcionando como el primer día. [Cita requerida]
Con la aparición del conector PS/2, varios fabricantes de equipos no PC proceden a
incorporarlo en sus equipos. Microsoft, además de hacerse un hueco en la gama de calidad
alta, y de presentar avances ergonómicos como el Microsoft Natural Keyboard, añade 3
nuevas teclas tras del lanzamiento de Windows 95. A la vez se generalizan los teclados
multimedia que añaden teclas para controlar en el PC el volumen, el lector de CD-ROM o el
navegador, incorporan en el teclado altavoces, calculadora, almohadilla sensible al tacto o
bola trazadora.
16. Teclados con USB
Aunque los teclados USB comienzan a verse al poco de definirse el estándar USB, es con la
aparición del Apple iMac, que trae tanto teclado como mouse USB de serie cuando se
estandariza el soporte de este tipo de teclado. Además tiene la ventaja de hacerlo
independiente del hardware al que se conecta. El estándar define scancodes de 16 bits que se
transmiten por la interfaz. Del 0 al 3 son códigos de error del protocolo, llamados NoEvent,
ErrorRollOver, POSTFail, ErrorUndefined, respectivamente. Del 224 al 231 se reservan para
las teclas modificadoras (LCtrl, LShift, LAlt, LGUI, RCtrl, RShift, RAlt, RGUI)
Existen distintas disposiciones de teclado, para que se puedan utilizar en diversos lenguajes.
El tipo estándar de teclado inglés se conoce como QWERTY. Denominación de los teclados de
computadora y máquinas de escribir que se utilizan habitualmente en los países occidentales,
con alfabeto latino. Las siglas corresponden a las primeras letras del teclado, comenzando por
la izquierda en la fila superior. El teclado en español o su variante latinoamericana son
teclados QWERTY que se diferencian del inglés por presentar la letra "ñ" y "Ñ" en su
distribución de teclas.
Se han sugerido distintas alternativas a la disposición de teclado QWERTY, indicando ventajas
tales como mayores velocidades de tecleado. La alternativa más famosa es el Teclado
Simplificado Dvorak.
Sólo las teclas etiquetadas con una letra en mayúscula pueden ofrecer ambos tipos:
mayúsculas y minúsculas. Para teclear un símbolo que se encuentra en la parte superior
izquierda de una tecla, se emplea la tecla mayúscula, etiquetada como "↑". Para teclear un
símbolo que se encuentra en la parte inferior derecha de una tecla, se emplea la tecla Alt.-Gr.
Teclas inertes
Algunas lenguas incluyen caracteres adicionales al teclado inglés, como los caracteres
acentuados. Teclear los caracteres acentuados resulta más sencillo usando las teclas inertes.
Cuando se utiliza una de estas teclas, si se presiona la tecla correspondiente al acento
deseado nada ocurre en la pantalla, por lo que, a continuación se debe presionar la tecla del
carácter a acentuar. Esta combinación de teclas requiere que se teclee una secuencia
aceptable. Por ejemplo, si se presiona la tecla inerte del acento (ej. ´) seguido de la letra A,
obtendrá una "a" acentuada (á). Sin embargo, si se presiona una tecla inerte y a continuación
la tecla T, no aparecerá nada en la pantalla o aparecerán los dos caracteres por separado (´t),
a menos que la fuente particular para su idioma incluya la "t" acentuada.
Para teclear una marca de acento diacrítico, simplemente se presiona la tecla inerte del
acento, seguida de la barra de espacio.
Tipos de teclado [editar]
Hubo y hay muchos teclados diferentes, dependiendo del idioma, fabricante… IBM ha
soportado tres tipos de teclado: el XT, el AT y el MF-II.
El primero (1981) de éstos tenía 83 teclas, usaban es Scan Code set1, unidireccionales y no
eran muy ergonómicos, ahora está obsoleto.
Más tarde (1984) apareció el teclado PC/AT con 84 teclas (una más al lado de SHIFT IZQ), ya
es bidireccional, usa el Scan Code set 2 y al igual que el anterior cuenta con un conector DIN
de 5 pines.
En 1987 IBM desarrolló el MF-II (Multifunción II o teclado extendido) a partir del AT. Sus
características son que usa el mismo interfaz que el AT, añade muchas teclas más, se ponen
leds y soporta el Scan Code set 3, aunque usa por defecto el 2. De este tipo hay dos versiones,
la americana con 101 teclas y la europea con 102.
Los teclados PS/2 son básicamente iguales a los MF-II. Las únicas diferencias son el conector
mini-DIN de 6 pines (más pequeño que el AT) y más comandos, pero la comunicación es la
misma, usan el protocolo AT. Incluso los ratones PS/2 usan el mismo protocolo.
Hoy en día existen también los teclados en pantalla, también llamados teclados virtuales, que
son (como su mismo nombre indica) teclados representados en la pantalla, que se utilizan
con el ratón o con un dispositivo especial (podría ser un joystick). Estos teclados lo utilizan
personas con discapacidades que les impiden utilizar adecuadamente un teclado físico.
17. Actualmente la denominación AT ó PS/2 sólo se refiere al conector porque hay una gran
diversidad de ellos.
Estructura
Un teclado realiza sus funciones mediante un microcontrolador. Estos microcontroladores
tienen un programa instalado para su funcionamiento, estos mismos programas son
ejecutados y realizan la exploración matricial de las teclas cuando se presiona alguna, y así
determinar cuales están pulsadas.
Para lograr un sistema flexible los microcontroladores no identifican cada tecla con su
carácter serigrafiado en la misma sino que se adjudica un valor numérico a cada una de ellas
que sólo tiene que ver con su posición física.El teclado latinoamericano sólo da soporte con
teclas directas a los caracteres específicos del castellano, que incluyen dos tipos de acento, la
letra eñe y los signos de exclamación e interrogación. El resto de combinaciones de acentos
se obtienen usando una tecla de extensión de grafismos.Por lo demás el teclado
latinoamericano está orientado hacia la programación, con fácil acceso al juego de símbolos
de la norma ASCII.
Por cada pulsación o liberación de una tecla el microcontrolador envía un código identificativo
que se llama Scan Code. Para permitir que varias teclas sean pulsadas simultáneamente, el
teclado genera un código diferente cuando una tecla se pulsa y cuando dicha tecla se libera.
Si el microcontrolador nota que ha cesado la pulsación de la tecla, el nuevo código generado
(Break Code) tendrá un valor de pulsación incrementado en 128. Estos códigos son enviados
al circuito microcontrolador donde serán tratados gracias al administrador de teclado, que no
es más que un programa de labios y que determina qué carácter le corresponde a la tecla
pulsada comparándolo con una tabla de caracteres que hay en el kernel, generando una
interrupción por hardware y enviando los datos al procesador. El microcontrolador también
posee cierto espacio de memoria RAM que hace que sea capaz de almacenar las últimas
pulsaciones en caso de que no se puedan leer a causa de la velocidad de tecleo del usuario.
Hay que tener en cuenta, que cuando realizamos una pulsación se pueden producir rebotes
que duplican la señal. Con el fin de eliminarlos, el teclado también dispone de un circuito que
limpia la señal.
En los teclados AT los códigos generados son diferentes, por lo que por razones de
compatibilidad es necesario traducirlos. De esta función se encarga el controlador de teclado
que es otro microcontrolador (normalmente el 8042), éste ya situado en el PC. Este
controlador recibe el Código de Búsqueda del Teclado (Kscan Code) y genera el propiamente
dicho Código de Búsqueda. La comunicación del teclado es vía serie. El protocolo de
comunicación es bidireccional, por lo que el servidor puede enviarle comandos al teclado para
configurarlo, reiniciarlo, diagnósticos, etc.
Disposición del teclado
La disposición del teclado es la distribución de las teclas del teclado de una computadora, una
máquina de escribir u otro dispositivo similar.
Existen distintas distribuciones de teclado, creadas para usuarios de idiomas diferentes. El
teclado estándar en español corresponde al diseño llamado QWERTY. Una variación de este
mismo es utilizado por los usuarios de lengua inglesa. Para algunos idiomas se han
desarrollado teclados que pretenden ser más cómodos que el QWERTY, por ejemplo el Teclado
Dvorak.
Las computadoras modernas permiten utilizar las distribuciones de teclado de varios idiomas
distintos en un teclado que físicamente corresponde a un solo idioma. En el sistema operativo
Windows, por ejemplo, pueden instalarse distribuciones adicionales desde el Panel de
Control.
Existen programas como Microsoft Keyboard Layout Creator1
y KbdEdit,2
que hacen muy fácil
la tarea de crear nuevas distribuciones, ya para satisfacer las necesidades particulares de un
usuario, ya para resolver problemas que afectan a todo un grupo lingüístico. Estas
distribuciones pueden ser modificaciones a otras previamente existentes (como el teclado
latinoamericano extendido3
o el gaélico4
), o pueden ser enteramente nuevas (como la
distribución para el Alfabeto Fonético Internacional,5
o el panibérico6
).
A primera vista en un teclado podemos notar una división de teclas, tanto por la
18. diferenciación de sus colores, como por su distribución. Las teclas grisáceas sirven para
distinguirse de las demás por ser teclas especiales (borrado, teclas de función, tabulación,
tecla del sistema…). Si nos fijamos en su distribución vemos que están agrupadas en cuatro
grupos:
Teclas de función: situadas en la primera fila de los teclados. Combinadas con otras teclas,
nos proporcionan acceso directo a algunas funciones del programa en ejecución.
Teclas de edición: sirven para mover el cursor por la pantalla.
Teclas alfanuméricas: son las más usadas. Su distribución suele ser la de los teclados
QWERTY, por herencia de la distribución de las máquinas de escribir. Reciben este nombre
por ser la primera fila de teclas, y su orden es debido a que cuando estaban organizadas
alfabéticamente la máquina tendía a engancharse, y a base de probar combinaciones llegaron
a la conclusión de que así es como menos problemas daban. A pesar de todo esto, se ha
comprobado que hay una distribución mucho más cómoda y sencilla, llamada Dvorak, pero en
desuso debido sobre todo a la incompatibilidad con la mayoría de los programas que usamos.
Bloque numérico: situado a la derecha del teclado. Comprende los dígitos del sistema decimal
y los símbolos de algunas operaciones aritméticas. Añade también la tecla especial Bloc num.,
que sirve para cambiar el valor de algunas teclas para pasar de valor numérico a
desplazamiento de cursor en la pantalla. el teclado numérico también es similar al de un
calculadora cuenta con las 4 operaciones básicas que son + (suma), - (resta), *
(multiplicación) y / (división).
Clasificación de teclados de computadoras
En el mercado hay una gran variedad de teclados. A la hora de estudiarlos podemos
clasificarlos en dos grupos:
Según su forma física:
Teclado XT de 83 teclas: se usaba en el PC XT (8086/88).
Teclado AT de 83 teclas: usado con los PC AT (286/386).
Teclado expandido de 101/102 teclas: es el teclado actual, con un mayor número de teclas.
Teclado Windows de 103/104 teclas: el teclado anterior con 3 teclas adicionales para uso en
Windows.
Teclado ergonómico: diseñados para dar una mayor comodidad para el usuario, ayudándole a
tener una posición más relajada de los brazos.
Teclado multimedia: añade teclas especiales que llaman a algunos programas en el
computador, a modo de acceso directo, como pueden ser el programa de correo electrónico, la
calculadora, el reproductor multimedia…
Teclado inalámbrico: suelen ser teclados comunes donde la comunicación entre el
computador y el periférico se realiza a través de rayos infrarrojos, ondas de radio o mediante
bluetooth.
Teclado flexible: Estos teclados son de plástico suave o silicona que se puede doblar sobre sí
mismo. Durante su uso, estos teclados pueden adaptarse a superficies irregulares, y son más
resistentes a los líquidos que los teclados estándar. Estos también pueden ser conectados a
dispositivos portátiles y teléfonos inteligentes. Algunos modelos pueden ser completamente
sumergidos en agua, por lo que hospitales y laboratorios los usan, ya que pueden ser
desinfectados.7
Según la tecnología de sus teclas se pueden clasificar como teclados de cúpula de goma,
teclados de membrana: teclados capacitativos y teclados de contacto metálico.
CLASIFICACION SEGÚN ESTANDARES DE MONITORES
19. Según los estándares de monitores se pueden clasificar en varias
categorías. Todos han ido evolucionando con el objetivo de ofrecer
mayores prestaciones, definiciones y mejorar la calidad de las imágenes.
Monitores MDA:
Los monitores MDA por sus siglas en inglés “Monochrome Display Adapter” surgieron en el
año 1981. Junto con la tarjeta CGA de IBM. Los MDA conocidos popularmente por los
monitores monocromáticos solo ofrecían textos, no incorporaban modos gráficos.
Este tipo de monitores se caracterizaban por tener un único color
principalmente verde. El mismo creaba irritación en los ojos de sus
usuarios.
Características:
Sin modo gráfico.
Resolución 720_350 píxeles.
Soporte de texto monocromático.
No soporta gráfico ni colores.
La tarjeta gráfica cuenta con una memoria de vídeo de 4 KB.
Soporta subrayado, negrita, cursiva, normal, invisibilidad para textos.
Monitor CGA:
Los monitores CGA por
sus siglas en inglés “Color Graphics Adapter” o “Adaptador de Gráficos
en Color” en español. Este tipo de monitores fueron comercializados a
partir del año 1981, cuando se desarrollo la primera tarjeta gráfica
conjuntamente con un estándar de IBM.
A pesar del lanzamiento de este nuevo monitor los compradores de PC
seguían optando por los monitores MDA, ambos fueron lanzados al mercado
en el mismo año existiendo competencia entre ellos. CGA fue el primero
en contener sistema gráfico a color.
Características:
20. • Resoluciones 160_200, 320×200, 640×200 píxeles.
• Soporte de gráfico a color.
• Diseñado principalmente para juegos de computadoras.
• La tarjeta gráfica contenía 16 KB de memoria de vídeo.
Monitor EGA:
Por
sus siglas en inglés “Enhanced Graphics Adapter”, es un estándar
desarrollado IBM para la visualización de gráficos, creado en 1984.
Este nuevo monitor incorporaba una mayor amplitud de colores y
resolución.
EGA incorporaba mejoras con respecto al anterior CGA. Años después también sería sustituido
por un monitor de mayores características.
Características:
• Resolución de 640_350 píxeles.
• Soporte para 16 colores.
• La tarjeta gráfica EGA estándar traían 64 KB de memoria de vídeo.
Monitor VGA:
Los
monitores VGA por sus siglas en inglés “Video Graphics Array”, fue
lanzado en 1987 por IBM. A partir del lanzamiento de los monitores VGA,
los monitores anteriores empezaban a quedar obsoletos. El VGA
incorporaba modo 256 con altas resoluciones.
Por el desarrollo alcanzado hasta la fecha, incluidas en las
tarjetas gráficas, los monitores anteriores no son compatibles a los
VGA, estos incorporan señales analógicas.
Características:
Soporte de 720×400 píxeles en modo texto.
Soporte de 640×480 píxeles en modo gráfico con 16 colores.
21. Soporte de 320×200 píxeles en modo gráfico con 256 colores.
Las tarjetas gráficas VGA estándares incorporaban 256 KB de memoria de vídeo.
Monitor SVGA:
SVGA
denominado por sus siglas en inglés “Super Video Graphics Array”,
también conocidos por “Súper VGA”. Estos tipos de monitores y
estándares fueron desarrollados para eliminar incompatibilidades y
crear nuevas mejoras de su antecesor VGA.
SVGA fue lanzado en 1989, diseñado para brindar mayores resoluciones
que el VGA. Este estándar cuenta con varias versiones, los cuales
soportan diferentes resoluciones.
Características:
Resolución de 800×600, 1024_768 píxeles y superiores.
Para este nuevo monitor se desarrollaron diferentes modelos de tarjetas gráficas como: ATI,
GeForce, NVIDIA, entre otros.
Clasificación según tecnología de monitores
En cuanto al tipo de tecnología los monitores se pueden clasificar
en varios aspectos. Estas evoluciones de la tecnología han sido
llevadas a cabo en parte por el ahorro de energía, tamaño y por brindar
un nuevo producto en el mercado.
Monitores CRT:
Está
basado en un Tubo de Rayos Catódicos, en inglés “Cathode Ray Tube”. Es
el más conocido, fue desarrollado en 1987 por Karl Ferdinand Braun.
Utilizado principalmente en televisores, ordenadores, entre otros.
Para lograr la calidad que hoy cuentan, estos pasaron por diferentes
modificaciones y que en la actualidad también se realizan.
Funcionamiento:
22. Dibuja una imagen barriendo una señal eléctrica horizontalmente a lo
largo de la pantalla, una línea por vez. La amplitud de dicha señal en
el tiempo representa el brillo instantáneo en ese punto de la pantalla.
Una amplitud nula, indica que el punto de la pantalla que se marca
en ese instante no tendrá representando un píxel negro. Una amplitud
máxima determina que ese punto tendrá el máximo brillo.
Ventajas:
Excelente calidad de imagen (definición, contraste, luminosidad).
Económico.
Tecnología robusta.
Resolución de alta calidad.
Desventajas:
Presenta parpadeo por el refrescado de imagen.
Consumo de energía.
Generación de calor.
Generación de radiaciones eléctricas y magnéticas.
Alto peso y tamaño.
Pantallas LCD:
A
este tipo de tecnología se le conoce por el nombre de pantalla o
display LCD, sus siglas en inglés significan “Liquid Crystal Display” o
“Pantalla de Cristal Líquido” en español. Este dispositivo fue
inventado por Jack Janning.
Estas pantallas son incluidas en los ordenadores portátiles, cámaras fotográficas, entre otros.
Funcionamiento:
El funcionamiento de estas pantallas se fundamenta en sustancias que comparten las
propiedades de sólidos y líquidos a la vez.
Cuando un rayo de luz atraviesa una partícula de estas sustancias
tiene necesariamente que seguir el espacio vacío que hay entre sus
moléculas como lo haría atravesar un cristal sólido pero a cada una de
estas partículas se le puede aplicar una corriente eléctrica que cambie
su polarización dejando pasar la luz o no.
Una pantalla LCD esta formada por 2 filtros polarizados colocados
perpendicularmente de manera que al aplicar una corriente eléctrica
deja pasar o no la luz. Para conseguir el color es necesario aplicar
tres filtros más para cada uno de los colores básicos rojo, verde y
azul.
Para la reproducción de varias tonalidades de color se deben aplicar
23. diferentes niveles de brillo intermedios entre luz y no luz lo cual se
consigue con variaciones en el voltaje que se aplica a los filtros.
Ventajas:
Poco peso y tamaño.
Buena calidad de colores.
No contiene parpadeo.
Poco consume de energía.
Poca generación de calor.
No genera radiaciones eléctricas y magnéticas.
Desventajas:
• Alto costo.
• Angulo limitado de visibilidad.
• Brillo limitado.
• Bajo tiempo de respuesta de píxeles.
• Contiene mercurio.
Pantallas Plasma:
La pantalla de plasma fue desarrollada en la Universidad de Illinois por
Donald L. Bitzer y H. Gene Slottow.
Originalmente los paneles eran monocromáticos. En 1995 Larry Weber
logró crear la pantalla de plasma de color. Este tipo de pantalla entre
sus principales ventajas se encuentran una la mayor resolución y ángulo
de visibilidad.
Funcionamiento:
El principio de funcionamiento de una pantalla de plasma consiste en
iluminar pequeñas luces fluorescentes de colores para conformar una
imagen. Las pantallas de plasma funcionan como las lámparas
fluorescentes, en que cada píxel es semejante a un pequeño foco
coloreado.
Cada uno de los píxeles que integran la pantalla está formado por
una pequeña celda estanca que contiene un gas inerte (generalmente neón
o xenón). Al aplicar una diferencia de potencial entre los electrodos
de la celda, dicho gas pasa al estado de plasma.
El gas así cargado emite radiación ultravioleta (UV) que golpea y
excita el material fosforescente que recubre el interior de la celda.
24. Cuando el material fosforescente regresa a su estado energético
natural, emite luz visible.
Ventajas:
• Excelente brillo.
• Alta resolución.
• Amplio ángulo de visión.
• No contiene mercurio.
• Tamaño de pantalla elevado.
Desventajas:
• Vida útil corta.
• Coste de fabricación elevado, superior a los LCD.
• Consumo de electricidad elevado.
• Poca pureza del color.
• Consumo energético y emisión de calor elevada.
¿Qué es la resolución de pantalla?
Se denomina al número de píxeles (o máxima resolución de imagen) que
puede ser mostrada en la pantalla. Viene dada por el producto de las
columnas (”X”), el cual se coloca al principio y el número de filas
(”Y”) con el que se obtiene una razón. Por ejemplo podemos encontrar:
Los monitores han evolucionado conjuntamente con las tarjetas de
vídeos. La necesidad de mostrar resoluciones mayores, con alta calidad
de colores, ha llevado día a día a su desarrollo.
Ratón
25. Ratón con cable y rueda.
Ratón para videojugadores.
El ratón o mouse (del inglés, pronunciado [maʊs]) es un dispositivo apuntador usado para
facilitar el manejo de un entorno gráfico en un computador. Generalmente está fabricado en
plástico y se utiliza con una de las manos. Detecta su movimiento relativo en dos dimensiones
por la superficie plana en la que se apoya, reflejándose habitualmente a través de un puntero
o flecha en el monitor.
Hoy en día es un elemento imprescindible en un equipo informático para la mayoría de las
personas, y pese a la aparición de otras tecnologías con una función similar, como la pantalla
táctil, la práctica ha demostrado que tendrá todavía muchos años de vida útil. No obstante, en
el futuro podría ser posible mover el cursor o el puntero con los ojos o basarse en el
reconocimiento de voz.
El nombre
La forma del dispositivo originó su nombre.
Aunque cuando se patentó recibió el nombre de «X-Y Position Indicator for a Display
System» (Indicador de posición X-Y para un sistema con pantalla), el más usado nombre de
ratón (mouse en inglés) se lo dio el equipo de la Universidad de Stanford durante su
desarrollo, ya que su forma y su cola (cable) recuerdan a un ratón.
En América predomina el término inglés mouse mientras que en España se utiliza
prácticamente de manera exclusiva el calco semántico «ratón». El Diccionario panhispánico
de dudas recoge ambos términos, aunque considera que, como existe el calco semántico, el
anglicismo es innecesario.1
El DRAE únicamente acepta la entrada ratón para este dispositivo
informático, pero indica que es un españolismo.2
Hoy en día
Habitualmente se compone de al menos dos botones y otros dispositivos opcionales como una
«rueda», más otros botones secundarios o de distintas tecnologías como sensores del
movimiento que pueden mejorar o hacer más cómodo su uso.
Se suele presentar para manejarse con ambas manos por igual, pero algunos fabricantes
también ofrecen modelos únicamente para usuarios diestros o zurdos. Los sistemas
operativos pueden también facilitar su manejo a todo tipo de personas, generalmente
invirtiendo la función de los botones.
26. En los primeros años de la informática, el teclado era casi siempre la forma más popular como
dispositivo para la entrada de datos o control de la computadora. La aparición y éxito del
ratón, además de la posterior evolución de los sistemas operativos, logró facilitar y mejorar la
comodidad, aunque no relegó el papel primordial del teclado. Aún hoy en día, pueden
compartir algunas funciones dejando al usuario que escoja la opción más conveniente a sus
gustos o tareas.
Historia
Fue diseñado por Douglas Engelbart y Bill English durante los años 60 en el Stanford
Research Institute, un laboratorio de la Universidad de Stanford, en pleno Silicon Valley en
California. Más tarde fue mejorado en los laboratorios de Palo Alto de la compañía Xerox
(conocidos como Xerox PARC). Su invención no fue un hecho banal ni fortuito, sino que surgió
dentro de un proyecto importante que buscaba aumentar el intelecto humano mejorando la
comunicación entre el hombre y la máquina. Con su aparición, logró también dar el paso
definitivo a la aparición de los primeros entornos o interfaces gráficas de usuario.
La primera maqueta
Copia del primer prototipo.
La primera maqueta se construyó de manera artesanal de madera, y se patentó con el nombre
de "X-Y Position Indicator for a Display System".
A pesar de su aspecto arcaico, su funcionamiento básico sigue siendo igual hoy en día. Tenía
un aspecto de adoquín, encajaba bien en la mano y disponía de dos ruedas metálicas que, al
desplazarse por la superficie, movían dos ejes: uno para controlar el movimiento vertical del
cursor en pantalla y el otro para el sentido horizontal, contando además con un botón rojo en
su parte superior.
Por primera vez se lograba un intermediario directo entre una persona y la computadora, era
algo que, a diferencia del teclado, cualquiera podía aprender a manejar sin apenas
conocimientos previos. En esa época además la informática todavía estaba en una etapa
primitiva: ejecutar un simple cálculo necesitaba de instrucciones escritas en un lenguaje de
programación.
Presentación
¿Cómo se captura el movimiento de un ratón mecánico estándar?
1: Al arrastrarlo sobre la superficie gira la bola,
2: ésta a su vez mueve los rodillos ortogonales,
3: éstos están unidos a unos discos de codificación óptica, opacos pero perforados,
4: dependiendo de su posición pueden dejar pasar o interrumpir señales infrarrojas de un
diodo LED.
5: Estos pulsos ópticos son captados por sensores que obtienen así unas señales digitales de
la velocidad vertical y horizontal actual para trasmitirse finalmente al ordenador.
27. En San Francisco, a finales de 1968 se presentó públicamente el primer modelo oficial.
Durante hora y media además se mostró una presentación multimedia de un sistema
informático interconectado en red y también por primera vez se daba a conocer un entorno
gráfico con el sistema de ventanas que luego adoptarían la práctica totalidad de sistemas
operativos modernos. En ese momento además, se exhibió hipermedia, un mecanismo para
navegar por Internet y usar videoconferencia.
Engelbart realmente se adelantó varias décadas a un futuro posible, ya desde 1951 había
empezado a desarrollar las posibilidades de conectar computadoras en redes, cuando apenas
existían varias docenas y bastante primitivas, entre otras ideas como el propio correo
electrónico, del que sería su primer usuario. Pensó que la informática podía usarse para
mucho más que cálculos matemáticos, y el ratón formaba parte de este ambicioso proyecto,
que pretendía aumentar la inteligencia colectiva fundando el Augmentation Research Center
(Centro para la investigación del incremento) en la Universidad de Stanford.
Y pese a las esperanzas iniciales de Engelbart de que fuera la punta del iceberg para un
desarrollo de distintos componentes informáticos similares, una década después era algo
único, revolucionario, que todavía no había cobrado popularidad. De hecho varios de los
conceptos e ideas surgidos aún hoy en día han conseguido éxito. Engelbart tampoco logró una
gran fortuna, la patente adjudicaba todos los derechos a la Universidad de Stanford y él
recibió un cheque de unos 10000 dólares.
El éxito de Apple
El 27 de abril de 1981 se lanzaba al mercado la primera computadora con ratón incluido:
Xerox Star 8010, fundamental para la nueva y potente interfaz gráfica que dependía de este
periférico, que fue a su vez, otra revolución. Posteriormente, surgieron otras computadoras
que también incluyeron el periférico, algunas de ellas fueron la Commodore Amiga, el Atari
ST, y la conocida Apple Lisa. Dos años después, Microsoft, que había tenido acceso al ratón de
Xerox en sus etapas de prototipo, dio a conocer su propio diseño disponible además con las
primeras versiones del procesador de texto Word. Tenía dos botones en color verde y podía
adquirirse por 195 dólares, pero su precio elevado para entonces y el no disponer de un
sistema operativo que realmente lo aprovechara, hizo que pasara completamente
desapercibido.
No fue hasta la aparición del Macintosh en 1984 cuando este periférico se popularizó. Su
diseño y creación corrió a cargo de nuevo de la Universidad de Stanford, cuando Apple en
1980 pidió a un grupo de jóvenes un periférico seguro, barato y que se pudiera producir en
serie. Partían de un ratón basado en tecnología de Xerox de un coste alrededor de los 400
dólares, con un funcionamiento regular y casi imposible de limpiar. El presidente, Steve Jobs,
quería un precio entre los 10 y los 35 dólares.
Si bien existen muchas variaciones posteriores, algunas innovaciones recientes y con éxito
han sido el uso de una rueda central o lateral, el sensor de movimiento óptico por diodo LED,
ambas introducidas por Microsoft en 1996 y 1999 respectivamente, o el sensor basado en un
láser no visible del fabricante Logitech.
En la actualidad, la marca europea Logitech es una de las mayores empresas dedicadas a la
fabricación y desarrollo de estos periféricos, más de la mitad de su producción la comercializa
a través de terceras empresas como IBM, Hewlett-Packard, Compaq o Apple.
Funcionamiento
Imagen habitual de un puntero movido por la pantalla usando un ratón.
Su funcionamiento principal depende de la tecnología que utilice para capturar el movimiento
al ser desplazado sobre una superficie plana o alfombrilla especial para ratón, y transmitir
28. esta información para mover una flecha o puntero sobre el monitor de la computadora.
Dependiendo de las tecnologías empleadas en el sensor del movimiento o por su mecanismo y
del método de comunicación entre éste y la computadora, existen multitud de tipos o familias.
El objetivo principal o más habitual es seleccionar distintas opciones que pueden aparecer en
la pantalla, con uno o dos clic, pulsaciones, en algún botón o botones. Para su manejo el
usuario debe acostumbrarse tanto a desplazar el puntero como a pulsar con uno o dos clic
para la mayoría de las tareas.
Con el avance de los nuevos ordenadores, el ratón se ha convertido en un dispositivo esencial
a la hora de jugar, destacando no solo para seleccionar y accionar objetos en pantalla en
juegos estratégicos, sino para cambiar la dirección de la cámara o la dirección de un
personaje en juegos de primera o tercera persona. Comunmente en la mayoría de estos
juegos, los botones del ratón se utilizan para accionar las armas u objetos seleccionados y la
rueda del ratón sirve para recorrer los objetos o armas de nuestro inventario.
Tipos o modelos
Por mecanismo
Mecánicos
Tienen una gran bola de plástico, de varias capas, en su parte inferior para mover dos ruedas
que generan pulsos en respuesta al movimiento de éste sobre la superficie. Una variante es el
modelo de Honeywell que utiliza dos ruedas inclinadas 90 grados entre ellas en vez de una
bola.
La circuitería interna cuenta los pulsos generados por la rueda y envía la información a la
computadora, que mediante software procesa e interpreta.
Parte inferior de un ratón con cable y sensor óptico.
Ópticos
Es una variante que carece de la bola de goma que evita el frecuente problema de la
acumulación de suciedad en el eje de transmisión, y por sus características ópticas es menos
propenso a sufrir un inconveniente similar. Se considera uno de los más modernos y prácticos
actualmente. Puede ofrecer un límite de 800 ppp, como cantidad de puntos distintos que
puede reconocer en 2,54 centímetros (una pulgada); a menor cifra peor actuará el sensor de
movimientos. Su funcionamiento se basa en un sensor óptico que fotografía la superficie
sobre la que se encuentra y detectando las variaciones entre sucesivas fotografías, se
determina si el ratón ha cambiado su posición. En superficies pulidas o sobre determinados
materiales brillantes, el ratón óptico causa movimiento nervioso sobre la pantalla, por eso se
hace necesario el uso de una alfombrilla o superficie que, para este tipo, no debe ser brillante
y mejor si carece de grabados multicolores que puedan "confundir" la información luminosa
devuelta.
Láser
Este tipo es más sensible y preciso, haciéndolo aconsejable especialmente para los
diseñadores gráficos y los jugadores de videojuegos. También detecta el movimiento
deslizándose sobre una superficie horizontal, pero el haz de luz de tecnología óptica se
sustituye por un láser con resoluciones a partir de 2000 ppp, lo que se traduce en un aumento
significativo de la precisión y sensibilidad.
29. Un modelo trackball de Logitech.
Trackball
El concepto de trackball es una idea que parte del hecho: se debe mover el puntero, no el
dispositivo, por lo que se adapta para presentar una bola, de tal forma que cuando se coloque
la mano encima se pueda mover mediante el dedo pulgar, sin necesidad de desplazar nada
más ni toda la mano como antes. De esta manera se reduce el esfuerzo y la necesidad de
espacio, además de evitarse un posible dolor de antebrazo por el movimiento de éste. A
algunas personas, sin embargo, no les termina de resultar realmente cómodo. Este tipo ha
sido muy útil por ejemplo en la informatización de la navegación marítima.
Por conexión
Por cable
Es el formato más popular y más económico, sin embargo existen multitud de características
añadidas que pueden elevar su precio, por ejemplo si hacen uso de tecnología láser como
sensor de movimiento. Actualmente se distribuyen con dos tipos de conectores posibles, tipo
USB y PS/2; antiguamente también era popular usar el puerto serie.
Es el preferido por los videojugadores experimentados, ya que la velocidad de transmisión de
datos por cable entre el ratón y el ordenador es óptima en juegos que requieren de una gran
precisión.
Un modelo inalámbrico con rueda y cuatro botones, y la base receptora de la señal.
Inalámbrico
En este caso el dispositivo carece de un cable que lo comunique con
el ordenador o computadora, en su lugar utiliza algún tipo de
tecnología inalámbrica. Para ello requiere un receptor que reciba la
señal inalámbrica que produce, mediante baterías, el ratón. El
receptor normalmente se conecta al ordenador a través de un
puerto USB o PS/2. Según la tecnología inalámbrica usada pueden
distinguirse varias posibilidades:
• Radio Frecuencia (RF): Es el tipo más común y económico
de este tipo de tecnologías. Funciona enviando una señal a
una frecuencia de 2.4Ghz, popular en la telefonía móvil o
celular, la misma que los estándares IEEE 802.11b y IEEE
802.11g. Es popular, entre otras cosas, por sus pocos
errores de desconexión o interferencias con otros equipos
inalámbricos, además de disponer de un alcance suficiente: hasta unos 10 metros.
• Infrarrojo (IR): Esta tecnología utiliza una señal de onda infrarroja como medio de
trasmisión de datos, popular también entre los controles o mandos remotos de
televisiones, equipos de música o en telefonía celular. A diferencia de la anterior,
tiene un alcance medio inferior a los 3 metros, y tanto el emisor como el receptor
deben estar en una misma línea visual de contacto directo ininterrumpido para que la
señal se reciba correctamente. Por ello su éxito ha sido menor, llegando incluso a
desaparecer del mercado.
30. • Bluetooth (BT): Bluetooth es la tecnología más reciente como transmisión inalámbrica
(estándar IEEE 802.15.1), que cuenta con cierto éxito en otros dispositivos. Su
alcance es de unos 10 metros o 30 pies (que corresponde a la Clase 2 del estándar
Bluetooth).
El controlador
Es, desde hace un tiempo, común en cualquier equipo informático, de tal manera que todos
los sistemas operativos modernos suelen incluir de serie un software controlador (driver)
básico para que éste pueda funcionar de manera inmediata y correcta. No obstante, es normal
encontrar software propio del fabricante que puede añadir una serie de funciones opcionales,
o propiamente los controladores si son necesarios.
Modelo Mighty Mouse de Apple.
Uno, dos o tres botones
Hasta mediados de 2005, la conocida empresa Apple, para sus sistemas Mac apostaba por un
ratón de un sólo botón, pensado para facilitar y simplificar al usuario las distintas tareas
posibles. Actualmente ha lanzado un modelo con dos botones simulados virtuales con
sensores debajo de la cubierta plástica, dos botones laterales programables, y una bola para
mover el puntero, llamado Mighty Mouse.
Modelo inalámbrico con cuatro botones.
En Windows, lo más habitual es el uso de dos o tres botones principales. En sistemas UNIX
como GNU/Linux que utilicen entorno gráfico (X Window), era habitual disponer de tres
botones (para facilitar la operación de copiar y pegar datos directamente). En la actualidad la
funcionalidad del tercer botón queda en muchos casos integrada en la rueda central de tal
manera que además de poder girarse, puede pulsarse.
Hoy en día cualquier sistema operativo moderno puede hacer uso de hasta estos tres botones
distintos e incluso reconocer más botones extra a los que el software reconoce, y puede
añadir distintas funciones concretas, como por ejemplo asignar a un cuarto y quinto botón la
operación de copiar y pegar texto.
La sofisticación ha llegado a extremos en algunos casos, por ejemplo el MX610 de Logitech,
lanzado en septiembre de 2005. Preparado anatómicamente para diestros, dispone de hasta
10 botones.
Problemas frecuentes
• Puntero que se atasca en la pantalla: Es el fallo más frecuente, se origina a causa de
la acumulación de suciedad, frenando o dificultando el movimiento del puntero en la
pantalla. Puede retirarse fácilmente la bola de goma por la parte inferior y así acceder
a los ejes de plástico para su limpieza, usando un pequeño pincel de cerdas duras.
Para retardar la aparición de suciedad en el interior del ratón es recomendable usar
una alfombrilla. Este problema es inexistente con tecnología óptica, ya que no
requiere partes mecánicas para detectar el desplazamiento. Es uno de los principales
motivos de su éxito.
31. • Pérdida de sensibilidad o contacto de los botones: se manifiesta cuando se pulsa una
vez un botón y la computadora lo recibe como ninguno, dos o más clics consecutivos,
de manera errónea. Esto se debe al desgaste de las piezas de plástico que forman
parte de los botones del ratón, que ya no golpean o pulsan correctamente sobre el
pulsador electrónico. Para solucionarlo normalmente debe desmontarse
completamente y colocar varias capas de papel adhesivo sobre la posible zona
desgastada hasta recuperar su forma original. En caso de uso frecuente, el desgaste
es normal, y suele darse a una cifra inferior al milímetro por cada 5 años de vida útil.
• Dolores musculares causados por el uso del ratón: Si el uso de la computadora es
frecuente, es importante usar un modelo lo más ergonómico posible, ya que puede
acarrear problemas físicos en la muñeca o brazo del usuario. Esto es por la posición
totalmente plana que adopta la mano, que puede resultar forzada, o puede también
producirse un fuerte desgaste del huesecillo que sobresale de la muñeca, hasta el
punto de considerarse una enfermedad profesional. Existen alfombrillas
especialmente diseñadas para mejorar la comodidad al usar el ratón.
¿Qué PROYECCION Y QUE ESPECTATIVAS OFRECE EL FUTURO?
INTRODUCCIÓN
En las últimas décadas del siglo XX asistimos a un conjunto de transformaciones económicas-
sociales y culturales cuya vertiginosidad y complejidad no admite precedente y nuestro país
no se encuentra ajeno a ello. Caen rápidamente todo tipo de muros y barreras entre las
naciones al mismo tiempo que se amplía la brecha en el nivel de desarrollo humano al que
acceden los distintos pueblos.
El mundo de hoy, esta inmerso en una nueva revolución tecnológica basada en la informática,
que encuentra su principal impulso en el acceso y en la capacidad de procesamiento de
información sobre todos los temas y sectores de la actividad humana. Ha contribuido a que
culturas y sociedadesse transformen aceleradamente tanto económica, como social y
políticamente, con el objetivo fundamental de alcanzar con plenitud sus potencialidades.
El conjunto de tecnologías que se concentran alrededor de las computadoras personales, de
las tecnologías de la información y de la comunicación, es sin duda la innovación que más ha
influido en el desarrollo de la vida social de fines del siglo XX y comienzo del XXI.
Esta última centuria ha sido extraordinariamente rica en avances técnicos y científicos, ha
visto el crecimiento pleno de otras tecnologías decisivas, como la electricidad y la electrónica,
los medios audiovisuales – en particular la televisión– y ha culminado con la implantación de
estas nuevas tecnologías (que ya no son tan nuevas), que han revolucionado el uso y la
manipulación de la información y se han constituido, a la vez, en vehículos de comunicación.
El desarrollo de las tecnologías está teniendo una gran influencia en el ámbito educativo, ya
que constituyen una nueva herramienta de trabajo que da acceso a una gran cantidad de
información y que acerca y agiliza la labor de personas e instituciones distantes entre si.
Cuando se habla del uso de las computadoras en la educación se argumenta y es inevitable
discutir sobre sus ventajas, inconvenientes y usos apropiados estas son discusiones técnicas
y pedagógicas, pero detrás de ellas hay algo más que argumentaciones racionales, detrás de
ellas hay también emociones.
Es por ello que intentaremos a través del presente trabajo plasmar un análisis integral de un
tema en particular: LA COMPUTADORA COMO MEDIO EDUCATIVO Y SUSU PELIGROS EN LA
FORMACIÓN DEL EDUCANDO, para lo cual tendremos que apoyarnos en investigaciones y
conjeturas propias, tratando de mantener una visión de la realidad como un todo. Para ello
hemos estructurado nuestra investigación en tres capítulos:
Primer Capítulo : "La Computadora y la Sociedad" , en el cual se describe a la computadora
como factor para el aprendizaje y desarrollo de los pueblos y su influencia en el ámbito
32. laboral, así como sus efectos en la sociedad en general, desde sus origenes hasta nuestros
días.
Segundo Capítulo: "La Computadora como Medio Educativo", a través del cual intentamos
establecer la relación de la computadora con la educación de la persona y la labor del
docente, para lograr la interacción en el aula y el desarrollo de la escuela. Así mismo se podrá
observar loas distintas formas o modelos de uso de la computadora en el la enseñanza
aprendizaje, entre otros.
Tercer Capítulo : " Peligros de la Computadora para la Formación del Educando", en este
plano se intenta clarificar de cómo el ordenador como medio para la enseñanza aprendizaje,
es ventajoso; pero al mismo tiempo de cómo puede convertirse en una amenaza que atente
contra la salud del educando y de su capacidad cognitiva; por otro lado de cómo se puede
convertir en un peligro para el docente desde el punto de vista laboral, al sentirse desplazado
por su vertiginoso empleo y gran capacidad de almacenamiento de datos.
Cuando se habla del uso de las computadoras en la educación se argumenta y es inevitable
discutir sobre sus ventajas, inconvenientes y usos apropiados estas son discusiones técnicas
y pedagógicas, pero detrás de ellas hay algo más que argumentaciones racionales, detrás de
ellas hay también emociones. A mediados de la década del 1970 las computadoras eran
usadas por pocas personas, pero ya en la actualidad han tenido un mayor impacto en la
sociedad que cualquier otro invento. Esta acogida se debe a sus características, las mismas
que son aprovechadas en los diferentes ámbitos laborales, en particular el educativo, por ello
vemos que las escuelas o instituciones educativas de hoy en día cada vez más apuestan por
implementar un centro de cómputo dentro de su infraestructura y así mantenerse acorde con
los adelantos de la informática y alcanzar el anhelado sueño de mejorar la enseñanza
aprendizaje a través de un mejor medio para concretar tal fin: La computadora
Esperamos que el presente trabajo de investigación colme las expectativas del docente así
mismo de que contribuya en el quehacer educativo de los estudiantes y la tarea por alcanzar
nuevos conocimientos, solo así diremos ¡Tarea cumplida¡
LOS ESTUDIANTES
OBJETIVOS
• Identificar los efectos educativos, culturales y laborales de la computadora dentro de
la sociedad.
• Analizar el uso de la computadora como medio didáctico en el ambiente escolarizado
y el uso de nueva metodología para el proceso enseñanza-aprendizaje.
• Reconocer los peligros del uso de la computadora para la formación del educando y
para su salud.
• Determinar las ventajas y desventajas de la computadora como medio didáctico en el
proceso docente educativo.
33. FUTURO Y PROSPECTIVA
Internet potenciará inteligencia, pero degradará la privacidad
Internet siempre a la mano evita tener que recordar mucha información
‘Inteligente’ será quien sepa buscar y relacionar gran cantidad de datos
El uso intensivo de Internet en la búsqueda de información para la vida cotidiana cambiará
por completo lo que entendemos por inteligencia durante la próxima década, potenciando
nuestro cerebro, pero también degradará nuestra privacidad.
Así lo señala el informe El futuro de Internet, publicado recientemente por el Pew Research
Center de Estados Unidos.
La exposición permanente a gran cantidad de información y la interacción con buscadores que
cada vez entienden mejor lo que necesitamos, hará superfluo manejar gran cantidad de datos
en la memoria humana y más bien obligará a las personas a desarrollar sus capacidades para
relacionar, rápidamente, distintas fuentes de conocimiento, se explica en el estudio.
Las conclusiones de El futuro de Internet están basadas en una encuesta y entrevistas
realizadas a 371 expertos y 524 usuarios intensivos de Internet sobre cómo imaginan
Internet en el 2020.
El 50% de los consultados ha estado utilizando Internet al menos desde el año 1992.
Nueva inteligencia. El 81% de los expertos y el 76% de los usuarios encuestados se
declararon a favor de la idea de que Internet provocará una mejora significativa de la
inteligencia humana para 2020.
34. La mayoría acepta que el ser humano ya no tendrá que recordar mucho ni guardar en su
cerebro detalles, pero sí pensar más y de una forma mucho más crítica.
“La tecnología no es el problema, sino los rasgos de carácter inherente a las personas.
Internet y los buscadores solo permiten a las personas ser más de lo que ya son. Si están
motivados y son astutos, utilizarán las nuevas herramientas para explorar en nuevas e
interesantes maneras de aprender. Si son perezosos o incapaces de concentrarse,
encontrarán nuevas maneras de ser distraídos y perder el tiempo”, dice el informe.
En el 2020 buena parte de la vida humana se desarrollará dentro en un ambiente de completa
conexión a Internet. Distintos dispositivos –desde el reloj de pulsera hasta el servidor que
manejará los electrodomésticos– estarán permanentemente recibiendo y enviando
información y tomando las decisiones más lógicas automáticamente.
El ser humano, por lo tanto, tendrá menos asuntos “sin trascendencia” a los cuales atender.
“Tenemos que pensar que en diez años nuestra definición de inteligencia será muy diferente.
Será ‘inteligente’ aquello que funciona en red y permite unir y dar un nuevo sentido a aquello
que no son más que bits de información separados”, explicó Christine Greenhow, de la
Universidad de Minesota y quien participó en el estudio.
La evolución que plantea Internet, recuerda el estudio, en el fondo no es diferente a otras
revoluciones ya vividas por la humanidad.
Platón, por ejemplo, llegó a criticar en sus inicios la escritura porque consideraba que el
pensamiento solo podía existir dentro de él mismo; es decir, en la mente de los humanos y no
en lo escrito.
También hubo críticas de algunos sectores conservadores tras la invención de la imprenta de
caracteres móviles en Occidente.
Esos sucesos cambiaron la forma de pensar de los humanos y ayudaron a crear la sociedad
actual. Ahora, Internet cambiará la forma de pensar de los humanos actuales y ayudará a
formar la sociedad del futuro, se afirma.
Poca privacidad. La popularización de Internet plantea para los expertos un escenario donde
la idea de privacidad también cambiará.
En este apartado será clave el concepto de autenticación; es decir, el estar seguro de que una
persona que ingresa a un sitio web y pide un servicio es quien dice ser.
“La presión para autenticación de los usuarios de Internet está creciendo y muchas
solicitudes son legítimas. Nuevos métodos para lograrla están siendo explorados pero aún no
está claro cuáles prevalecerán en el mercado”, dice el informe del Pew Research Center.
“Conforme crezca el e-comercio, el e-gobierno, la e-democracia y la e-educación, sistemas de
identificación robustos serán más y más comunes en la vida cotidiana”, comentó Ismael Peña
López, de la Universidad Abierta de Cataluña y quien participó en el estudio.
No obstante, el informe asume que nuevas regulaciones legales les darán a las personas
cierto nivel de privacidad, por debajo del actual, pero lo suficiente como para que utilizar un
pseudónimo y no el nombre real no sea mal visto en el mundo de Internet.
35. La confidencialidad de datos muy calificados no solo se mantendrá, sino que también se
crearán sistemas para asegurarla.
Mención aparte recibieron las redes sociales, responsables desde ahora –pero más en el
futuro– de que las personas olviden el sentido de decir algo o comportarse en Internet
anónimamente.
Las redes sociales dejan constancia pública de pensamientos, opiniones y actuar. Pronto se
potenciará el concepto de “responsabilidad informativa”, tratando de captar a más usuarios
de edad adulta, quienes crecieron en un mundo donde no informaban a todo el planeta
(literalmente) cuál película irían a ver al cine, cómo les fue de vacaciones o si su matrimonio
está en crisis.
Para Stewart Baker, abogado especialista de la firma Stepteo & Johnson, en el 2020 el
anonimato en Internet será como el anonimato en la vida real de nuestro días: cuando nos
encontramos a alguien que no conocemos en una calle solitaria apuramos el paso, cambiamos
de acera y salimos de ahí lo antes posible.
Pablo Fonseca
Después de 15 años, profecías de Gates muestran aciertos y errores
Muchas personas intentaron adivinar como sería la vida después del surgimiento de
internet. Una de ellas fue Bill Gates, quien lanzó hace 15 años el libro The Road Ahead (El
camino por recorrer). Repleto de previsiones del fundador de Microsoft para el futuro, el
libro erra en adivinar el impacto de la web, cuyo papel - estimaba - sería menor del que es.
Gates se equivocó al imaginar que el e-mail disminuiría las reuniones de trabajo, el impacto
de las redes inalámbricas y el comercio electrónico, por ejemplo. Pero, sin contar factores
sociales, enfocado sólo en el avance de la tecnología, el ex-jefe de la Microsoft hizo
afirmaciones que actualmente parecen obvias, pero 15 años atrás sonaban proféticas.
El sitio web estadounidense The Atlantic comparó algunas de ellas y lo que aconteció.
E-mail
Previsión: Gates escribió: "El email y las pantallas compartidas eliminarán la necesidad de
muchos encuentros. Cuando exista alguna reunión presencial, esta será más eficiente
porque los participantes ya intercambiaron informaciones básicas por e-mail.
Veredicto: Se equivocó. La visión de Gates sobre el e-mail ahora parece ingenuamente
utópica por no contar con algunas cuestiones inesperadas. Antes de cualquier cosa, el email