SlideShare una empresa de Scribd logo
1 de 20
República Bolivariana de Venezuela. 
Ministerio del Poder Popular Para la Educación Superior. 
Universidad Nacional Experimental Simón Rodríguez 
Núcleo: San Juan De Los Morros. Edo- Guárico 
Facilitadora: Participantes: 
Yolimar Fuentes Ariana Lugo C.I: 25698060 
Génesis Zurita C.I 25564455 
Sección ´´C´´ 
Octubre, 2014
Rol de la computadora en la educación integral: 
La tecnología educativa es el resultado de las aplicaciones de diferentes concepciones y teorías 
educativas para la resolución de un amplio espectro de problemas y situaciones referidos a la 
enseñanza y el aprendizaje, apoyadas en las Tics (tecnologías de información y comunicación). La 
evolución de la tecnología educativa, que como disciplina nació en Estados Unidos de América en 
la década de los 50 del siglo pasado, ha dado lugar a diferentes enfoques o tendencias que hemos 
conocido como enseñanza audiovisual, enseñanza programada, tecnología instruccional, diseño 
curricular o tecnología crítica de la enseñanza. Los recursos técnicos son los que se utilizan para 
realizar un trabajo en específico con una técnica que lo caracteriza por ejemplo una máquina de 
refrescos utiliza cierta técnica que consta de varios pasos, introduces moneda, la máquina la 
acepta, aprietas un botón de refresco, la máquina lo percibe y manda tu refresco, todos estos 
pasos son técnicas, 
Se entiende por tecnología educativa al acercamiento científico basado en la teoría de sistemas 
que proporciona al educador las herramientas de planificación y desarrollo, así como la tecnología, 
busca mejorar los procesos de enseñanza y de aprendizaje a través del logro de los objetivos 
educativos y buscando la efectividad y el significado del aprendizaje. 
Se pueden considerar las Tecnologías de Información y Comunicación (TIC) como un concepto 
dinámico.[2] Por ejemplo, a finales del siglo XIX el teléfono podría ser 
Considerado una nueva tecnología según las definiciones actuales. Esta misma definición podría 
aplicarse a la televisión cuando apareció y se popularizó en la década de los 50 del siglo pasado. 
No obstante, hoy no se pondrían en una lista de Tics y es muy posible que actualmente los 
ordenadores ya no puedan ser calificados de nuevas tecnologías. A pesar de esto, en un concepto 
amplio, se puede considerar que el teléfono, la televisión y el ordenador forman parte de lo que se 
llama TIC, tecnologías que favorecen la comunicación y el intercambio de información en el 
mundo actual. 
La Computadora 
Una computadora o computador (del latín computare -calcular-), también denominada ordenador 
(del francés ordinateur, y éste del latín ordinator), es una máquina electrónica que recibe y 
procesa datos para convertirlos en información útil. Una computadora es una colección de 
circuitos integrados y otros componentes relacionados que puede ejecutar con exactitud, rapidez 
y de acuerdo a lo indicado por un usuario o automáticamente por otro programa, una gran 
variedad de secuencias o rutinas de instrucciones que son ordenadas, organizadas y 
sistematizadas en función a una amplia gama de aplicaciones prácticas y precisamente 
determinadas, proceso al cual se le ha denominado con el nombre de programación y al que lo 
realiza se le llama programador. La computadora, además de la rutina o programa informático, 
necesita de datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés
o de entrada) que deben ser suministrados, y que son requeridos al momento de la ejecución, 
para proporcionar el producto final del procesamiento de datos, que recibe el nombre de "output" 
o de salida. La información puede ser entonces utilizada, reinterpretada, copiada, transferida, o 
retransmitida a otra(s) persona(s), computadora(s) o componente(s) electrónico(s) local o 
remotamente usando diferentes sistemas de telecomunicación, pudiendo ser grabada, salvada o 
almacenada en algún tipo de dispositivo o unidad de almacenamiento. 
La característica principal que la distingue de otros dispositivos similares, como la calculadora no 
programable, es que es una máquina de propósito general, es decir, puede realizar tareas muy 
diversas, de acuerdo a las posibilidades que brinde los lenguajes de programación y el hardware. 
Partes de la computadora 
Unidad central de proceso o CPU 
(Conocida por sus siglas en inglés, CPU), circuito microscópico que interpreta y ejecuta 
instrucciones. La CPU se ocupa del control y el proceso de datos en las computadoras. 
Generalmente, la CPU es un microprocesador fabricado en un chip, un único trozo de silicio que 
contiene millones de componentes electrónicos. El microprocesador de la CPU está formado por 
una unidad aritmético-lógica que realiza cálculos y comparaciones, y toma decisiones lógicas 
(determina si una afirmación es cierta o falsa mediante las reglas del álgebra de Boole); por una 
serie de registros donde se almacena información 
Temporalmente, y por una unidad de control que interpreta y ejecuta las instrucciones. Para 
aceptar órdenes del usuario, acceder a los datos y presentar los resultados, la CPU se comunica a 
través de un conjunto de circuitos o conexiones llamado bus. El bus conecta la CPU a los 
dispositivos de almacenamiento (por ejemplo, un disco duro), los dispositivos de entrada (por 
ejemplo, un teclado o un mouse) y los dispositivos de salida (por ejemplo, un monitor o una 
impresora). 
Funcionamiento de la CPU 
Cuando se ejecuta un programa, el registro de la CPU, llamado contador de programa, lleva la 
cuenta de la siguiente instrucción, para garantizar que las instrucciones se ejecuten en la 
secuencia adecuada. La unidad de control de la CPU coordina y temporiza las funciones de la CPU, 
tras lo cual recupera la siguiente instrucción desde la memoria. En una secuencia típica, la CPU 
localiza la instrucción en el dispositivo de almacenamiento correspondiente. 
La instrucción viaja por el bus desde la memoria hasta la CPU, donde se almacena en el registro de 
instrucción. Entretanto, el contador de programa se incrementa en uno para prepararse para la 
siguiente instrucción. A continuación, la instrucción actual es analizada por un descodificador, que 
determina lo que hará la instrucción. Cualquier dato requerido por la instrucción es recuperado
desde el dispositivo de almacenamiento correspondiente y se almacena en el registro de datos de 
la CPU. A continuación, la CPU ejecuta la instrucción, y los 
Resultados se almacenan en otro registro o se copian en una dirección de memoria determinada. 
Memoria RAM 
La memoria principal o RAM, abreviatura del inglés Randon Access Memory, es el dispositivo 
donde se almacenan temporalmente tanto los datos como los programas que la CPU está 
procesando o va a procesar en un determinado momento. Por su función, es una amiga 
inseparable del microprocesador, con el cual se comunica a través de los buses de datos. 
Por ejemplo, cuando la CPU tiene que ejecutar un programa, primero lo coloca en la memoria y 
recién y recién después lo empieza a ejecutar. lo mismo ocurre cuando necesita procesar una serie 
de datos; antes de poder procesarlos los tiene que llevar a la memoria principal. 
Esta clase de memoria es volátil, es decir que, cuando se corta la energía eléctrica, se borra toda la 
información que estuviera almacenada en ella. 
Por su función, la cantidad de memoria RAM de que disponga una computadora es una factor muy 
importante; hay programas y juegos que requieren una gran cantidad de memoria para poder 
usarlos. Otros andarán más rápido si el sistema cuenta con más memoria RAM. 
La memoria Caché 
Dentro de la memoria RAM existe una clase de memoria denominada Memoria Caché que tiene la 
característica de ser más rápida que las otras, permitiendo que el intercambio de información 
entre el procesador y la memoria principal sea a mayor velocidad. 
Memoria de sólo lectura o ROM 
Su nombre vienen del inglés Read Only Memory que significa Memoria de Solo 
Lectura ya que la información que contiene puede ser leída pero no modificada. En ella se 
encuentra toda la información que el sistema necesita para poder funcionar correctamente ya que 
los fabricantes guardan allí las instrucciones de arranque y el funcionamiento coordinado de la 
computadora. No son volátiles, pero se pueden deteriorar a causa de campos magnéticos 
demasiados potentes. 
Al encender nuestra computadora automáticamente comienza a funcionar la memoria ROM. Por 
supuesto, aunque se apague, esta memoria no se borra. 
El BIOS de una PC (Basic Input Operative System) es una memoria ROM, pero con la facultad de 
configurarse según las características particulares de cada máquina. esta configuración se guarda 
en la zona de memoria RAM que posee este BIOS y se mantiene sin borrar cuando se apaga la PC 
gracias a una pila que hay en la placa principal.
Cuando la pila se agota se borra la configuración provocando, en algunos equipos, que la máquina 
no arranque. 
Algunas PC tienen la pila soldada a la placa principal por lo que el cambio de la misma lo debe 
realizar personal técnico, ya que si no se corre el riesgo de arruinar otros componentes. 
Su Memoria basada en semiconductores que contiene instrucciones o datos que se pueden leer 
pero no modificar. En las computadoras IBM PC y compatibles, las memorias ROM suelen 
contener el software necesario para el funcionamiento del sistema. Para crear un chip ROM, el 
diseñador facilita a un fabricante de semiconductores la información 
O las instrucciones que se van a almacenar. 
El fabricante produce entonces uno o más chips que contienen esas instrucciones o datos. Como 
crear chips ROM implica un proceso de fabricación, esta creación es viable económicamente sólo 
si se producen grandes cantidades de chips. Los diseños experimentales o los pequeños 
volúmenes son más asequibles usando PROM o EPROM. El término ROM se suele referir a 
cualquier dispositivo de sólo lectura, incluyendo PROM y EPROM. 
El teclado nos permite comunicarnos con la computadora e ingresar la información. Es 
fundamental para utilizar cualquier aplicación. El teclado más común tiene 102 teclas, agrupadas 
en cuatro bloques: teclado alfanumérico, teclado numérico, teclas de función y teclas de control. 
Se utiliza como una máquina de escribir, presionando sobre la tecla que queremos ingresar. 
Algunas teclas tienen una función predeterminada que es siempre la misma, pero hay otras teclas 
cuya función cambia según el programa que estemos usando 
Por ejemplo: Un teclado de ordenador de 101/102 teclas lanzado por IBM mediada la vida del 
PC/AT de esta compañía. Este diseño se ha mantenido como teclado estándar de la línea PS/2, y se 
ha convertido en la norma de producción de la mayoría de los teclados de los equipos compatibles 
con IBM. El teclado extendido difiere de sus predecesores por tener doce teclas de función en la 
parte superior, en lugar de diez a la izquierda. 
Tiene además teclas Control y Alt adicionales y un conjunto de teclas para el 
Movimiento del cursor y para edición entre la parte principal del teclado y el teclado numérico. 
Otras diferencias incluyen cambios en la posición de determinadas teclas, como Escape y Control, 
y modificaciones en las combinaciones de teclas, como Pausa e Imprimir Pantalla. El teclado 
extendido y su homónimo de Apple son similares en configuración y diseño. 
Las partes del teclado 
El teclado alfanumérico: Es similar al teclado de la máquina de escribir. Tiene todas las teclas del 
alfabeto, los diez dígitos decimales y los signos de puntuación y de acentuación.
El teclado numérico: Para que funciones el teclado numérico debe estar activada la función 
"Bloquear teclado numérico". Caso contrario, se debe pulsar la tecla [Bloq Lock] o [Num Lock] para 
activarlo. Al pulsarla podemos observar que, en la esquina superior derecha del teclado, se 
encenderá la lucecita con el indicador [Bloq Num] o [Num Lock]. 
Se parece al teclado de una calculadora y sirve para ingresar rápidamente los datos numéricos y 
las operaciones matemáticas más comunes: suma, resta, multiplicación y división. 
Las teclas de Función 
Estas teclas, de F1 a F12, sirven como "atajos" para acceder más rápidamente a determinadas 
funciones que le asignan los distintos programas. en general, la tecla F1 está asociada a la ayuda 
que ofrecen los distintos programas, es decir que, pulsándola, se abre la pantalla de ayuda del 
programa que se esté usando en este momento. 
Las teclas de Control 
Si estamos utilizando un 
Procesador de texto, sirve para terminar un párrafo y pasar a un nuevo renglón. Si estamos 
ingresando datos, normalmente se usa para confirmar el dato que acabamos de ingresar y pasar al 
siguiente. 
Estas teclas sirven para mover el cursor según la dirección que indica cada flecha. 
Sirve para retroceder el cursor hacia la izquierda, borrando simultáneamente los caracteres. 
Si estamos escribiendo en minúscula, al presionar esta tecla simultáneamente con una letra, esta 
última quedará en mayúscula, y viceversa, si estamos escribiendo en mayúscula la letra quedará 
minúscula. 
Es la tecla de tabulación. En un procesador de texto sirve para alinear verticalmente tanto texto 
como números. 
Esta tecla te permite insertar un carácter de manera que todo lo que escribamos a continuación se 
irá intercalando entre lo que ya tenemos escrito. 
Fija el teclado alfabético en mayúscula. al pulsarla podemos podemos observar que, en la esquina 
superior del teclado, se encenderá la lucecita con el indicador [Blog Mayús] o [Caps Lock]. 
Mientras es teclado de encuentra fijado en mayúscula, al pulsar la tecla de una letra se pondrá 
automáticamente en mayúscula. para desactivarla basta con volverla a pulsar. 
La tecla alternar, al igual que la tecla control, se usa para hacer combinaciones y lograr así ejecutar 
distintas acciones según el programa que estemos usando. 
En un procesador de texto sirve para borrar el carácter ubicado a la derecha del cursor.
La tecla de control se usa en combinación con otras 
Teclas para activar distintas opciones según el programa que se esté utilizando. 
Tanto el teclado como el ratón del ordenador nos permiten introducir datos o información en el 
sistema. De poco nos sirven si no tenemos algún dispositivo con el que comprobar que esa 
información que estamos suministrando es correcta. Los monitores muestran tanto la información 
que aportamos, como la que el ordenador nos comunica. Desde los primeros que aparecieron con 
el fósforo verde, la tecnología ha evolucionado junto con la fabricación de nuevas tarjetas gráficas. 
Ahora no se concibe un ordenador sin un monitor en color. Ahora la "guerra" está en el tamaño y 
en la resolución que sean capaces de mostrar. 
Monitor 
La tecnología en la fabricación de monitores es muy compleja y no es propósito ahora de 
profundizar en estos aspectos. Sí los vamos a tratar superficialmente para que sepáis cuáles son 
los parámetros que más os van a interesar a la hora de elegir vuestro monitor. Estos parámetros 
son los siguientes: 
Tamaño 
Son las dimensiones de la diagonal de la pantalla que se mide en pulgadas. Podemos tener 
monitores de 9, 14, 15, 17, 19, 20 y 21 ó más pulgadas. Los más habituales son los de 15 pulgadas 
aunque cada vez son más los que apuestan por los de 17 pulgadas, que pronto pasarán a ser el 
estándar. Los de 14 pulgadas se usan cada vez menos. Todo esto se debe a que las tarjetas gráficas 
que se montan ahora soportan fácilmente resoluciones de hasta 1600x1280 pixels 
Resolución 
Un pixel es la 
Unidad mínima de información gráfica que se puede mostrar en pantalla. Cuantos más pixels 
pueda mostrar el monitor de más resolución dispondremos. Traducido a lenguaje "de la calle" 
quiere decir que más elementos nos cabrán en ella. Es igual que si vivimos en un estudio de 25 m2 
y nos mudamos ¡Oh fortunal a una casa de 300 m2. Nosotros somos los mismos, sólo que 
disponemos de más espacio. Si trabajas con Windows la resolución ampliada es fundamental, 
puedes tener mas iconos en pantalla, puedes tener abiertas varias aplicaciones y verlas a la vez, 
sin tener que maximizar cada una cuando cambies a ellas, etc. 
La resolución está íntimamente relacionada con las dimensiones del monitor, pero no podemos 
guiarnos fiablemente por esto. Por ejemplo, hay algún monitor de 15 pulgadas que alcanza 
resoluciones de hasta 1600 x 1280, pero las dimensiones físicas de la pantalla hacen que todo se 
vea muy reducido, siendo un engorro y además pagamos por unas características que nunca
utilizaremos. Para estas resoluciones ampliadas le recomendamos: un monitor de 15 pulgadas 
para 1024 x 768, y uno de 17 o 20 pulgadas para 1280 x 1024 pixels. 
Entrelazado 
Es una técnica que permite al monitor alcanzar mayores resoluciones refrescando el contenido de 
la pantalla en dlls barridos, en lugar de uno. Lo malo de esta técnica es que produce un efecto de 
parpadeo muy molesto, debido a que el tiempo de refresco no es lo suficientemente pequeño 
como para mantener el fósforo activo entre las dos pasadas. 
Procure que su monitor sea no-entrelazado. 
Frecuencia de barrido vertical 
El rayo de electrones debe recorrer toda la superficie de la pantalla empezando por la esquina 
superior izquierda, y barriéndola de izquierda a derecha y de arriba abajo. La frecuencia de 
refresco, medida en Hertzios, es el número de veces que el cañón de electrones barre la pantalla 
por segundo. ¿Por qué es tan importante este valor? Pues porque si es una frecuencia baja, se 
hará visible el recorrido del haz de electrones, en forma de un molesto parpadeo de la pantalla. El 
mínimo debe ser de 70 Hz, pero un buen monitor debe ser capaz de alcanzar frecuencias 
superiores. Cuanto mayor sea el valor de este parámetro mejor, ya que permitirá mayores 
resoluciones sin necesidad de entrelazar. La imagen será más nítida y estable. 
Tamaño del punto (Dot Pltch) 
Un punto del monitor es la unidad mínima física que puede mostrarse en la pantalla. Dependiendo 
de la resolución lógica que utilicemos se adaptará la salida para que un pixel ajuste perfectamente 
con una o un conjunto de estas celdillas físicas de pantalla. Si un monitor tiene las celdillas muy 
pequeñas, menor será el tamaño del pixel lógico, con lo cual las resoluciones altas serán más 
precisas en la calidad de la imagen. Un tamaño muy bueno del punto es de 0.25 mientras que uno 
de 0.28 o superior muestran resultados deficientes en resoluciones mayores a 800 x 600 pixels. 
Existen otros parámetros interesantes, como por ejemplo la posibilidad de almacenar 
configuraciones en la memoria del monitor, que sea de exploración digital controlada por un 
microprocesador, la posibilidad de desmagnetizar el tubo (degauss), de ajustar las dimensiones de 
la imagen, control de color, brillo y contraste, ahorro de energía, baja radiación, etc. 
Existe una gran variedad de monitores en el mercado entre ellos están los Sony, Hitachi, Samsung, 
Philips Brilliance, Eizo, Nanao, Toshiba, Proview, etc. 
Lo que sí debe quedar claro es que si queréis resoluciones de 1024 x 768 optad por uno de 15 
pulgadas y mirad muy bien las especificaciones del entrelazado y tamaño del punto (sobre todo). 
Filtros para el monitor
Si el monitor es importante para poder ver qué hacemos y lo que nos dice el sistema, más 
importante son nuestros ojos y nuestra salud. Está demostrado científicamente, y en la práctica, 
que trabajar ante un monitor produce cansancio, picor e irritación de ojos, vista cansada, dolor de 
cabeza y visión borrosa. El filtro es un elemento imprescindible, y hasta tal punto que es 
obligatorio en todos los centros de trabajo. El monitor emite una serie de radiaciones y acumula 
en la pantalla electricidad estática, causantes de estos síntomas. Los filtros de pantalla se encargan 
de reducir estos efectos de las radiaciones y de descargar la electricidad estática. Entre las 
radiaciones emitidas se encuentran la ultravioleta, la infrarroja, la visible (luminosidad), y VLF y ELF 
(generadas por los campos electromagnéticos que crea el sistema de alimentación). Entre 
las demás ventajas de instalar un filtro frente a nosotros destacan la eliminación de los reflejos en 
la pantalla, el aumento de la definición de los colores y caracteres y la reducción de la cantidad de 
polvo y suciedad que se fija a la pantalla (principalmente por el humo de tabaco) debido a la 
electricidad estática. 
En el mercado existe una gran cantidad de filtros cuyo precio oscila entre las 3.000 y 20.000 
pesetas. La diferencia se ve sobre todo en el precio, aunque se justifica en el proceso de 
fabricación, concretamente en el tratamiento del cristal. Los mejores están tratados por las dos 
caras, poseen filtro ortocromático, un cable para la descarga de la electricidad estática (generadas 
sobre todo al encender el monitor) y reducen la radiación emitida hasta en un 99%. 
La alternativa LCD 
Últimamente se habla del avance de la tecnología LCD o cristal líquido, llegando incluso a citarse 
como posible alternativa de futuro frente al tradicional CRT. Ventajas como el ahorro de consumo 
y de espacio (LCD posibilita la fabricación de pantalla extra-planas, de muy poca profundidad), así 
como la prácticamente nula emisión de radiaciones, aportan un gran interés a este tipo de 
dispositivos. No obstante, su elevado costo unido a los continuos avances en la tecnología CRT 
hacen que, por el momento, ésta última sea la opción más recomendable. En cualquier caso, no 
hay que perder de vista esta alternativa; nunca se sabe... 
Es el cerebro del ordenador. Se encarga de realizar todas las 
Operaciones de cálculo y de controlar lo que pasa en el ordenador recibiendo información y dando 
órdenes para que los demás elementos trabajen. Es el jefe del equipo y, a diferencia de otros jefes, 
es el que más trabaja. En los equipos actuales se habla de los procesadores Pentium MMX y 
Pentium II/III de Intel además de las alternativas de AMD (familias K6 y K7) y Cyrix (6x86, MII). 
Tipos de conexión 
El rendimiento que dan los microprocesadores no sólo dependen de ellos mismos, sino de la placa 
donde se instalan. Los diferentes micros no se conectan de igual manera a las placas: 
En las placas base más antiguas, el micro iba soldado, de forma que no podía actualizarse (486 a 
50 MHz hacia atrás). Hoy día esto no se ve.
En las de tipo Pentium (Socket 7) normal el microprocesador se instala en un zócalo especial 
llamado ZIF (Zero Insertion Force) que permite insertar y quitar el microprocesador sin necesidad 
de ejercer alguna presión sobre él. Al levantar la palanquita que hay al lado se libera el 
microprocesador, siendo extremadamente sencilla su extracción. Estos zócalos aseguran la 
actualización del microprocesador. Por ejemplo un zócalo ZIF Socket-3 permite la inserción de un 
486 y de un Pentium Overdrive. Existen 8 tipos de socket, el 8º es el del Pentium Pro. 
Y por otro lado, los procesadores Pentium II y Celeron/A de Intel y el Athlon (K7) de AMD van 
conectados de una forma similar a una tarjeta gráfica o de sonido (por ejemplo). En los 
procesadores de Intel, el lugar 
Donde se instala es el Slot1 (o Slot2 en las versiones Xeon profesionales) y en el caso del K7 se 
instala en el SlotA. En ambos existen unas guías de plástico que ayudan a que el microprocesador 
se mantenga en su posición. Hay que mencionar que algunos procesadores Celeron utilizan la 
conexión PPGA o Socket 370, similar en cierto modo al Socket 8, con nulas capacidades de 
ampliación y que sólo ofrece como ventaja un pequeño ahorro en la compra del equipo. 
Valoración del rendimiento de un microprocesador 
El microprocesador es uno de los componentes que hay que prestar más atención a la hora de 
actualizarlo, ya que en su velocidad y prestaciones suele determinar la calidad del resto de 
elementos. Esta afirmación implica lo siguiente: por ejemplo, en un Pentium de baja gama es 
absurdo poner 8 Mb. de RAM y un disco duro de 3 ó 4 Gb; y en un PII de alta gama también es 
absurdo poner 32 Mb. de RAM y un disco duro de 2 Gb. Hay que hacer una valoración de todos los 
elementos del ordenador, actualmente en las tiendas suelen venderse digamos "motores de un 
mercedes en la carrocería de un 600". Esto tenemos que evitarlo. Además del microprocesador, la 
velocidad general del sistema se verá muy influenciada (tanto o más que por el micro) debido a la 
placa base, la cantidad de memoria RAM, la tarjeta gráfica y el tipo de disco duro. Profundizar 
sobre estos temas se escapa de esta sección de microprocesadores, accede a la sección de 
componente en particular para más información. 
Hoy día, hay que 
Fijarse el propósito de la utilización del ordenador para elegir el correcto microprocesador. Por 
ejemplo, si se va a trabajar con los típicos programas de ofimática (Word, Excel...), un 486 con 
Windows 95 y 16 Mb. de RAM es más que suficiente, al igual que para navegar por Internet. Sin 
embargo, según sean más complejos los programas, más complejos serán los equipos. Los 
programas multimedia y enciclopedias, requieren un procesador Pentium de gama media. A los 
programas de retoque fotográfico se les puede poner también un procesador Pentium de gama 
media, aunque influirá sobre todo la memoria RAM (harán falta un mínimo de 128 Mb. para un 
rendimiento óptimo, según nuestras pruebas). Y últimamente se está incitando a la adquisición de 
equipos mejores debido sobre todo a los últimos juegos 3D, descompresión MPEG-2 por software
para visualizar DVDs (la tarea la realiza el micro conjuntamente con la tarjeta gráfica)... y a un nivel 
menos doméstico, la renderización de gráficos tridimensionales o la ejecución multitarea de 
servidores de red. Para esto, nada es suficiente, por ello los micros son cada vez más y más rápidos 
y complejos. Aunque si lo que quieres son juegos, mejor decántate por una aceleradora 3D, ya que 
se tiene una experiencia mejor en un Pentium a 133 MHz con una Voodoo Graphics que en un 
Pentium II/K6-2 a 300 MHz sin aceleradora. Lo ideal, lógicamente, es un PII/K6-2 con una 
aceleradora gráfica 
Y ya por último, diremos que el disipador + ventilador puede reducir la 
Temperatura del micro unos 40 grados centígrados y aumentar el rendimiento un 30%. En los 
procesadores actuales este componente es imprescindible para el funcionamiento del 
microprocesador, que de lo contrario terminaría quemado. 
Conclusiones 
Como conclusiones, veamos los procesadores que os recomendamos. De una manera totalmente 
subjetiva. 
Sobre los procesadores de Intel. El Celeron de Intel, alias "Covington", al carecer de memoria 
caché L2, va bastante mal, incluso con un rendimiento a veces inferior al Pentium MMX (el Celeron 
no es más que una estrategia de Intel para que el mercado evolucione hacia el Slot 1). Por ello, 
descarta el Celeron, ya que, aunque puede ser bueno para algunas tareas, le supera algunos 
procesadores de otras marcas en el mismo nivel de precio, como el K6 o el K6-2 de AMD (procura 
que no te venda un ordenador Celeron con una frase que se está volviendo bastante típica "Todo 
un Pentium II por xxx ptas". Un procesador a considerar es el nuevo Celeron "A", alias 
"Mendocino", el cual lleva 128 Kb. de caché L2, el cual tiene un rendimiento prácticamente igual 
que el Pentium II de sus mismos MHz. Si duda, este procesador reemplazará tanto a los Celeron 
como a los Pentium II de sus mismos MHz (266-333 por ahora). También Intel posee unos micros 
Celeron A con otro tipo de conexión, PPGA (similar al socket 8), que ofrecen un ahorro a la hora de 
comprar la placa base, pero que descartaremos sin dudarlo, ya que los micros están al mismo 
precio y el socket PPGA 
Ofrece capacidades de ampliación totalmente nulas. Sobre el Pentium II, muy popular y extendido, 
es un micro muy interesante. Más caro que el Mendocino y con rendimientos no muy superiores, 
ofrece muy buenos resultados a la hora del trabajo en programas tridimensionales gracias a la 
avanzada unidad de cálculo de coma flotante, así como una buena ejecución de programas en 
entorno multitarea como Windows NT. Sin embargo, en tareas más sencillas, como el uso de 
Windows 95/98 o los programas de ofimática, se ven claramente superados por los procesadores 
de AMD, mucho más económicos, como veremos dentro de poco. Sobre la última baza de Intel, el 
Pentium III, en realidad no es más que un Pentium II con nuevas instrucciones multimedia. Sin 
estas instrucciones, va prácticamente igual que su predecesor y bajo ciertas situaciones peor (se 
ve compensado por un aumento en los MHz). Los procesadores de Intel hasta el Pentium III han 
sido superados de lejos por los micros de AMD, veremos qué tal van los próximos de Intel:
Coppermine (un Pentium III con bus de 133 MHz, tecnología de 0,18 micras y 256 kb de caché L2 
en el micro a la misma velocidad de reloj). Sin embargo, en caso de querer hacer una 
configuración multiprocesador (2 o 4 micros en adelante), sólo puede hacerse con micros de Intel, 
ya que los AMD no soportan tales conexiones, al menos hasta la llegada del Athlon (K7). 
Y ya por último comentaremos los micros de AMD. Todo empezó por una auténtica joya que dio y 
está dando mucha guerra a 
Intel: el K6-2 de AMD. Este procesador incorpora la nueva tecnología 3D Now!, 21 nuevas 
instrucciones en el procesador, la cual ha echo a Intel adelantar medio año el lanzamiento de su 
procesador "Katmai" (el Pentium III, que no es más que un Pentium II con MMX2). El K6-2 tiene un 
bus de 100 MHz, ancho de transistor de 0,25 micras, soporta AGP y todo el resto de características 
que tiene el Pentium II, pero en una plataforma Socket 7 como la del Pentium II. Y el 3D Now! del 
K6-2 verdaderamente funciona, por lo menos el Quake II va bastante más rápido en la versión 
especial para 3D Now!. Con el 3D Now!, el rendimiento de un K6-2 a 300 Mhz pasa de igualar en 
rendimiento de un Pentium II 300 a casi un Pentium II 400. Más recientemente, AMD ha lanzado 
su nuevo K6-3. Más que un K6-2 mejorado, es un procesador totalmente nuevo, con un diseño 
especial de 3 tipos de memoria caché (L1 y L2 en el micro y L3 en la placa) que ha sido el primer 
micro de AMD en superar en prácticamente todos los aspectos a un Intel y en dejarle atrás, ya que 
el K6-2 tenía ciertas flaquezas en la unidad de coma flotante (si el programa que ejecuta no usa 
3DNow!) . Actualmente es el micro más recomendable, de mejor calidad precio, marcha mucho 
mejor que un K6-2 y la placa base es relativamente más económica. Y la última bomba es el Athlon 
(K7) que aún no está a la venta, pero que supera y deja muy muy atrás a micros de Intel en todos 
los aspectos, incluida la unidad de cálculo de coma flotante. 
Estructura interna 
De un disco duro 
* Tamaño de clúster y espacio disponible 
Un cluster se trata de una agrupación de varios sectores para formar una unidad de asignación. 
Normalmente, el tamaño de cluster en la FAT del DOS o de Windows 95 es de 32 Kb; ¿y qúe? Esto 
no tendría importancia si no fuera porque un cluster es la mínima unidad de lectura o escritura, a 
nivel lógico, del disco. Es decir, cuando grabamos un archivo, por ejemplo de 10 Kb, estamos 
empleando un cluster completo, lo que significa que se desperdician 22 Kb de ese culster. 
Imaginaos ahora que grabamos 100 ficheros de 10 Kb; perderíamos 100x22 Kb, más de 2 Megas. 
Por ello, el OSR2 de Windows 95 y Windows 98 implementan una nueva FAT, la FAT 32, que 
subsana esta limitación, además de otros problemas. 
Un disco duro se compone de muchos elementos; citaremos los más importantes de cara a 
entender su funcionamiento. En primer lugar, la información se almacena en unos finos platos o 
discos, generalmente de aluminio, recubiertos por un material sensible a alteraciones magnéticas.
Estos discos, cuyo número varía según la capacidad de la unidad, se encuentran agrupados uno 
sobre otro y atravesados por un eje, y giran continuamente a gran velocidad. 
Asimismo, cada disco posee dos diminutos cabezales de lectura/escritura, uno en cada cara. Estos 
cabezales se encuentran flotando sobre la superficie del disco sin llegar a tocarlo, a una distancia 
de unas 3 o 4 micropulgadas (a título de curiosidad, podemos comentar que el diámetro de un 
Cabello humano es de unas 4.000 pulgadas). Estos cabezales generan señales eléctricas que 
alteran los campos magnéticos del disco, dando forma a la información. (Dependiendo de la 
dirección hacia donde estén orientadas las partículas, valdrán 0 o valdrán 1). 
La distancia entre el cabezal y el plato del disco también determinan la densidad de 
almacenamiento del mismo, ya que cuanto más cerca estén el uno del otro, más pequeño es el 
punto magnético y más información podrá albergar. 
* Algunos conceptos 
Antes hemos comentado que los discos giran continuamente a gran velocidad; este detalle, la 
velocidad de rotación, incide directamente en el rendimiento de la unidad, concretamente en el 
tiempo de acceso. Es el parámetro más usado para medir la velocidad de un disco duro, y lo 
forman la suma de dos factores: el tiempo medio de búsqueda y la latencia; el primero es lo que 
tarde el cabezal en desplazarse a una pista determinada, y el segundo es el tiempo que emplean 
los datos en pasar por el cabezal. 
Si se aumenta la velocidad de rotación, la latencia se reduce; en antiguas unidades era de 3.600 
rpm (revoluciones por minuto), lo que daba una latencia de 8,3 milisegundos. La mayoría de los 
discos duros actuales giran ya a 7.200 rpm, con lo que se obtienen 4,17 mb de latencia. Y 
actualmente, existen discos de alta gama aún más rápidos, hasta 10.000 rpm. 
Es preciso comentar también la estructura lógica del disco, ya que contiene importantes conceptos 
que todos habréis oído; para 
Empezar, la superficie del disco se divide en una serie de anillos concéntricos, denominados pistas. 
Al mismo tiempo, las pistas son divididas en trames de una misma longitud, llamados sectores; 
normalmente un sector contiene 512 bytes. Otro concepto es el de cilindro, usado para describir 
las pistas que tienen el mismo número pero en diferentes discos. Finalmente, los sectores suelen 
agruparse en clusters o unidades de asignación. Estos conceptos son importantes a la hora de 
instalar y configurar un disco duro, y haremos uso de alguna de esta información cuando subamos 
al nivel lógico del disco. Muchas placas base modernas detectan los discos duros instalados, 
mientras que en otras más antiguas hay que meter algunos valores uno por uno (siempre vienen 
escritos en una etiqueta pegada en la parte superior del disco). 
* El estándar IDE
"Integrated Drive Electronics", o IDE, fue creado por la firma Western Digital, curiosamente por 
encargo de Compaq para una nueva gama de ordenadores personales. Su característica más 
representativa era la implementación de la controladora en el propio disco duro, de ahí su 
denominación. Desde ese momento, únicamente se necesita una conexión entre el cable IDE y el 
Bus del sistema, siendo posible implementarla en la placa base (como de hecho ya se hace desde 
los 486 DX4 PCI) o en tarjeta (equipos 486 VLB e inferiores). Igualmente se eliminó la necesidad de 
disponer de dos cables separados para control y datos, bastando con un cable de 40 hilos 
Desde el bus al disco duro. Se estableció también el término ATA (AT Attachment) que define una 
serie de normas a las que deben acogerse los fabricantes de unidades de este tipo. 
IDE permite transferencias de 4 Megas por segundo, aunque dispone de varios métodos para 
realizar estos movimientos de datos, que veremos en el apartado "Modos de Transferencia". La 
interfaz IDE supuso la simplificación en el proceso de instalación y configuración de discos duros, y 
estuvo durante un tiempo a la altura de las exigencias del mercado. 
No obstante, no tardaron en ponerse en manifiesto ciertas modificaciones en su diseño. Dos muy 
importantes eran de capacidad de almacenamiento, de conexión y de ratios de transferencia; en 
efecto, la tasa de transferencia se iba quedando atrás ante la demanda cada vez mayor de 
prestaciones por parte del software (¿estás ahí, Windows?). Asimismo, sólo podían coexistir dos 
unidades IDE en el sistema, y su capacidad (aunque ero no era del todo culpa suya, lo veremos en 
el apartado "El papel de la BIOS") no solía exceder de los 528 Megas. Se imponía una mejora, y 
¿quién mejor para llevarla a cabo que la compañía que lo creó? 
* Enhanced IDE 
La interfaz EIDE o IDE mejorado, propuesto también por Western Digital, logra una mejora de 
flexibilidad y prestaciones. Para empezar, aumenta su capacidad, hasta 8,4 Gigas, y la tasa de 
transferencia empieza a subir a partir de los 10 Megas por segundo, según el modo de 
transferencia usado. Además, se implementaron dos 
Sistemas de traducción de los parámetros físicos de la unidad, de forma que se pudiera acceder a 
superiores capacidades. Estos sistemas, denominados CHS y LBA aportaron ventajas innegables, ya 
que con mínimas modificaciones (aunque LBA exigía también cambios en la BIOS del PC) se podían 
acceder a las máximas capacidades permitidas. 
Otra mejora del EIDE se reflejó en el número de unidades que podían ser instaladas al mismo 
tiempo, que se aumentó a cuatro. Para ello se obligó a fabricantes de sistemas y de BIOS a 
soportar los controladores secundarios (dirección 170h, IRQ 15) siempre presentes en el diseño 
del PC pero nunca usados hasta el momento, de forma que se pudieran montar una unidad y otra 
esclava, configuradas como secundarias. Más aún, se habilitó la posibilidad de instalar unidades 
CD-ROM y de cinta, coexistiendo pacíficamente en el sistema (más sobre esto en el apartado 
"Otros términos"). A nivel externo, no existen prácticamente diferencias con el anterior IDE, en
todo caso un menor tamaño o más bien una superior integración de un mayor número de 
componentes en el mismo espacio. 
Periféricos de entrada de información. 
Son los elementos a través de los que se introduce información a la computadora. En este 
apartado se encuentran el teclado, el ratón, los scanners, etc. 
Periféricos de almacenamiento de la información. 
Son subsistemas que permiten a la computadora almacenar, temporal o indefinidamente, la 
información o los programas. 
Los dispositivos de 
Almacenamiento, llamados también memorias auxiliares o masivas, son un soporte de apoyo para 
la computadora en la realización de sus tareas, ya que puede enviar a ellos, temporalmente, desde 
la memoria principal parte de la información que no van a utilizar en esos momentos, dejando 
parte del área de trabajo libre para trabajar más cómodamente, y mantenerla almacenada hasta 
que sea necesaria su utilización, momento en que la volverá a trasladar a la memoria principal. 
Entre los dispositivos de almacenamiento se pueden destacar los discos magnéticos y las cintas. 
Un elemento que está obteniendo cada vez mayor aceptación es el CD-ROM. 
Periféricos de salida de la información. 
Son los periféricos que transmiten los resultados obtenidos tras el proceso de la información por la 
computadora al exterior del sistema informático para que pueda ser utilizado por los seres 
humanos u otros sistemas diferentes. 
Las pantallas de computadora e impresoras conectadas a los sistemas informáticos son los medios 
de representación de la información más extendidos 
Periféricos de comunicaciones. 
Estos subsistemas están dedicados a permitir la conexión de la computadora con otros sistemas 
informáticos a través de diversos medios; el medio más común es la línea telefónica. El periférico 
de comunicaciones más utilizado es el modem. 
También existen periféricos que comparten características particulares de varios de ellos 
Internet ha supuesto una revolución sin precedentes en el mundo de la informática y de las 
Comunicaciones. Los inventos del telégrafo, teléfono, radio y ordenador sentaron las bases para 
esta integración de capacidades nunca antes vivida. Internet es a la vez una oportunidad de
difusión mundial, un mecanismo de propagación de la información y un medio de colaboración e 
interacción entre los individuos y sus ordenadores independientemente de su localización 
geográfica. 
La Internet ha significado una revolución sin precedentes en el mundo de la informática y de las 
comunicaciones y que ha transformado a la humanidad. Han contribuido a ello los inventos del 
teléfono, la radio, los satélites, las computadoras, dispositivos de hardware, los protocolos o 
estándares de comunicaciones y software especializados, tales como navegadores, correo 
electrónico, FTP, video conferencias, etc. 
Conviene ir poniéndose al día en esta nueva jerga, no tanto por el hecho de "estar a la última", 
sino por aprovechar las innegables y enormes posibilidades que se abren y se presentan en este 
ámbito. Ya se habla de ello como de "un nuevo tipo de ocio". Actualmente, ya se pueden hacer 
cosas tan dispares como comprar entradas para conciertos, comunicarse mediante correo 
electrónico, ver qué está ocurriendo en la Plaza de Bolivar en este momento o consultar las 
imágenes que manda el Meteosat para hacer nuestra propia predicción del tiempo. 
Informarse de las posibilidades de Internet y de cómo acceder a ellas es el primer paso para 
empezar a caminar por estas carreteras del futuro. 
Proyecto Canaima 
Canaima Educativo es un proyecto del Gobierno Bolivariano que nace en el 
año 2009 enmarcado en la Constitución Bolivariana de Venezuela (2009), el 
Plan Nacional Simón Bolívar (2007–2013), Ley Orgánica de Educación (LOE 
2009), Ley Orgánica para la Protección del Niño, Niña y del Adolescente 
(LOPNNA 2008) Ley Orgánica de Ciencia, Tecnología e Innovación (2005), 
Plan Nacional de Telecomunicaciones, Informática y Servicios Postales (PNTI 
y SP 2007-2013), y el Decreto 3.390 (2004). Parte del eje integrador 
Tecnologías de Información y Comunicación en el ámbito del proceso 
Curricular venezolano con el objetivo de potenciar los aprendizajes en las y 
Los estudiantes del Subsistema de Educación Básica mediante el uso de las 
Portátiles Canaima como un recurso en constante actualización. 
El Proyecto Canaima Educativo está enmarcado dentro de la segunda meta 
de la Organización de las Naciones Unidas que establece: “Lograr la
enseñanza primaria universal” impulsando la construcción de la “Nueva 
arquitectura ética social internacional” para el desarrollo humano y 
sostenible. Propicia en las y los estudiantes el pensamiento reflexivo, 
creativo y crítico en lo cientí-co, tecnológico y humanístico propiciando la 
consecución de la soberanía e independencia tecnológica y el 
reconocimiento de la República Bolivariana de Venezuela como el espacio 
de aprendizaje más grande del mundo y garantizar el derecho a la 
educación. 
Plataformas usadas actualmente en la educación a distancia: 
*Blended Learning (B-Learning) no es un concepto nuevo. Durante años se ha designado de 
este modo a la combinación de diferentes estrategias y actividades de enseñanza. Tal vez lo 
más novedoso de su utilización en el campo educativo proviene por el uso del término y por 
su vinculación con las diferentes modalidades de formación, presencial y online. Hasta el 
momento los términos que recorrían y dominaban la literatura latina asociados a la 
transformación de la enseñanza y el aprendizaje eran: “enseñanza semipresencial”, 
“educación flexible”, “aprendizaje mezclado” y “formación mixta”. Del mismo modo, en la 
bibliografía anglosajona se mencionaba con gran peso la configuración de un modelo 
denominado “híbrido”. (Mariño, 2006). Sin embargo todos estos términos estaban 
asociados a la adaptación de los procesos y actividades de enseñanza a nuevas situaciones 
de enseñanza a distancia, pero no representaban de modo ajustado los cambios que se 
producían en el campo educativo con la ampliación de los espacios formativos. 
*E-Learning: 
Antes de comenzar a hablar de las plataformas de enseñanza virtual conviene familiarizarse con el 
concepto de E-Learning (Electronic Learning) y las implicaciones que tiene en este PFC. 
El E-Learning, en castellano Enseñanza virtual, es definido por la Fundación para el Desarrollo de 
la Función Social de las Comunicaciones (FUNDESCO) como: “Un sistema de impartición de
formación a distancia, apoyado en las TIC (Tecnologías de la información y la comunicación) que 
combina distintos elementos pedagógicos: Instrucción clásica (presencial o autoestudio), las 
prácticas, los contactos en tiempo real (presenciales, videoconferencias o chats) y los contactos 
diferidos (tutores, foros de debate, correo electrónico)” (Puente, 2002). 
Como vemos, el E-learning suele ser entendido como un método de enseñanza que prácticamente 
sólo engloba la formación no presencial. En nuestro caso vemos como se nos adapta más la 
definición de B-Learning (Blended Learning), a pesar de esto, durante el documento seguiremos 
usando la definición de E-Learning, puesto que todo lo expuesto para esta metodología de 
enseñanza, es aplicable al caso en el que nos encontramos. 
Plataformas usadas por la UNESR actualmente en la educación a distancia: 
*Dokeos: Dokeos es una suite de aprendizaje en línea basada en software libre. Provee 
todas las características que una aplicación de aprendizaje en línea necesita, 
desde la autoría de cursos hasta informes. 
Dokeos nació en 2004 a partir de Claroline (Cent.uji 2004). El creador de 
Claroline, Thomas de Praetere, inició Dokeos debido a que la Universidad 
Católica de Lovaina prestaba poca atención al desarrollo de Claroline. Como 
Claroline es una marca registrada de la universidad, decidió crear una nueva 
aplicación y, de esta forma, poner más énfasis en el desarrollo de la misma. Para acometer este 
proyecto creó la empresa del mismo nombre, Dokeos, esta empresa se encarga del desarrollo de 
Dokeos y ofrece hospedaje, consultoría y soporte para empresas e instituciones. 
Dokeos actualmente usa dos vías para su desarrollo: por un lado la empresa Dokeos desarrolla la 
aplicación y hace adaptaciones para clientes concretos, además desarrolla las herramientas 
concretas de las versiones no libres de la aplicación. 
Por otro lado la comunidad, traduce la aplicación, informa de errores y los corrige, implementa
nuevas herramientas que en el futuro serán añadidas a la aplicación oficial y documenta la 
plataforma. 
Actualmente la comunidad Dokeos está formada por un amplio grupo de personas 
interconectadas: 
keos para la formación y evaluación 
el software 
Actualmente Dokeos se distribuye en cuatro versiones (Libre, Educación, Pro Y Medical) 
dependiendo de las herramientas o el soporte que incluye (Dokeos, 2010). 
* Moodle: 
Moodle es un paquete de software para la creación de cursos 
de E-Learning. Es un proyecto en desarrollo, diseñado para 
dar soporte a un marco de educación social constructivista. 
Moodle fue creado por Martin Dougiamas, quien fue 
administrador de WebCT en la Universidad Tecnológica de Curtin. Martin basó su diseño en las 
ideas del constructivismo en pedagogía, que afirman que el conocimiento se construye en la 
mente del estudiante en lugar de ser transmitido sin cambios a partir de libros o enseñanzas y en 
el 
aprendizaje colaborativo. Un profesor que opera desde este punto de vista crea un ambiente 
centrado en el estudiante que le ayuda a construir ese conocimiento con base en sus habilidades y 
conocimientos propios en lugar de simplemente publicar y transmitir la información que se 
considera que los estudiantes deben conocer.
La palabra Moodle era al principio un acrónimo de Modular Object-Oriented Dynamic Learning 
Environment (Entorno de Aprendizaje Dinámico Orientado a Objetos y Modular), lo que resulta 
fundamentalmente útil para programadores y teóricos de la educación. También es un verbo que 
describe el proceso de deambular perezosamente a través de algo, y hacer las cosas cuando se te 
ocurre hacerlas, una placentera chapuza que a menudo te lleva a la visión y la creatividad. Las dos 
acepciones se aplican a la manera en que se desarrolló Moodle y a la manera en que un estudiante 
o profesor podría aproximarse al estudio o enseñanza de un curso en línea.

Más contenido relacionado

La actualidad más candente

Tp arquitectura
Tp arquitecturaTp arquitectura
Tp arquitecturanic0las
 
Conceptos basicos computacion lbmfm
Conceptos basicos computacion lbmfmConceptos basicos computacion lbmfm
Conceptos basicos computacion lbmfmGregorio Guzmán
 
Estructura del computador.
Estructura del computador. Estructura del computador.
Estructura del computador. Samantha Pineda
 
Informatica en gestion tributaria
Informatica en gestion tributariaInformatica en gestion tributaria
Informatica en gestion tributariaANALIA TOCONAS
 
Cpu terminado[1]
Cpu terminado[1]Cpu terminado[1]
Cpu terminado[1]gabrielav23
 
Los computadores
Los computadoresLos computadores
Los computadoreschichot222
 
Computadores
Computadores Computadores
Computadores 19022013
 
Organizacion del computador
Organizacion del computadorOrganizacion del computador
Organizacion del computadorBrayan Seba
 
Sistemas de computo
Sistemas de computoSistemas de computo
Sistemas de computoCandy Venus
 
Arquitectura de una computadora
Arquitectura de una computadoraArquitectura de una computadora
Arquitectura de una computadoraAna Ortiz
 
Iniciación a la Computación
Iniciación a la ComputaciónIniciación a la Computación
Iniciación a la ComputaciónDanielaAponte
 
Tecnologias de informacion para los negocios. Grupo #3
Tecnologias de informacion para los negocios. Grupo #3Tecnologias de informacion para los negocios. Grupo #3
Tecnologias de informacion para los negocios. Grupo #3Jose Daniel Marcano Vivas
 

La actualidad más candente (16)

Tp arquitectura
Tp arquitecturaTp arquitectura
Tp arquitectura
 
Conceptos basicos computacion lbmfm
Conceptos basicos computacion lbmfmConceptos basicos computacion lbmfm
Conceptos basicos computacion lbmfm
 
Estructura del computador.
Estructura del computador. Estructura del computador.
Estructura del computador.
 
Informatica en gestion tributaria
Informatica en gestion tributariaInformatica en gestion tributaria
Informatica en gestion tributaria
 
Cpu terminado[1]
Cpu terminado[1]Cpu terminado[1]
Cpu terminado[1]
 
Los computadores
Los computadoresLos computadores
Los computadores
 
Final (1)
Final (1)Final (1)
Final (1)
 
Computadores
Computadores Computadores
Computadores
 
INFORMATICA GRUPO 3
INFORMATICA GRUPO 3INFORMATICA GRUPO 3
INFORMATICA GRUPO 3
 
Organizacion del computador
Organizacion del computadorOrganizacion del computador
Organizacion del computador
 
Sistemas de computo
Sistemas de computoSistemas de computo
Sistemas de computo
 
Arquitectura de una computadora
Arquitectura de una computadoraArquitectura de una computadora
Arquitectura de una computadora
 
Iniciación a la Computación
Iniciación a la ComputaciónIniciación a la Computación
Iniciación a la Computación
 
Tecnologias de informacion para los negocios. Grupo #3
Tecnologias de informacion para los negocios. Grupo #3Tecnologias de informacion para los negocios. Grupo #3
Tecnologias de informacion para los negocios. Grupo #3
 
Memoria
Memoria Memoria
Memoria
 
La cpu
La cpuLa cpu
La cpu
 

Destacado

Destacado (10)

La ciudad
La ciudadLa ciudad
La ciudad
 
Ikkat saree
Ikkat sareeIkkat saree
Ikkat saree
 
Amitha e portfolio
Amitha e portfolioAmitha e portfolio
Amitha e portfolio
 
Roots
RootsRoots
Roots
 
Routine with room number
Routine with room number Routine with room number
Routine with room number
 
NSA HR Triathlon Distance Challenge Results_Week 2
NSA HR Triathlon Distance Challenge Results_Week 2 NSA HR Triathlon Distance Challenge Results_Week 2
NSA HR Triathlon Distance Challenge Results_Week 2
 
Presentation1
Presentation1Presentation1
Presentation1
 
Christmas if god is love
Christmas   if god is loveChristmas   if god is love
Christmas if god is love
 
The world IS here
The world IS hereThe world IS here
The world IS here
 
關於戒律
關於戒律關於戒律
關於戒律
 

Similar a Computadoras Educación

Cómo funciona un computador
Cómo funciona un computadorCómo funciona un computador
Cómo funciona un computadorjhonatan_19
 
Proceso tecnológico de un computador
Proceso tecnológico de un computadorProceso tecnológico de un computador
Proceso tecnológico de un computadorBFG9000
 
Primera y segunda unidad
Primera y segunda unidadPrimera y segunda unidad
Primera y segunda unidadsistemasiti
 
Primera y segunda unidad
Primera y segunda unidadPrimera y segunda unidad
Primera y segunda unidadsistemasiti
 
Primera y segunda unidad
Primera y segunda unidadPrimera y segunda unidad
Primera y segunda unidadsistemasiti
 
Primera y segunda unidad
Primera y segunda unidadPrimera y segunda unidad
Primera y segunda unidadsistemasiti
 
Grupo 3 descripción a nivel de registros del proceso de ejecución de instrucc...
Grupo 3 descripción a nivel de registros del proceso de ejecución de instrucc...Grupo 3 descripción a nivel de registros del proceso de ejecución de instrucc...
Grupo 3 descripción a nivel de registros del proceso de ejecución de instrucc...anyelisbrito
 
Importancia del computador como herramienta de trabajo
Importancia del computador como herramienta de trabajoImportancia del computador como herramienta de trabajo
Importancia del computador como herramienta de trabajoMARIA RODRIGUEZ
 
Rodney Parada Elementos del Computador
Rodney Parada Elementos del ComputadorRodney Parada Elementos del Computador
Rodney Parada Elementos del ComputadorRodneyparada
 
Introduccion A La Informatica
Introduccion A La InformaticaIntroduccion A La Informatica
Introduccion A La Informaticafrankbolivar
 
antologia de LA COMPUTADORA(tema 4).doc
antologia de LA COMPUTADORA(tema 4).docantologia de LA COMPUTADORA(tema 4).doc
antologia de LA COMPUTADORA(tema 4).docJuan Aguillon
 
Apuntes empiezo (a)
Apuntes empiezo (a)Apuntes empiezo (a)
Apuntes empiezo (a)pabesacv
 

Similar a Computadoras Educación (20)

Trabajo de investigacion
Trabajo de investigacionTrabajo de investigacion
Trabajo de investigacion
 
Cómo funciona un computador
Cómo funciona un computadorCómo funciona un computador
Cómo funciona un computador
 
Proceso tecnológico de un computador
Proceso tecnológico de un computadorProceso tecnológico de un computador
Proceso tecnológico de un computador
 
Primera y segunda unidad
Primera y segunda unidadPrimera y segunda unidad
Primera y segunda unidad
 
Primera y segunda unidad
Primera y segunda unidadPrimera y segunda unidad
Primera y segunda unidad
 
Primera y segunda unidad
Primera y segunda unidadPrimera y segunda unidad
Primera y segunda unidad
 
Primera y segunda unidad
Primera y segunda unidadPrimera y segunda unidad
Primera y segunda unidad
 
Software y hardware
Software y hardwareSoftware y hardware
Software y hardware
 
Grupo 3 descripción a nivel de registros del proceso de ejecución de instrucc...
Grupo 3 descripción a nivel de registros del proceso de ejecución de instrucc...Grupo 3 descripción a nivel de registros del proceso de ejecución de instrucc...
Grupo 3 descripción a nivel de registros del proceso de ejecución de instrucc...
 
Importancia del computador como herramienta de trabajo
Importancia del computador como herramienta de trabajoImportancia del computador como herramienta de trabajo
Importancia del computador como herramienta de trabajo
 
Clase 16 06
Clase 16 06Clase 16 06
Clase 16 06
 
Rosmary2
Rosmary2Rosmary2
Rosmary2
 
Rodney Parada Elementos del Computador
Rodney Parada Elementos del ComputadorRodney Parada Elementos del Computador
Rodney Parada Elementos del Computador
 
Introduccion A La Informatica
Introduccion A La InformaticaIntroduccion A La Informatica
Introduccion A La Informatica
 
antologia de LA COMPUTADORA(tema 4).doc
antologia de LA COMPUTADORA(tema 4).docantologia de LA COMPUTADORA(tema 4).doc
antologia de LA COMPUTADORA(tema 4).doc
 
Apuntes empiezo (a)
Apuntes empiezo (a)Apuntes empiezo (a)
Apuntes empiezo (a)
 
El computador
El computadorEl computador
El computador
 
Document 23
Document 23Document 23
Document 23
 
homz2
homz2homz2
homz2
 
Document 23
Document 23Document 23
Document 23
 

Computadoras Educación

  • 1. República Bolivariana de Venezuela. Ministerio del Poder Popular Para la Educación Superior. Universidad Nacional Experimental Simón Rodríguez Núcleo: San Juan De Los Morros. Edo- Guárico Facilitadora: Participantes: Yolimar Fuentes Ariana Lugo C.I: 25698060 Génesis Zurita C.I 25564455 Sección ´´C´´ Octubre, 2014
  • 2. Rol de la computadora en la educación integral: La tecnología educativa es el resultado de las aplicaciones de diferentes concepciones y teorías educativas para la resolución de un amplio espectro de problemas y situaciones referidos a la enseñanza y el aprendizaje, apoyadas en las Tics (tecnologías de información y comunicación). La evolución de la tecnología educativa, que como disciplina nació en Estados Unidos de América en la década de los 50 del siglo pasado, ha dado lugar a diferentes enfoques o tendencias que hemos conocido como enseñanza audiovisual, enseñanza programada, tecnología instruccional, diseño curricular o tecnología crítica de la enseñanza. Los recursos técnicos son los que se utilizan para realizar un trabajo en específico con una técnica que lo caracteriza por ejemplo una máquina de refrescos utiliza cierta técnica que consta de varios pasos, introduces moneda, la máquina la acepta, aprietas un botón de refresco, la máquina lo percibe y manda tu refresco, todos estos pasos son técnicas, Se entiende por tecnología educativa al acercamiento científico basado en la teoría de sistemas que proporciona al educador las herramientas de planificación y desarrollo, así como la tecnología, busca mejorar los procesos de enseñanza y de aprendizaje a través del logro de los objetivos educativos y buscando la efectividad y el significado del aprendizaje. Se pueden considerar las Tecnologías de Información y Comunicación (TIC) como un concepto dinámico.[2] Por ejemplo, a finales del siglo XIX el teléfono podría ser Considerado una nueva tecnología según las definiciones actuales. Esta misma definición podría aplicarse a la televisión cuando apareció y se popularizó en la década de los 50 del siglo pasado. No obstante, hoy no se pondrían en una lista de Tics y es muy posible que actualmente los ordenadores ya no puedan ser calificados de nuevas tecnologías. A pesar de esto, en un concepto amplio, se puede considerar que el teléfono, la televisión y el ordenador forman parte de lo que se llama TIC, tecnologías que favorecen la comunicación y el intercambio de información en el mundo actual. La Computadora Una computadora o computador (del latín computare -calcular-), también denominada ordenador (del francés ordinateur, y éste del latín ordinator), es una máquina electrónica que recibe y procesa datos para convertirlos en información útil. Una computadora es una colección de circuitos integrados y otros componentes relacionados que puede ejecutar con exactitud, rapidez y de acuerdo a lo indicado por un usuario o automáticamente por otro programa, una gran variedad de secuencias o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas en función a una amplia gama de aplicaciones prácticas y precisamente determinadas, proceso al cual se le ha denominado con el nombre de programación y al que lo realiza se le llama programador. La computadora, además de la rutina o programa informático, necesita de datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés
  • 3. o de entrada) que deben ser suministrados, y que son requeridos al momento de la ejecución, para proporcionar el producto final del procesamiento de datos, que recibe el nombre de "output" o de salida. La información puede ser entonces utilizada, reinterpretada, copiada, transferida, o retransmitida a otra(s) persona(s), computadora(s) o componente(s) electrónico(s) local o remotamente usando diferentes sistemas de telecomunicación, pudiendo ser grabada, salvada o almacenada en algún tipo de dispositivo o unidad de almacenamiento. La característica principal que la distingue de otros dispositivos similares, como la calculadora no programable, es que es una máquina de propósito general, es decir, puede realizar tareas muy diversas, de acuerdo a las posibilidades que brinde los lenguajes de programación y el hardware. Partes de la computadora Unidad central de proceso o CPU (Conocida por sus siglas en inglés, CPU), circuito microscópico que interpreta y ejecuta instrucciones. La CPU se ocupa del control y el proceso de datos en las computadoras. Generalmente, la CPU es un microprocesador fabricado en un chip, un único trozo de silicio que contiene millones de componentes electrónicos. El microprocesador de la CPU está formado por una unidad aritmético-lógica que realiza cálculos y comparaciones, y toma decisiones lógicas (determina si una afirmación es cierta o falsa mediante las reglas del álgebra de Boole); por una serie de registros donde se almacena información Temporalmente, y por una unidad de control que interpreta y ejecuta las instrucciones. Para aceptar órdenes del usuario, acceder a los datos y presentar los resultados, la CPU se comunica a través de un conjunto de circuitos o conexiones llamado bus. El bus conecta la CPU a los dispositivos de almacenamiento (por ejemplo, un disco duro), los dispositivos de entrada (por ejemplo, un teclado o un mouse) y los dispositivos de salida (por ejemplo, un monitor o una impresora). Funcionamiento de la CPU Cuando se ejecuta un programa, el registro de la CPU, llamado contador de programa, lleva la cuenta de la siguiente instrucción, para garantizar que las instrucciones se ejecuten en la secuencia adecuada. La unidad de control de la CPU coordina y temporiza las funciones de la CPU, tras lo cual recupera la siguiente instrucción desde la memoria. En una secuencia típica, la CPU localiza la instrucción en el dispositivo de almacenamiento correspondiente. La instrucción viaja por el bus desde la memoria hasta la CPU, donde se almacena en el registro de instrucción. Entretanto, el contador de programa se incrementa en uno para prepararse para la siguiente instrucción. A continuación, la instrucción actual es analizada por un descodificador, que determina lo que hará la instrucción. Cualquier dato requerido por la instrucción es recuperado
  • 4. desde el dispositivo de almacenamiento correspondiente y se almacena en el registro de datos de la CPU. A continuación, la CPU ejecuta la instrucción, y los Resultados se almacenan en otro registro o se copian en una dirección de memoria determinada. Memoria RAM La memoria principal o RAM, abreviatura del inglés Randon Access Memory, es el dispositivo donde se almacenan temporalmente tanto los datos como los programas que la CPU está procesando o va a procesar en un determinado momento. Por su función, es una amiga inseparable del microprocesador, con el cual se comunica a través de los buses de datos. Por ejemplo, cuando la CPU tiene que ejecutar un programa, primero lo coloca en la memoria y recién y recién después lo empieza a ejecutar. lo mismo ocurre cuando necesita procesar una serie de datos; antes de poder procesarlos los tiene que llevar a la memoria principal. Esta clase de memoria es volátil, es decir que, cuando se corta la energía eléctrica, se borra toda la información que estuviera almacenada en ella. Por su función, la cantidad de memoria RAM de que disponga una computadora es una factor muy importante; hay programas y juegos que requieren una gran cantidad de memoria para poder usarlos. Otros andarán más rápido si el sistema cuenta con más memoria RAM. La memoria Caché Dentro de la memoria RAM existe una clase de memoria denominada Memoria Caché que tiene la característica de ser más rápida que las otras, permitiendo que el intercambio de información entre el procesador y la memoria principal sea a mayor velocidad. Memoria de sólo lectura o ROM Su nombre vienen del inglés Read Only Memory que significa Memoria de Solo Lectura ya que la información que contiene puede ser leída pero no modificada. En ella se encuentra toda la información que el sistema necesita para poder funcionar correctamente ya que los fabricantes guardan allí las instrucciones de arranque y el funcionamiento coordinado de la computadora. No son volátiles, pero se pueden deteriorar a causa de campos magnéticos demasiados potentes. Al encender nuestra computadora automáticamente comienza a funcionar la memoria ROM. Por supuesto, aunque se apague, esta memoria no se borra. El BIOS de una PC (Basic Input Operative System) es una memoria ROM, pero con la facultad de configurarse según las características particulares de cada máquina. esta configuración se guarda en la zona de memoria RAM que posee este BIOS y se mantiene sin borrar cuando se apaga la PC gracias a una pila que hay en la placa principal.
  • 5. Cuando la pila se agota se borra la configuración provocando, en algunos equipos, que la máquina no arranque. Algunas PC tienen la pila soldada a la placa principal por lo que el cambio de la misma lo debe realizar personal técnico, ya que si no se corre el riesgo de arruinar otros componentes. Su Memoria basada en semiconductores que contiene instrucciones o datos que se pueden leer pero no modificar. En las computadoras IBM PC y compatibles, las memorias ROM suelen contener el software necesario para el funcionamiento del sistema. Para crear un chip ROM, el diseñador facilita a un fabricante de semiconductores la información O las instrucciones que se van a almacenar. El fabricante produce entonces uno o más chips que contienen esas instrucciones o datos. Como crear chips ROM implica un proceso de fabricación, esta creación es viable económicamente sólo si se producen grandes cantidades de chips. Los diseños experimentales o los pequeños volúmenes son más asequibles usando PROM o EPROM. El término ROM se suele referir a cualquier dispositivo de sólo lectura, incluyendo PROM y EPROM. El teclado nos permite comunicarnos con la computadora e ingresar la información. Es fundamental para utilizar cualquier aplicación. El teclado más común tiene 102 teclas, agrupadas en cuatro bloques: teclado alfanumérico, teclado numérico, teclas de función y teclas de control. Se utiliza como una máquina de escribir, presionando sobre la tecla que queremos ingresar. Algunas teclas tienen una función predeterminada que es siempre la misma, pero hay otras teclas cuya función cambia según el programa que estemos usando Por ejemplo: Un teclado de ordenador de 101/102 teclas lanzado por IBM mediada la vida del PC/AT de esta compañía. Este diseño se ha mantenido como teclado estándar de la línea PS/2, y se ha convertido en la norma de producción de la mayoría de los teclados de los equipos compatibles con IBM. El teclado extendido difiere de sus predecesores por tener doce teclas de función en la parte superior, en lugar de diez a la izquierda. Tiene además teclas Control y Alt adicionales y un conjunto de teclas para el Movimiento del cursor y para edición entre la parte principal del teclado y el teclado numérico. Otras diferencias incluyen cambios en la posición de determinadas teclas, como Escape y Control, y modificaciones en las combinaciones de teclas, como Pausa e Imprimir Pantalla. El teclado extendido y su homónimo de Apple son similares en configuración y diseño. Las partes del teclado El teclado alfanumérico: Es similar al teclado de la máquina de escribir. Tiene todas las teclas del alfabeto, los diez dígitos decimales y los signos de puntuación y de acentuación.
  • 6. El teclado numérico: Para que funciones el teclado numérico debe estar activada la función "Bloquear teclado numérico". Caso contrario, se debe pulsar la tecla [Bloq Lock] o [Num Lock] para activarlo. Al pulsarla podemos observar que, en la esquina superior derecha del teclado, se encenderá la lucecita con el indicador [Bloq Num] o [Num Lock]. Se parece al teclado de una calculadora y sirve para ingresar rápidamente los datos numéricos y las operaciones matemáticas más comunes: suma, resta, multiplicación y división. Las teclas de Función Estas teclas, de F1 a F12, sirven como "atajos" para acceder más rápidamente a determinadas funciones que le asignan los distintos programas. en general, la tecla F1 está asociada a la ayuda que ofrecen los distintos programas, es decir que, pulsándola, se abre la pantalla de ayuda del programa que se esté usando en este momento. Las teclas de Control Si estamos utilizando un Procesador de texto, sirve para terminar un párrafo y pasar a un nuevo renglón. Si estamos ingresando datos, normalmente se usa para confirmar el dato que acabamos de ingresar y pasar al siguiente. Estas teclas sirven para mover el cursor según la dirección que indica cada flecha. Sirve para retroceder el cursor hacia la izquierda, borrando simultáneamente los caracteres. Si estamos escribiendo en minúscula, al presionar esta tecla simultáneamente con una letra, esta última quedará en mayúscula, y viceversa, si estamos escribiendo en mayúscula la letra quedará minúscula. Es la tecla de tabulación. En un procesador de texto sirve para alinear verticalmente tanto texto como números. Esta tecla te permite insertar un carácter de manera que todo lo que escribamos a continuación se irá intercalando entre lo que ya tenemos escrito. Fija el teclado alfabético en mayúscula. al pulsarla podemos podemos observar que, en la esquina superior del teclado, se encenderá la lucecita con el indicador [Blog Mayús] o [Caps Lock]. Mientras es teclado de encuentra fijado en mayúscula, al pulsar la tecla de una letra se pondrá automáticamente en mayúscula. para desactivarla basta con volverla a pulsar. La tecla alternar, al igual que la tecla control, se usa para hacer combinaciones y lograr así ejecutar distintas acciones según el programa que estemos usando. En un procesador de texto sirve para borrar el carácter ubicado a la derecha del cursor.
  • 7. La tecla de control se usa en combinación con otras Teclas para activar distintas opciones según el programa que se esté utilizando. Tanto el teclado como el ratón del ordenador nos permiten introducir datos o información en el sistema. De poco nos sirven si no tenemos algún dispositivo con el que comprobar que esa información que estamos suministrando es correcta. Los monitores muestran tanto la información que aportamos, como la que el ordenador nos comunica. Desde los primeros que aparecieron con el fósforo verde, la tecnología ha evolucionado junto con la fabricación de nuevas tarjetas gráficas. Ahora no se concibe un ordenador sin un monitor en color. Ahora la "guerra" está en el tamaño y en la resolución que sean capaces de mostrar. Monitor La tecnología en la fabricación de monitores es muy compleja y no es propósito ahora de profundizar en estos aspectos. Sí los vamos a tratar superficialmente para que sepáis cuáles son los parámetros que más os van a interesar a la hora de elegir vuestro monitor. Estos parámetros son los siguientes: Tamaño Son las dimensiones de la diagonal de la pantalla que se mide en pulgadas. Podemos tener monitores de 9, 14, 15, 17, 19, 20 y 21 ó más pulgadas. Los más habituales son los de 15 pulgadas aunque cada vez son más los que apuestan por los de 17 pulgadas, que pronto pasarán a ser el estándar. Los de 14 pulgadas se usan cada vez menos. Todo esto se debe a que las tarjetas gráficas que se montan ahora soportan fácilmente resoluciones de hasta 1600x1280 pixels Resolución Un pixel es la Unidad mínima de información gráfica que se puede mostrar en pantalla. Cuantos más pixels pueda mostrar el monitor de más resolución dispondremos. Traducido a lenguaje "de la calle" quiere decir que más elementos nos cabrán en ella. Es igual que si vivimos en un estudio de 25 m2 y nos mudamos ¡Oh fortunal a una casa de 300 m2. Nosotros somos los mismos, sólo que disponemos de más espacio. Si trabajas con Windows la resolución ampliada es fundamental, puedes tener mas iconos en pantalla, puedes tener abiertas varias aplicaciones y verlas a la vez, sin tener que maximizar cada una cuando cambies a ellas, etc. La resolución está íntimamente relacionada con las dimensiones del monitor, pero no podemos guiarnos fiablemente por esto. Por ejemplo, hay algún monitor de 15 pulgadas que alcanza resoluciones de hasta 1600 x 1280, pero las dimensiones físicas de la pantalla hacen que todo se vea muy reducido, siendo un engorro y además pagamos por unas características que nunca
  • 8. utilizaremos. Para estas resoluciones ampliadas le recomendamos: un monitor de 15 pulgadas para 1024 x 768, y uno de 17 o 20 pulgadas para 1280 x 1024 pixels. Entrelazado Es una técnica que permite al monitor alcanzar mayores resoluciones refrescando el contenido de la pantalla en dlls barridos, en lugar de uno. Lo malo de esta técnica es que produce un efecto de parpadeo muy molesto, debido a que el tiempo de refresco no es lo suficientemente pequeño como para mantener el fósforo activo entre las dos pasadas. Procure que su monitor sea no-entrelazado. Frecuencia de barrido vertical El rayo de electrones debe recorrer toda la superficie de la pantalla empezando por la esquina superior izquierda, y barriéndola de izquierda a derecha y de arriba abajo. La frecuencia de refresco, medida en Hertzios, es el número de veces que el cañón de electrones barre la pantalla por segundo. ¿Por qué es tan importante este valor? Pues porque si es una frecuencia baja, se hará visible el recorrido del haz de electrones, en forma de un molesto parpadeo de la pantalla. El mínimo debe ser de 70 Hz, pero un buen monitor debe ser capaz de alcanzar frecuencias superiores. Cuanto mayor sea el valor de este parámetro mejor, ya que permitirá mayores resoluciones sin necesidad de entrelazar. La imagen será más nítida y estable. Tamaño del punto (Dot Pltch) Un punto del monitor es la unidad mínima física que puede mostrarse en la pantalla. Dependiendo de la resolución lógica que utilicemos se adaptará la salida para que un pixel ajuste perfectamente con una o un conjunto de estas celdillas físicas de pantalla. Si un monitor tiene las celdillas muy pequeñas, menor será el tamaño del pixel lógico, con lo cual las resoluciones altas serán más precisas en la calidad de la imagen. Un tamaño muy bueno del punto es de 0.25 mientras que uno de 0.28 o superior muestran resultados deficientes en resoluciones mayores a 800 x 600 pixels. Existen otros parámetros interesantes, como por ejemplo la posibilidad de almacenar configuraciones en la memoria del monitor, que sea de exploración digital controlada por un microprocesador, la posibilidad de desmagnetizar el tubo (degauss), de ajustar las dimensiones de la imagen, control de color, brillo y contraste, ahorro de energía, baja radiación, etc. Existe una gran variedad de monitores en el mercado entre ellos están los Sony, Hitachi, Samsung, Philips Brilliance, Eizo, Nanao, Toshiba, Proview, etc. Lo que sí debe quedar claro es que si queréis resoluciones de 1024 x 768 optad por uno de 15 pulgadas y mirad muy bien las especificaciones del entrelazado y tamaño del punto (sobre todo). Filtros para el monitor
  • 9. Si el monitor es importante para poder ver qué hacemos y lo que nos dice el sistema, más importante son nuestros ojos y nuestra salud. Está demostrado científicamente, y en la práctica, que trabajar ante un monitor produce cansancio, picor e irritación de ojos, vista cansada, dolor de cabeza y visión borrosa. El filtro es un elemento imprescindible, y hasta tal punto que es obligatorio en todos los centros de trabajo. El monitor emite una serie de radiaciones y acumula en la pantalla electricidad estática, causantes de estos síntomas. Los filtros de pantalla se encargan de reducir estos efectos de las radiaciones y de descargar la electricidad estática. Entre las radiaciones emitidas se encuentran la ultravioleta, la infrarroja, la visible (luminosidad), y VLF y ELF (generadas por los campos electromagnéticos que crea el sistema de alimentación). Entre las demás ventajas de instalar un filtro frente a nosotros destacan la eliminación de los reflejos en la pantalla, el aumento de la definición de los colores y caracteres y la reducción de la cantidad de polvo y suciedad que se fija a la pantalla (principalmente por el humo de tabaco) debido a la electricidad estática. En el mercado existe una gran cantidad de filtros cuyo precio oscila entre las 3.000 y 20.000 pesetas. La diferencia se ve sobre todo en el precio, aunque se justifica en el proceso de fabricación, concretamente en el tratamiento del cristal. Los mejores están tratados por las dos caras, poseen filtro ortocromático, un cable para la descarga de la electricidad estática (generadas sobre todo al encender el monitor) y reducen la radiación emitida hasta en un 99%. La alternativa LCD Últimamente se habla del avance de la tecnología LCD o cristal líquido, llegando incluso a citarse como posible alternativa de futuro frente al tradicional CRT. Ventajas como el ahorro de consumo y de espacio (LCD posibilita la fabricación de pantalla extra-planas, de muy poca profundidad), así como la prácticamente nula emisión de radiaciones, aportan un gran interés a este tipo de dispositivos. No obstante, su elevado costo unido a los continuos avances en la tecnología CRT hacen que, por el momento, ésta última sea la opción más recomendable. En cualquier caso, no hay que perder de vista esta alternativa; nunca se sabe... Es el cerebro del ordenador. Se encarga de realizar todas las Operaciones de cálculo y de controlar lo que pasa en el ordenador recibiendo información y dando órdenes para que los demás elementos trabajen. Es el jefe del equipo y, a diferencia de otros jefes, es el que más trabaja. En los equipos actuales se habla de los procesadores Pentium MMX y Pentium II/III de Intel además de las alternativas de AMD (familias K6 y K7) y Cyrix (6x86, MII). Tipos de conexión El rendimiento que dan los microprocesadores no sólo dependen de ellos mismos, sino de la placa donde se instalan. Los diferentes micros no se conectan de igual manera a las placas: En las placas base más antiguas, el micro iba soldado, de forma que no podía actualizarse (486 a 50 MHz hacia atrás). Hoy día esto no se ve.
  • 10. En las de tipo Pentium (Socket 7) normal el microprocesador se instala en un zócalo especial llamado ZIF (Zero Insertion Force) que permite insertar y quitar el microprocesador sin necesidad de ejercer alguna presión sobre él. Al levantar la palanquita que hay al lado se libera el microprocesador, siendo extremadamente sencilla su extracción. Estos zócalos aseguran la actualización del microprocesador. Por ejemplo un zócalo ZIF Socket-3 permite la inserción de un 486 y de un Pentium Overdrive. Existen 8 tipos de socket, el 8º es el del Pentium Pro. Y por otro lado, los procesadores Pentium II y Celeron/A de Intel y el Athlon (K7) de AMD van conectados de una forma similar a una tarjeta gráfica o de sonido (por ejemplo). En los procesadores de Intel, el lugar Donde se instala es el Slot1 (o Slot2 en las versiones Xeon profesionales) y en el caso del K7 se instala en el SlotA. En ambos existen unas guías de plástico que ayudan a que el microprocesador se mantenga en su posición. Hay que mencionar que algunos procesadores Celeron utilizan la conexión PPGA o Socket 370, similar en cierto modo al Socket 8, con nulas capacidades de ampliación y que sólo ofrece como ventaja un pequeño ahorro en la compra del equipo. Valoración del rendimiento de un microprocesador El microprocesador es uno de los componentes que hay que prestar más atención a la hora de actualizarlo, ya que en su velocidad y prestaciones suele determinar la calidad del resto de elementos. Esta afirmación implica lo siguiente: por ejemplo, en un Pentium de baja gama es absurdo poner 8 Mb. de RAM y un disco duro de 3 ó 4 Gb; y en un PII de alta gama también es absurdo poner 32 Mb. de RAM y un disco duro de 2 Gb. Hay que hacer una valoración de todos los elementos del ordenador, actualmente en las tiendas suelen venderse digamos "motores de un mercedes en la carrocería de un 600". Esto tenemos que evitarlo. Además del microprocesador, la velocidad general del sistema se verá muy influenciada (tanto o más que por el micro) debido a la placa base, la cantidad de memoria RAM, la tarjeta gráfica y el tipo de disco duro. Profundizar sobre estos temas se escapa de esta sección de microprocesadores, accede a la sección de componente en particular para más información. Hoy día, hay que Fijarse el propósito de la utilización del ordenador para elegir el correcto microprocesador. Por ejemplo, si se va a trabajar con los típicos programas de ofimática (Word, Excel...), un 486 con Windows 95 y 16 Mb. de RAM es más que suficiente, al igual que para navegar por Internet. Sin embargo, según sean más complejos los programas, más complejos serán los equipos. Los programas multimedia y enciclopedias, requieren un procesador Pentium de gama media. A los programas de retoque fotográfico se les puede poner también un procesador Pentium de gama media, aunque influirá sobre todo la memoria RAM (harán falta un mínimo de 128 Mb. para un rendimiento óptimo, según nuestras pruebas). Y últimamente se está incitando a la adquisición de equipos mejores debido sobre todo a los últimos juegos 3D, descompresión MPEG-2 por software
  • 11. para visualizar DVDs (la tarea la realiza el micro conjuntamente con la tarjeta gráfica)... y a un nivel menos doméstico, la renderización de gráficos tridimensionales o la ejecución multitarea de servidores de red. Para esto, nada es suficiente, por ello los micros son cada vez más y más rápidos y complejos. Aunque si lo que quieres son juegos, mejor decántate por una aceleradora 3D, ya que se tiene una experiencia mejor en un Pentium a 133 MHz con una Voodoo Graphics que en un Pentium II/K6-2 a 300 MHz sin aceleradora. Lo ideal, lógicamente, es un PII/K6-2 con una aceleradora gráfica Y ya por último, diremos que el disipador + ventilador puede reducir la Temperatura del micro unos 40 grados centígrados y aumentar el rendimiento un 30%. En los procesadores actuales este componente es imprescindible para el funcionamiento del microprocesador, que de lo contrario terminaría quemado. Conclusiones Como conclusiones, veamos los procesadores que os recomendamos. De una manera totalmente subjetiva. Sobre los procesadores de Intel. El Celeron de Intel, alias "Covington", al carecer de memoria caché L2, va bastante mal, incluso con un rendimiento a veces inferior al Pentium MMX (el Celeron no es más que una estrategia de Intel para que el mercado evolucione hacia el Slot 1). Por ello, descarta el Celeron, ya que, aunque puede ser bueno para algunas tareas, le supera algunos procesadores de otras marcas en el mismo nivel de precio, como el K6 o el K6-2 de AMD (procura que no te venda un ordenador Celeron con una frase que se está volviendo bastante típica "Todo un Pentium II por xxx ptas". Un procesador a considerar es el nuevo Celeron "A", alias "Mendocino", el cual lleva 128 Kb. de caché L2, el cual tiene un rendimiento prácticamente igual que el Pentium II de sus mismos MHz. Si duda, este procesador reemplazará tanto a los Celeron como a los Pentium II de sus mismos MHz (266-333 por ahora). También Intel posee unos micros Celeron A con otro tipo de conexión, PPGA (similar al socket 8), que ofrecen un ahorro a la hora de comprar la placa base, pero que descartaremos sin dudarlo, ya que los micros están al mismo precio y el socket PPGA Ofrece capacidades de ampliación totalmente nulas. Sobre el Pentium II, muy popular y extendido, es un micro muy interesante. Más caro que el Mendocino y con rendimientos no muy superiores, ofrece muy buenos resultados a la hora del trabajo en programas tridimensionales gracias a la avanzada unidad de cálculo de coma flotante, así como una buena ejecución de programas en entorno multitarea como Windows NT. Sin embargo, en tareas más sencillas, como el uso de Windows 95/98 o los programas de ofimática, se ven claramente superados por los procesadores de AMD, mucho más económicos, como veremos dentro de poco. Sobre la última baza de Intel, el Pentium III, en realidad no es más que un Pentium II con nuevas instrucciones multimedia. Sin estas instrucciones, va prácticamente igual que su predecesor y bajo ciertas situaciones peor (se ve compensado por un aumento en los MHz). Los procesadores de Intel hasta el Pentium III han sido superados de lejos por los micros de AMD, veremos qué tal van los próximos de Intel:
  • 12. Coppermine (un Pentium III con bus de 133 MHz, tecnología de 0,18 micras y 256 kb de caché L2 en el micro a la misma velocidad de reloj). Sin embargo, en caso de querer hacer una configuración multiprocesador (2 o 4 micros en adelante), sólo puede hacerse con micros de Intel, ya que los AMD no soportan tales conexiones, al menos hasta la llegada del Athlon (K7). Y ya por último comentaremos los micros de AMD. Todo empezó por una auténtica joya que dio y está dando mucha guerra a Intel: el K6-2 de AMD. Este procesador incorpora la nueva tecnología 3D Now!, 21 nuevas instrucciones en el procesador, la cual ha echo a Intel adelantar medio año el lanzamiento de su procesador "Katmai" (el Pentium III, que no es más que un Pentium II con MMX2). El K6-2 tiene un bus de 100 MHz, ancho de transistor de 0,25 micras, soporta AGP y todo el resto de características que tiene el Pentium II, pero en una plataforma Socket 7 como la del Pentium II. Y el 3D Now! del K6-2 verdaderamente funciona, por lo menos el Quake II va bastante más rápido en la versión especial para 3D Now!. Con el 3D Now!, el rendimiento de un K6-2 a 300 Mhz pasa de igualar en rendimiento de un Pentium II 300 a casi un Pentium II 400. Más recientemente, AMD ha lanzado su nuevo K6-3. Más que un K6-2 mejorado, es un procesador totalmente nuevo, con un diseño especial de 3 tipos de memoria caché (L1 y L2 en el micro y L3 en la placa) que ha sido el primer micro de AMD en superar en prácticamente todos los aspectos a un Intel y en dejarle atrás, ya que el K6-2 tenía ciertas flaquezas en la unidad de coma flotante (si el programa que ejecuta no usa 3DNow!) . Actualmente es el micro más recomendable, de mejor calidad precio, marcha mucho mejor que un K6-2 y la placa base es relativamente más económica. Y la última bomba es el Athlon (K7) que aún no está a la venta, pero que supera y deja muy muy atrás a micros de Intel en todos los aspectos, incluida la unidad de cálculo de coma flotante. Estructura interna De un disco duro * Tamaño de clúster y espacio disponible Un cluster se trata de una agrupación de varios sectores para formar una unidad de asignación. Normalmente, el tamaño de cluster en la FAT del DOS o de Windows 95 es de 32 Kb; ¿y qúe? Esto no tendría importancia si no fuera porque un cluster es la mínima unidad de lectura o escritura, a nivel lógico, del disco. Es decir, cuando grabamos un archivo, por ejemplo de 10 Kb, estamos empleando un cluster completo, lo que significa que se desperdician 22 Kb de ese culster. Imaginaos ahora que grabamos 100 ficheros de 10 Kb; perderíamos 100x22 Kb, más de 2 Megas. Por ello, el OSR2 de Windows 95 y Windows 98 implementan una nueva FAT, la FAT 32, que subsana esta limitación, además de otros problemas. Un disco duro se compone de muchos elementos; citaremos los más importantes de cara a entender su funcionamiento. En primer lugar, la información se almacena en unos finos platos o discos, generalmente de aluminio, recubiertos por un material sensible a alteraciones magnéticas.
  • 13. Estos discos, cuyo número varía según la capacidad de la unidad, se encuentran agrupados uno sobre otro y atravesados por un eje, y giran continuamente a gran velocidad. Asimismo, cada disco posee dos diminutos cabezales de lectura/escritura, uno en cada cara. Estos cabezales se encuentran flotando sobre la superficie del disco sin llegar a tocarlo, a una distancia de unas 3 o 4 micropulgadas (a título de curiosidad, podemos comentar que el diámetro de un Cabello humano es de unas 4.000 pulgadas). Estos cabezales generan señales eléctricas que alteran los campos magnéticos del disco, dando forma a la información. (Dependiendo de la dirección hacia donde estén orientadas las partículas, valdrán 0 o valdrán 1). La distancia entre el cabezal y el plato del disco también determinan la densidad de almacenamiento del mismo, ya que cuanto más cerca estén el uno del otro, más pequeño es el punto magnético y más información podrá albergar. * Algunos conceptos Antes hemos comentado que los discos giran continuamente a gran velocidad; este detalle, la velocidad de rotación, incide directamente en el rendimiento de la unidad, concretamente en el tiempo de acceso. Es el parámetro más usado para medir la velocidad de un disco duro, y lo forman la suma de dos factores: el tiempo medio de búsqueda y la latencia; el primero es lo que tarde el cabezal en desplazarse a una pista determinada, y el segundo es el tiempo que emplean los datos en pasar por el cabezal. Si se aumenta la velocidad de rotación, la latencia se reduce; en antiguas unidades era de 3.600 rpm (revoluciones por minuto), lo que daba una latencia de 8,3 milisegundos. La mayoría de los discos duros actuales giran ya a 7.200 rpm, con lo que se obtienen 4,17 mb de latencia. Y actualmente, existen discos de alta gama aún más rápidos, hasta 10.000 rpm. Es preciso comentar también la estructura lógica del disco, ya que contiene importantes conceptos que todos habréis oído; para Empezar, la superficie del disco se divide en una serie de anillos concéntricos, denominados pistas. Al mismo tiempo, las pistas son divididas en trames de una misma longitud, llamados sectores; normalmente un sector contiene 512 bytes. Otro concepto es el de cilindro, usado para describir las pistas que tienen el mismo número pero en diferentes discos. Finalmente, los sectores suelen agruparse en clusters o unidades de asignación. Estos conceptos son importantes a la hora de instalar y configurar un disco duro, y haremos uso de alguna de esta información cuando subamos al nivel lógico del disco. Muchas placas base modernas detectan los discos duros instalados, mientras que en otras más antiguas hay que meter algunos valores uno por uno (siempre vienen escritos en una etiqueta pegada en la parte superior del disco). * El estándar IDE
  • 14. "Integrated Drive Electronics", o IDE, fue creado por la firma Western Digital, curiosamente por encargo de Compaq para una nueva gama de ordenadores personales. Su característica más representativa era la implementación de la controladora en el propio disco duro, de ahí su denominación. Desde ese momento, únicamente se necesita una conexión entre el cable IDE y el Bus del sistema, siendo posible implementarla en la placa base (como de hecho ya se hace desde los 486 DX4 PCI) o en tarjeta (equipos 486 VLB e inferiores). Igualmente se eliminó la necesidad de disponer de dos cables separados para control y datos, bastando con un cable de 40 hilos Desde el bus al disco duro. Se estableció también el término ATA (AT Attachment) que define una serie de normas a las que deben acogerse los fabricantes de unidades de este tipo. IDE permite transferencias de 4 Megas por segundo, aunque dispone de varios métodos para realizar estos movimientos de datos, que veremos en el apartado "Modos de Transferencia". La interfaz IDE supuso la simplificación en el proceso de instalación y configuración de discos duros, y estuvo durante un tiempo a la altura de las exigencias del mercado. No obstante, no tardaron en ponerse en manifiesto ciertas modificaciones en su diseño. Dos muy importantes eran de capacidad de almacenamiento, de conexión y de ratios de transferencia; en efecto, la tasa de transferencia se iba quedando atrás ante la demanda cada vez mayor de prestaciones por parte del software (¿estás ahí, Windows?). Asimismo, sólo podían coexistir dos unidades IDE en el sistema, y su capacidad (aunque ero no era del todo culpa suya, lo veremos en el apartado "El papel de la BIOS") no solía exceder de los 528 Megas. Se imponía una mejora, y ¿quién mejor para llevarla a cabo que la compañía que lo creó? * Enhanced IDE La interfaz EIDE o IDE mejorado, propuesto también por Western Digital, logra una mejora de flexibilidad y prestaciones. Para empezar, aumenta su capacidad, hasta 8,4 Gigas, y la tasa de transferencia empieza a subir a partir de los 10 Megas por segundo, según el modo de transferencia usado. Además, se implementaron dos Sistemas de traducción de los parámetros físicos de la unidad, de forma que se pudiera acceder a superiores capacidades. Estos sistemas, denominados CHS y LBA aportaron ventajas innegables, ya que con mínimas modificaciones (aunque LBA exigía también cambios en la BIOS del PC) se podían acceder a las máximas capacidades permitidas. Otra mejora del EIDE se reflejó en el número de unidades que podían ser instaladas al mismo tiempo, que se aumentó a cuatro. Para ello se obligó a fabricantes de sistemas y de BIOS a soportar los controladores secundarios (dirección 170h, IRQ 15) siempre presentes en el diseño del PC pero nunca usados hasta el momento, de forma que se pudieran montar una unidad y otra esclava, configuradas como secundarias. Más aún, se habilitó la posibilidad de instalar unidades CD-ROM y de cinta, coexistiendo pacíficamente en el sistema (más sobre esto en el apartado "Otros términos"). A nivel externo, no existen prácticamente diferencias con el anterior IDE, en
  • 15. todo caso un menor tamaño o más bien una superior integración de un mayor número de componentes en el mismo espacio. Periféricos de entrada de información. Son los elementos a través de los que se introduce información a la computadora. En este apartado se encuentran el teclado, el ratón, los scanners, etc. Periféricos de almacenamiento de la información. Son subsistemas que permiten a la computadora almacenar, temporal o indefinidamente, la información o los programas. Los dispositivos de Almacenamiento, llamados también memorias auxiliares o masivas, son un soporte de apoyo para la computadora en la realización de sus tareas, ya que puede enviar a ellos, temporalmente, desde la memoria principal parte de la información que no van a utilizar en esos momentos, dejando parte del área de trabajo libre para trabajar más cómodamente, y mantenerla almacenada hasta que sea necesaria su utilización, momento en que la volverá a trasladar a la memoria principal. Entre los dispositivos de almacenamiento se pueden destacar los discos magnéticos y las cintas. Un elemento que está obteniendo cada vez mayor aceptación es el CD-ROM. Periféricos de salida de la información. Son los periféricos que transmiten los resultados obtenidos tras el proceso de la información por la computadora al exterior del sistema informático para que pueda ser utilizado por los seres humanos u otros sistemas diferentes. Las pantallas de computadora e impresoras conectadas a los sistemas informáticos son los medios de representación de la información más extendidos Periféricos de comunicaciones. Estos subsistemas están dedicados a permitir la conexión de la computadora con otros sistemas informáticos a través de diversos medios; el medio más común es la línea telefónica. El periférico de comunicaciones más utilizado es el modem. También existen periféricos que comparten características particulares de varios de ellos Internet ha supuesto una revolución sin precedentes en el mundo de la informática y de las Comunicaciones. Los inventos del telégrafo, teléfono, radio y ordenador sentaron las bases para esta integración de capacidades nunca antes vivida. Internet es a la vez una oportunidad de
  • 16. difusión mundial, un mecanismo de propagación de la información y un medio de colaboración e interacción entre los individuos y sus ordenadores independientemente de su localización geográfica. La Internet ha significado una revolución sin precedentes en el mundo de la informática y de las comunicaciones y que ha transformado a la humanidad. Han contribuido a ello los inventos del teléfono, la radio, los satélites, las computadoras, dispositivos de hardware, los protocolos o estándares de comunicaciones y software especializados, tales como navegadores, correo electrónico, FTP, video conferencias, etc. Conviene ir poniéndose al día en esta nueva jerga, no tanto por el hecho de "estar a la última", sino por aprovechar las innegables y enormes posibilidades que se abren y se presentan en este ámbito. Ya se habla de ello como de "un nuevo tipo de ocio". Actualmente, ya se pueden hacer cosas tan dispares como comprar entradas para conciertos, comunicarse mediante correo electrónico, ver qué está ocurriendo en la Plaza de Bolivar en este momento o consultar las imágenes que manda el Meteosat para hacer nuestra propia predicción del tiempo. Informarse de las posibilidades de Internet y de cómo acceder a ellas es el primer paso para empezar a caminar por estas carreteras del futuro. Proyecto Canaima Canaima Educativo es un proyecto del Gobierno Bolivariano que nace en el año 2009 enmarcado en la Constitución Bolivariana de Venezuela (2009), el Plan Nacional Simón Bolívar (2007–2013), Ley Orgánica de Educación (LOE 2009), Ley Orgánica para la Protección del Niño, Niña y del Adolescente (LOPNNA 2008) Ley Orgánica de Ciencia, Tecnología e Innovación (2005), Plan Nacional de Telecomunicaciones, Informática y Servicios Postales (PNTI y SP 2007-2013), y el Decreto 3.390 (2004). Parte del eje integrador Tecnologías de Información y Comunicación en el ámbito del proceso Curricular venezolano con el objetivo de potenciar los aprendizajes en las y Los estudiantes del Subsistema de Educación Básica mediante el uso de las Portátiles Canaima como un recurso en constante actualización. El Proyecto Canaima Educativo está enmarcado dentro de la segunda meta de la Organización de las Naciones Unidas que establece: “Lograr la
  • 17. enseñanza primaria universal” impulsando la construcción de la “Nueva arquitectura ética social internacional” para el desarrollo humano y sostenible. Propicia en las y los estudiantes el pensamiento reflexivo, creativo y crítico en lo cientí-co, tecnológico y humanístico propiciando la consecución de la soberanía e independencia tecnológica y el reconocimiento de la República Bolivariana de Venezuela como el espacio de aprendizaje más grande del mundo y garantizar el derecho a la educación. Plataformas usadas actualmente en la educación a distancia: *Blended Learning (B-Learning) no es un concepto nuevo. Durante años se ha designado de este modo a la combinación de diferentes estrategias y actividades de enseñanza. Tal vez lo más novedoso de su utilización en el campo educativo proviene por el uso del término y por su vinculación con las diferentes modalidades de formación, presencial y online. Hasta el momento los términos que recorrían y dominaban la literatura latina asociados a la transformación de la enseñanza y el aprendizaje eran: “enseñanza semipresencial”, “educación flexible”, “aprendizaje mezclado” y “formación mixta”. Del mismo modo, en la bibliografía anglosajona se mencionaba con gran peso la configuración de un modelo denominado “híbrido”. (Mariño, 2006). Sin embargo todos estos términos estaban asociados a la adaptación de los procesos y actividades de enseñanza a nuevas situaciones de enseñanza a distancia, pero no representaban de modo ajustado los cambios que se producían en el campo educativo con la ampliación de los espacios formativos. *E-Learning: Antes de comenzar a hablar de las plataformas de enseñanza virtual conviene familiarizarse con el concepto de E-Learning (Electronic Learning) y las implicaciones que tiene en este PFC. El E-Learning, en castellano Enseñanza virtual, es definido por la Fundación para el Desarrollo de la Función Social de las Comunicaciones (FUNDESCO) como: “Un sistema de impartición de
  • 18. formación a distancia, apoyado en las TIC (Tecnologías de la información y la comunicación) que combina distintos elementos pedagógicos: Instrucción clásica (presencial o autoestudio), las prácticas, los contactos en tiempo real (presenciales, videoconferencias o chats) y los contactos diferidos (tutores, foros de debate, correo electrónico)” (Puente, 2002). Como vemos, el E-learning suele ser entendido como un método de enseñanza que prácticamente sólo engloba la formación no presencial. En nuestro caso vemos como se nos adapta más la definición de B-Learning (Blended Learning), a pesar de esto, durante el documento seguiremos usando la definición de E-Learning, puesto que todo lo expuesto para esta metodología de enseñanza, es aplicable al caso en el que nos encontramos. Plataformas usadas por la UNESR actualmente en la educación a distancia: *Dokeos: Dokeos es una suite de aprendizaje en línea basada en software libre. Provee todas las características que una aplicación de aprendizaje en línea necesita, desde la autoría de cursos hasta informes. Dokeos nació en 2004 a partir de Claroline (Cent.uji 2004). El creador de Claroline, Thomas de Praetere, inició Dokeos debido a que la Universidad Católica de Lovaina prestaba poca atención al desarrollo de Claroline. Como Claroline es una marca registrada de la universidad, decidió crear una nueva aplicación y, de esta forma, poner más énfasis en el desarrollo de la misma. Para acometer este proyecto creó la empresa del mismo nombre, Dokeos, esta empresa se encarga del desarrollo de Dokeos y ofrece hospedaje, consultoría y soporte para empresas e instituciones. Dokeos actualmente usa dos vías para su desarrollo: por un lado la empresa Dokeos desarrolla la aplicación y hace adaptaciones para clientes concretos, además desarrolla las herramientas concretas de las versiones no libres de la aplicación. Por otro lado la comunidad, traduce la aplicación, informa de errores y los corrige, implementa
  • 19. nuevas herramientas que en el futuro serán añadidas a la aplicación oficial y documenta la plataforma. Actualmente la comunidad Dokeos está formada por un amplio grupo de personas interconectadas: keos para la formación y evaluación el software Actualmente Dokeos se distribuye en cuatro versiones (Libre, Educación, Pro Y Medical) dependiendo de las herramientas o el soporte que incluye (Dokeos, 2010). * Moodle: Moodle es un paquete de software para la creación de cursos de E-Learning. Es un proyecto en desarrollo, diseñado para dar soporte a un marco de educación social constructivista. Moodle fue creado por Martin Dougiamas, quien fue administrador de WebCT en la Universidad Tecnológica de Curtin. Martin basó su diseño en las ideas del constructivismo en pedagogía, que afirman que el conocimiento se construye en la mente del estudiante en lugar de ser transmitido sin cambios a partir de libros o enseñanzas y en el aprendizaje colaborativo. Un profesor que opera desde este punto de vista crea un ambiente centrado en el estudiante que le ayuda a construir ese conocimiento con base en sus habilidades y conocimientos propios en lugar de simplemente publicar y transmitir la información que se considera que los estudiantes deben conocer.
  • 20. La palabra Moodle era al principio un acrónimo de Modular Object-Oriented Dynamic Learning Environment (Entorno de Aprendizaje Dinámico Orientado a Objetos y Modular), lo que resulta fundamentalmente útil para programadores y teóricos de la educación. También es un verbo que describe el proceso de deambular perezosamente a través de algo, y hacer las cosas cuando se te ocurre hacerlas, una placentera chapuza que a menudo te lleva a la visión y la creatividad. Las dos acepciones se aplican a la manera en que se desarrolló Moodle y a la manera en que un estudiante o profesor podría aproximarse al estudio o enseñanza de un curso en línea.