2. INDICE
1-ANTECEDENTES DE LAS COMPUTADORAS Y SISTEMAS OPERATIVOS
2-TIPOS DE S.O Y FUNCIONAMIENTO DEL MISMO
3-ESTRUSTURA DE SISTEMA OPERATIVOS
4-BIOS,UEFI Y LEGACY
5-TARJETA MADRE , RAM Y MICROPROCESADOR
6-UNIDADES DE ALMACENAMIENTO Y PERIFERICOS
7-WINDOWS,SOFWARE COMERCIAL Y MAC OS
8-SOFWARE LIBRE . OPEN SOURCE Y HISTORIA DE LINUX
9-DISTRIBUCIONES LINUX Y SUS CARACTERISTICAS
10-PANEL DE CONTROL DE WINDOWS
11-SISTEMA DE ARCHIVOS
12-MANTENIMIENTO PREVENTIVO Y CORRECTIVO
13-COMO MEJORAR EL RENDIMIENTO DE UNA PC
14-TIPOS DE ESCRITORIO LINUX
15-DISTRIBUCIONES LINUX MEXICANAS
16-PERSONAJES HISTORIOCOS DE LA COMPUTACION
3. ANTECEDENTES DE LA
COMPUTADORA
La primera máquina de calcular mecánica
fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo
utilizaba una serie de ruedas de diez dientes en Las que cada uno de los dientes
representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que
podían sumarse números haciéndolas avanzar el número de dientes correcto.
En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta
máquina e inventó una que también podía multiplicar.
También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los
principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina
diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores
consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852),
hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital
moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados
conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las
características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de
paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las
operaciones matemáticas y una impresora para hacer permanente el registro.
4. Primeros ordenadores
Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los
primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas
máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles
como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se
utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para
predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las
bombas en la aviación.
Ordenadores electrónicos
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que
trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer
ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus,
que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el
equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los
alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya
habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU) Este
prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde
quedaron eclipsadas por el desarrollo del Calculador e integrador numérico digital
electrónico (ENIAC) en 1945. El ENIAC, que según mostró la evidencia se basaba en gran
medida en el ‘ordenador’ Atanasoff-Berry (ABC, acrónimo de Electronic Numerical
Integrator and Computer), obtuvo una patente que caducó en 1973, varias décadas más
tarde.
El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de
multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser
modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de
programa que estaba basado en los conceptos del matemático húngaro-estadounidense John
von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que
liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la
ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.
5. A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de
elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas.
Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su
desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas
ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños,
así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.
Teniendo en cuenta las diferentes etapas de desarrollo que tuvieron las computadoras, se consideran
las siguientes divisiones como generaciones aisladas con características propias de cada una, las
cuáles se enuncian a continuación.
Primera Generación
Sistemas constituidos por tubos de vacío, desprendían bastante calor y tenían una vida relativamente
corta. Máquinas grandes y pesadas. Se construye el ordenador ENIAC de grandes dimensiones (30
toneladas)
Almacenamiento de la información en tambor magnético interior.
Un tambor magnético disponía de su interior del ordenador, recogía y memorizaba los datos y los
programas que se le suministraban.
Programación en lenguaje máquina, consistía en largas cadenas de bits, de ceros y unos, por lo que
la programación resultaba larga y compleja.
Alto costo.
Uso de tarjetas perforadas para suministrar datos y los programas.
Segunda Generación
Transistores
Cuando los tubos de vacío eran sustituidos por los transistores, estas últimas eran más económicas,
más pequeñas que las válvulas miniaturizadas consumían menos y producían menos calor. Por todos
estos motivos, la densidad del circuito podía ser aumentada sensiblemente, lo que quería decir que
los componentes podían colocarse mucho más cerca unos a otros y ahorrar mucho más espacio.
6. Tercera Generación
Circuito integrado (chips)
Aumenta la capacidad de almacenamiento y se reduce el tiempo de respuesta.
Generalización de lenguajes de programación de alto nivel. Compatibilidad para compartir software
entre diversos equipos.
Cuarta Generación
Microcircuito integrado
El microprocesador: el proceso de reducción del tamaño de los componentes llega a operar a escalas
microscópicas. La micro miniaturización permite construir el microprocesador, circuito integrado
que rige las funciones fundamentales del ordenador.
Quinta Generación Y La Inteligencia Artificial
El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia Humana" y
con la capacidad de razonar para encontrar soluciones. Otro factor fundamental del diseño, la
capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya
encontrado previamente, (programación Heurística) que permita a la Computadora recordar
resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir
de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del
razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de
decisiones. El conocimiento recién adquirido le servirá como base para la próxima serie de
soluciones.
7. Pioneros de la computación
Atanasoff Y Berry
Una antigua patente de un dispositivo que mucha gente creyó que era
la primera computadora digital electrónica, se invalidó en 1973 por
orden de un tribunal federal, y oficialmente se le dio el crédito a John
V. Atanasoff como el inventor de la computadora digital electrónica. El
Dr. Atanasoff, catedrático de la Universidad Estatal de Iowa, desarrolló
la primera computadora digital electrónica entre los años de 1937 a
1942. Llamó a su invento la computadora Atanasoff-Berry, ó solo ABC
(Atanasoff Berry Computer) Un estudiante graduado, Clifford Berry,
fue una útil ayuda en la construcción de la computadora ABC.
Algunos autores consideran que no hay una sola persona a la que se le
pueda atribuir el haber inventado la computadora, sino que fue el
esfuerzo de muchas personas. Sin embargo en el antiguo edificio de
Física de la Universidad de Iowa aparece una placa con la siguiente
leyenda: "La primera computadora digital electrónica de operación
automática del mundo, fue construida en este edificio en 1939 por
John Vincent Atanasoff, matemático y físico de la Facultad de la
Universidad, quien concibió la idea, y por Clifford Edward Berry,
estudiante graduado de física."
8. Sistemas operativos (S,O)
Sistemas Operativos
En un principio, las computadoras fueron creadas con objetivos
esenciales, hacer un trabajo o tarea más rápido que un humano.
Conforme la época, diversas industrias se dieron cuenta que las
personas necesitaban algo que ellos mismos pudiesen controlar para
que el 'equipo' hiciera lo que ellos querían, a esto es lo que llamaremos
*software*; del mismo modo, apareció la ambición de vender el mismo
para consumir el *hardware*, osea el equipo como tal. Esto marca la
co-relacion de ambos elementos en la historia de la computación.
Por lo tanto la definicion que se le atribuye a un sistema operativo es: -
-Conjunto de programas que hacen al hardware utilizable, así como
también lo controla.
9. Tipos de S.O
Un sistema Operativo (SO) es en sí mismo un programa de computadora. Sin embargo, es un
programa muy especial, quizá el más complejo e importante en una computadora. El SO despierta a
la computadora y hace que reconozca a la CPU, la memoria, el tecla do, el sistema de vídeo y las
unidades de disco.
Además, proporciona la facilidad para que los usuarios se comuniquen con la computadora y sirve
de plataforma a partir de la cual se corran programas de aplicación.
Los sistemas operativos más conocidos son los siguientes:
1) DOS: El famoso DOS, que quiere decir Disk Operating System (sistema operativo de disco), es más
conocido por los nombres de PC-DOS y MS-DOS. MS-DOS fue hecho por la compañía de software
Microsoft y es en esencia el mismo SO que el PC-DOS.
La razón de su continua popularidad se debe al aplastante volumen de software disponible y a la
base instalada de computadoras con procesador Intel.
Cuando Intel liberó el 80286, DOS se hizo tan popular y firme en el mercado que DOS y las
aplicaciones DOS representaron la mayoría del mercado de software para PC. En aquel tiempo, la
compatibilidad IBM, fue una necesidad para que los productos tuvieran éxito, y la "compatibilidad
IBM" significaba computadoras que corrieran DOS tan bien como las computadoras IBM lo hacían.
Aún con los nuevos sistemas operativos que han salido al mercado, todavía el DOS es un sólido
contendiente en la guerra de los SO.
2) Windows 3.1: Microsoft tomo una decisión, hacer un sistema operativo que tuviera una interfaz
gráfica amigable para el usuario, y como resultado obtuvo Windows. Este sistema muestra íconos en
la pantalla que representan diferentes archivos o programas, a los cuales se puede accesar al darles
doble click con el puntero del mouse. Todas las aplicaciones elaboradas para Windows se parecen,
por lo que es muy fácil aprender a usar nuevo software una vez aprendido las bases.
10. 3) Windows 95: En 1995, Microsoft introdujo una nueva y mejorada versión del
Windows 3.1. Las mejoras de este SO incluyen soporte multitareas y arquitectura de
32 bits, permitiendo así correr mejores aplicaciónes para mejorar la eficacia del
trabajo.
4) Windows NT: Esta versión de Windows se especializa en las redes y servidores. Con
este SO se puede interactuar de forma eficaz entre dos o más computadoras.
5) OS/2: Este SO fue hecho por IBM. Tiene soporte de 32 bits y su interfaz es muy
buena. El problema que presenta este sistema operativo es que no se le ha dad el
apoyo que se merece en cuanto a aplicaciones se refiere. Es decir, no se han creado
muchas aplicaciones que aprovechen las características de el SO, ya que la mayoría
del mercado de software ha sido monopolizado por Windows.
6) Mac OS: Las computadoras Macintosh no serían tan populares como lo son si no
tuvieran el Mac OS como sistema operativo de planta. Este sistema operativo es tan
amigable para el usuario que cualquier persona puede aprender a usarlo en muy
poco tiempo. Por otro lado, es muy bueno para organizar archivos y usarlos de
manera eficaz. Este fue creado por Apple Computer, Inc.
7) UNIX: El sistema operativo UNIX fue creado por los laboratorios Bell de AT&T en
1969 y es ahora usado como una de las bases para la supercarretera de la
información. Unix es un SO multiusuario y multitarea, que corre en diferentes
computadoras, desde supercomputadoras, Mainframes, Minicomputadoras,
computadoras personales y estaciones de trabajo. Esto quiere decir que muchos
usuarios puede estar usando una misma computadora por medio de terminales o usar
muchas de ellas.
11. Características de los
sistemas operativos
En general, se puede decir que un Sistema Operativo tiene las siguientes características:
Conveniencia. Un Sistema Operativo hace más conveniente el uso de una computadora.
Eficiencia. Un Sistema Operativo permite que los recursos de la computadora se usen de la
manera más eficiente posible.
Habilidad para evolucionar. Un Sistema Operativo deberá construirse de manera que
permita el desarrollo, prueba o introducción efectiva de nuevas funciones del sistema sin
interferir con el servicio.
Encargado de administrar el hardware. El Sistema Operativo se encarga de manejar de una
mejor manera los recursos de la computadora en cuanto a hardware se refiere, esto es,
asignar a cada proceso una parte del procesador para poder compartir los recursos.
Relacionar dispositivos (gestionar a través del kernel). El Sistema Operativo se debe encargar
de comunicar a los dispositivos periféricos, cuando el usuario así lo requiera.
Organizar datos para acceso rápido y seguro.
Manejar las comunicaciones en red. El Sistema Operativo permite al usuario manejar con
alta facilidad todo lo referente a la instalación y uso de las redes de computadoras.
Procesamiento por bytes de flujo a través del bus de datos.
Facilitar las entradas y salidas. Un Sistema Operativo debe hacerle fácil al usuario el acceso y
manejo de los dispositivos de Entrada/Salida de la computadora.
12. BIOS, UEFI y LEGACY
UEFI BIOS admite dos modos de inicio: Legacy BIOS y UEFI. Algunos dispositivos y sistemas
operativos aún no admiten el BIOS basado en UEFI y sólo se inician desde el modo de inicio
Legacy BIOS. Según su situación, es posible que deba especificar el modo de inicio de UEFI
BIOS que desea utilizar: Legacy BIOS o UEFI. Elija el modo de inicio Legacy BIOS para
permitir que los dispositivos de módulo Express y HBA utilicen los ROM de opción. Elija el
modo de inicio UEFI para usar controladores UEFI.
Sólo los dispositivos que admiten el modo de inicio seleccionado aparecen en la pantalla de
inicio del BIOS. Si selecciona el modo de inicio UEFI, sólo se incluyen los candidatos de inicio
compatibles con el modo de inicio UEFI BIOS en las pantallas de la utilidad de configuración
del BIOS en la lista de prioridad de opciones de inicio. Si selecciona el modo de inicio Legacy
BIOS, sólo se incluyen los candidatos de inicio compatibles con el modo de inicio Legacy
BIOS en la lista de prioridad de opción de inicio.
Nota - Si se cambia el modo de inicio, desaparecen los candidatos de inicio del modo de
inicio anterior. Los candidatos de inicio del modo de inicio cambiado recientemente
aparecen después de enviar el comando 'Save Changes and Reset' (Guardar cambios y
restablecer) del BIOS y, además, aparecen en las pantallas después del siguiente inicio de la
utilidad de configuración del BIOS.
13. Cuando cambia entre el modo Legacy BIOS y el modo UEFI (en cualquier
sentido), se cambia la configuración del BIOS que afecta la configuración de la
lista de prioridad de opciones de inicio. Dado que la configuración de un modo
determinado no se conserva durante la transición de un modo a otro, se debe
utilizar el comando ueficonfig para capturar y preservar la configuración del
BIOS si se tiene la intención de volver al modo del BIOS anterior y se desea
mantener la configuración del BIOS anterior.
En la primera versión de Sun Blade X3-2B, los siguientes sistemas operativos
admiten el modo de inicio UEFI BIOS.
Oracle Enterprise Linux
SUSE Linux Enterprise Server SP1
RedHat Enterprise Linux
Microsoft Windows
Si utiliza sistemas operativos que admiten sólo el inicio desde Legacy BIOS, debe
utilizar el modo de inicio Legacy BIOS. Si utiliza sistemas operativos que
admiten el inicio desde Legacy BIOS o UEFI BIOS, puede utilizar cualquier modo
de inicio. Sin embargo, una vez que se elige un modo de inicio y se instala un
sistema operativo, la instalación se puede iniciar sólo con el mismo modo
utilizado para la instalación.
Cuando un sistema operativo se instala con el modo de inicio Legacy BIOS, el
sistema operativo se puede iniciar sólo en el modo de inicio Legacy BIOS.
Cuando un sistema operativo se instala con el modo de inicio UEFI, el sistema
operativo se puede iniciar sólo en el modo de inicio UEFI.
14. Tarjeta Madre y RAM
La tarjeta madre, placa base o motherboard es una tarjeta de circuito impreso
que permite la integración de todos los componentes de una computadora. Para
esto, cuenta con un software básico conocido como BIOS, que le permite
cumplir con sus funciones.
Pero ¿qué funciones son básicamente las que realiza toda tarjeta madre o placa
base? Son varias y todas importantes y fundamentales para conseguir el
funcionamiento correcto y óptimo de cualquier ordenador. En concreto, entre
dichas tareas se encontrarían la comunicación de datos, el control y el
monitoreo, la administración o la gestión de la energía eléctrica así como la
distribución de la misma por todo el computador, la conexión física de los
diversos componentes del citado y, por supuesto, la temporización y el
sincronismo.
La tarjeta madre alberga los conectores necesarios para el procesador, la
memoria RAM, los puertos y el resto de las placas (como la tarjeta de video o la
tarjeta de red).
Actualmente entre los conectores más importantes y fundamentales que
presenta toda placa base se encuentran los de sonido, el puerto USB, el puerto
paralelo, el puerto firewire y el de serie, el de Red y los de tipo PS/2.
15. Los de sonido son los que se emplean para conectar desde micrófonos hasta altavoces
mientras que el citado USB es el que se utiliza para conectar todo tipo de dispositivos
periféricos tales como ratones, impresoras o un escáner.
Existen varios conceptos vinculados a las tarjetas madre que deben ser comprendidos para
conocer el funcionamiento de esta placa base. Por ejemplo, se conoce como chipset al
conjunto de los principales circuitos integrados que se instalan en la tarjeta madre.
El socket o zócalo es un sistema electromecánico de soporte y conexión eléctrica que permite
la fijación y conexión del microprocesador al motherboard.
Por otra parte, un slot es una ranura que se encuentra en la tarjeta madre y que posibilita
conectar a ésta distintas tarjetas adicionales o de expansión, que, en general, sirven para
controlar dispositivos periféricos como las impresoras. Las computadoras actuales suelen
presentar entre ocho y doce slots.
Los puertos IDE o ATA son aquellos que controlan los dispositivos de almacenamiento de
datos, como los discos duros. Otros puertos importantes en una tarjeta madre son PS/2 (para
conectar el mouse y el teclado), USB, COM1 y LPT1.
Cabe destacar, por último, que existen distintos tipos de placas madre, como XT, AT, Baby-
AT, ATX, Mini-ATX, micro ATX, LPX, NLX, Nano-ITX, BTX, WTX y ETX, entre otros.
La citada tarjeta madre ATX se caracteriza, por ejemplo, por el hecho de que es la más fácil
tanto a la hora de colocarse como a la hora de funcionar en materia de ventilación.
Mientras, la Baby-AT fue la que años atrás se convirtió en la más utilizada por su formado
reducido y por su adaptación a cualquier tipo de caja, pero la circunstancia que hizo que
dejara de ser la primordial fue que sus componentes están muy cerca y eso en ocasiones
traía muchos problemas de funcionamiento.
16.
17. MICROPROCESADORES
El microprocesador es uno de los logros más sobresalientes del siglo XX. Esas
son palabras atrevidas, y hace un cuarto de siglo tal afirmación habría parecido
absurda. Pero cada año, el microprocesador se acerca más al centro de nuestras
vidas, forjándose un sitio en el núcleo de una máquina tras otra. Su presencia ha
comenzado a cambiar la forma en que percibimos el mundo e incluso a
nosotros mismos. Cada vez se hace más difícil pasar por alto el microprocesador
como otro simple producto en una larga línea de innovaciones tecnológicas.
Ninguna otra invención en la historia se ha diseminado tan aprisa por todo el
mundo o ha tocado tan profundamente tantos aspectos de la existencia humana.
Hoy existen casi 15,000 millones de microchips de alguna clase en uso (el
equivalente de dos computadoras poderosas para cada hombre, mujer y niño
del planeta). De cara a esa realidad, ¿quién puede dudar que el
microprocesador no sólo está transformando los productos que usamos, sino
también nuestra forma de vivir y, por último, la forma en que percibimos la
realidad?
No obstante que reconocemos la penetración del microprocesador en nuestras
vidas, ya estamos creciendo indiferentes a la presencia de esos miles de
máquinas diminutas que nos encontramos sin saberlo todos los días. Así que,
antes de que se integre de manera demasiado imperceptible en nuestra diaria
existencia, es el momento de celebrar al microprocesador y la revolución que ha
originado, para apreciar el milagro que es en realidad cada uno de esos chips de
silicio diminutos y meditar acerca de su significado para nuestras vidas y las de
nuestros descendientes.
18. ¿Que es un microprocesador?
El microprocesador es la parte de la computadora diseñada para llevar acabo o ejecutar los
programas. Este viene siendo el cerebro de la computadora, el motor, el corazón de esta
máquina. Este ejecuta instrucciones que se le dan a la computadora a muy bajo nivel
haciendo operaciones lógicas simples, como sumar, restar, multiplicar y dividir. El
microprocesador, o simplemente el micro, es el cerebro del ordenador. Es un chip, un tipo de
componente electrónico en cuyo interior existen miles (o millones) de elementos llamados
transistores, cuya combinación permite realizar el trabajo que tenga encomendado el chip.
Microprocesadores Modernos
Pentium MMX
Es un micro propio de la filosofía Intel. Con un gran chip como el Pentium Pro ya en el
mercado, y a 3 meses escasos de sacar el Pentium II, decidió estirar un poco más la
tecnología ya obsoleta del Pentium clásico en vez de ofrecer esas nuevas soluciones a un
precio razonable.
Así que se inventó un nuevo conjunto de instrucciones para micro, que para ser modernos
tuvieran que ver con el rendimiento de las aplicaciones multimedia, y las llamó MMX
(MultiMedia eXtensions). Prometían que el nuevo Pentium, con las MMX y el doble de caché
(32 KB), podía tener ¡hasta un 60% más de rendimiento!!
Disculpen si respondo: ¡y unas narices! En ocasiones, la ventaja puede llegar al 25%, y sólo
en aplicaciones muy optimizadas para MMX (ni Windows 95 ni Office lo son, por ejemplo).
En el resto, no más de un 10%, que además se debe casi en exclusiva al aumento de la caché
interna al doble.
19. ¿La ventaja del chip, entonces? Que su precio final acaba siendo igual que si no
fuera MMX. Además, consume y se calienta menos por tener voltaje reducido
para el núcleo del chip (2,8 V). Por cierto, el modelo a 233 MHz (66 MHz en
placa por 3,5) está tan estrangulado por ese "cuello de botella" que rinde poco
más que el 200 (66 por 3).
Pentium II
¿El nuevo super-extra-chip? Pues no del todo. En realidad, se trata del viejo
Pentium Pro, jubilado antes de tiempo, con algunos cambios (no todos para
mejor) y en una nueva y fantástica presentación, el cartucho SEC: una cajita
negra superchula que en vez de a un zócalo se conecta a una ranura llamada
Slot 1.
Los cambios respecto al Pro son:
optimizado para MMX (no sirve de mucho, pero hay que estar en la onda,
chicos);
nuevo encapsulado y conector a la placa (para eliminar a la competencia, como
veremos);
rendimiento de 16 bits mejorado (ahora sí es mejor que un Pentium en
Windows 95, pero a costa de desaprovecharlo; lo suyo son 32 bits puros);
caché secundaria encapsulada junto al chip (semi-interna, como si dijéramos),
pero a la mitad de la velocidad de éste (un retroceso desde el Pro, que iba a la
misma velocidad; abarata los costes de fabricación).
20. UNIDADES DE
ALMACENAMIENTO
En los dispositivos de almacenamiento del computador, se almacenan
en forma temporal o permanentemente los programas y datos que son
manejados por las aplicaciones que se ejecutan en estos sistemas.
Debido a la cantidad de información que es manejada actualmente por
los usuarios, los dispositivos de almacenamiento se han vuelto casi tan
importantes como el computador. Aunque actualmente existen
dispositivos para almacenar que superan los 650 MB de memoria; no
es suficiente por la falta de capacidad para transportar los documentos
y hacer reserva de la información más importante.
Es por tal razón que hoy en día existen diferentes dispositivos de
almacenamiento, que tienen su propia tecnología. En la presente
investigación se estudiaran todos y cada uno de los dispositivos de
almacenamiento de un computador, las distintas marcas, clasificación,
entre otros puntos que se irán desarrollando a medida que se avanza
en la investigación.
21. Almacenamiento de un Computador.
Los sistemas informáticos pueden almacenar los datos tanto interna (en la memoria) como
externamente (en los dispositivos de almacenamiento). Internamente, las instrucciones o
datos pueden almacenarse por un tiempo en los chips de silicio de la RAM (memoria de
acceso aleatorio) montados directamente en la placa de circuitos principal de la
computadora, o bien en chips montados en tarjetas periféricas conectadas a la placa de
circuitos principal del ordenador. Estos chips de RAM constan de conmutadores sensibles a
los cambios de la corriente eléctrica, esto quiere decir que los datos son almacenados por
tiempo limitado (hasta que dejamos de suministrar energía eléctrica) por esta razón
aparecen los dispositivos de almacenamiento secundarios o auxiliares, los cuales son capaces
de conservar la información de manera permanente, mientras su estado físico sea óptimo.
Los dispositivos de almacenamiento externo pueden residir dentro del CPU y están fuera de
la placa de circuito principal. [1]
Clasificación de los Dispositivos de Almacenamiento.
Los Dispositivos de Almacenamiento se pueden clasificar de acuerdo al modo de acceso a los
datos que contienen:
Acceso secuencial: En el acceso secuencial, el elemento de lectura del dispositivo debe pasar
por el espacio ocupado por la totalidad de los datos almacenados previamente al espacio
ocupado físicamente por los datos almacenados que componen el conjunto de información a
la que se desea acceder.
Acceso aleatorio: En el modo de acceso aleatorio, el elemento de lectura accede directamente
a la dirección donde se encuentra almacenada físicamente la información que se desea
localizar sin tener que pasar previamente por la almacenada entre el principio de la
superficie de grabación y el punto donde se almacena la información buscada
22. Tipos de Dispositivos de
Almacenamiento
Memorias:
Memoria ROM: Esta memoria es sólo de lectura, y sirve para
almacenar el programa básico de iniciación, instalado desde
fábrica. Este programa entra en función en cuanto es
encendida la computadora y su primer función es la de
reconocer los dispositivos, (incluyendo memoria de trabajo),
dispositivos.
Memoria RAM: Esta es la denominada memoria de acceso
aleatorio o sea, como puede leerse también puede escribirse
en ella, tiene la característica de ser volátil, esto es, que sólo
opera mientras esté encendida la computadora. En ella son
almacenadas tanto las instrucciones que necesita ejecutar el
microprocesador como los datos que introducimos y
deseamos procesar, así como los resultados obtenidos de
esto.
23. Memorias Auxiliares: Por las características propias del uso de la memoria ROM y el
manejo de la RAM, existen varios medios de almacenamiento de información, entre
los más comunes se encuentran: El disco duro, El Disquete o Disco Flexible, etc...
1-
2-
24. Cinta Magnética: Esta formada por una cinta de material plástico recubierta de material
ferromagnético, sobre dicha cinta se registran los caracteres en formas de combinaciones de puntos,
sobre pistas paralelas al eje longitudinal de la cinta. Estas cintas son soporte de tipo secuencial, esto
supone un inconveniente puesto que para acceder a una información determinada se hace necesario
leer todas las que le preceden, con la consiguiente perdida de tiempo. [2]
Tambores Magnéticos: Están formados por cilindros con material magnético capaz de retener
información, Esta se graba y lee mediante un cabezal cuyo brazo se mueve en la dirección del eje de
giro del tambor. El acceso a la información es directo y no secuencial. (Ver anexo 1)
Disco Duro: Son en la actualidad el principal subsistema de almacenamiento de información en los
sistemas informáticos. Es un dispositivo encargado de almacenar información de forma persistente
en un ordenador, es considerado el sistema de almacenamiento más importante del computador y en
él se guardan los archivos de los programas. (Ver anexo 2)
25. Disquette o Disco flexible: Un disco flexible o también disquette (en inglés floppy disk), es un
tipo de dispositivo de almacenamiento de datos formado por una pieza circular de un
material magnético que permite la grabación y lectura de datos, fino y flexible (de ahí su
denominación) encerrado en una carcasa fina cuadrada o rectangular de plástico. Los discos,
usados usualmente son los de 3 ½ o 5 ¼ pulgadas, utilizados en ordenadores o
computadoras personales, aunque actualmente los discos de 5 ¼ pulgadas están en desuso.
(Ver anexos 3 y 4)
Dispositivos Ópticos
El CD-R: es un disco compacto de 650 MB de capacidad que puede ser leído cuantas veces se
desee, pero cuyo contenido no puede ser modificado una vez que ya ha sido grabado. Dado
que no pueden ser borrados ni regrabados, son adecuados para almacenar archivos u otros
conjuntos de información invariable. [3](Ver anexo 5)
CD-RW: posee la capacidad del CD-R con la diferencia que estos discos son regrabables lo
que les da una gran ventaja. Las unidades CD-RW pueden grabar información sobre discos
CD-R y CD-RW y además pueden leer discos CD-ROM y CDS de audio. Las interfaces
soportadas son EIDE, SCSI y USB.
DVD-ROM: es un disco compacto con capacidad de almacen ar 4.7 GB de datos en una cara
del disco, un aumento de más de 7 veces con respecto a los CD-R y CD-RW. Y esto es en una
sola cara. Los futuros medios de DVD-ROM serán capaces de almacenar datos en ambas
caras del disco, y usar medios de doble capa para permitir a las unidades leer hasta cuatro
niveles de datos almacenados en las dos caras del disco dando como resultado una capacidad
de almacenamiento de 17 GB. Las unidades DVD-ROM son capaces de leer los formatos de
discos CD-R y CD-RW. Entre las aplicaciones que aprovechan la gran capacidad de
almacenamiento de los DVD-ROM tenemos las películas de larga duración y los juegos
basados en DVD que ofrecen videos MPEG-2 de alta resolución, sonido inmersivo Dolby AC-
3, y poderosas graficas 3D.[3] (Ver anexo 6)
26.
27. DVD-RAM: este medio tiene una capacidad de 2.6 GB en una ca ra del disco y 5.2 GB en un
disco de doble cara, Los DVD-RAM son capaces de leer cualquier disco CD-R o CD-RW pero
no es capaz de escribir sobre estos. Los DVD-RAM son regrabables pero los discos no
pueden ser leídos por unidades DVD-ROM.[3]
Pc - Cards: La norma de PCMCIA es la que define a las PC Cards. Las PC Cards pueden ser
almacenamiento o tarjetas de I/O. Estas son compactas, muy fiable, y ligeras haciéndolos
ideal para notebooks, palmtop, handheld y los PDAs,. Debido a su pequeño tamaño, son
usadas para el almacenamiento de datos, aplicaciones, tarjetas de memoria, cámaras
electrónicas y teléfonos celulares. Las PC Cards tienen el tamaño de una tarjeta del crédito,
pero su espesor varía. La norma de PCMCIA define tres PC Cards diferentes: Tipo I 3.3
milímetros (mm) de espesor, Tipo II son 5.0 mm espesor, y Tipo III son 10.5 mm espesor.
Entre los producto más nuevos que usan PC Cards tenemos el Clik! PC Card Drive de Iomega
esta unidad PC Card Tipo II la cual puede leer y escribir sobre discos Clik! de 40 MB de
capacidad, esta unidad esta diseñada para trabajar con computadores portátiles con mínimo
consumo de baterías, el tamaño de los discos es de 2x2 pulgadas.[3] (Ver anexo 7)
Flash Cards: son tarjetas de memoria no volátil es decir conservan los datos aun cuando no
estén alimentadas por una fuente eléctrica, y los datos pueden ser leídos, modificados o
borrados en estas tarjetas. Con el rápido crecimiento de los dispositivos digitales como:
asistentes personales digitales, cámaras digitales, teléfonos celulares y dispositivos digitales
de música, las flash cards han sido adoptadas como medio de almacenamiento de estos
dispositivos haciendo que estas bajen su precio y aumenten su capacidad de almacenamiento
muy rápidamente. Recientemente Toshiba libero al mercado sus nuevas flash cards la
SmartMedia de 64 MB y el super-thin 512M-bit chip. La SmartMedia es capaz de
almacenar 72 imágenes digitales con una resolución de 1800x1200 pixels y más de 1 hora
de música con calidad de CD. Entre los productos del mercado que usan esta tecnología
tenemos los reproductores de audio digital Rio de Diamond, Nomad de Creative Labs, los
PDAs de Compaq, el Microdrive de IBM con 340 MB de almacenamiento entre otros. [3].
28. TIPOS DE PERIFERICOS
1.- Periféricos de entrada: Permiten ingresar datos. Transforman la información
externa (instrucciones o datos tecleados) según alguno de los códigos de
entrada/salida.
2.- Periféricos de salida: Muestran la información hacia el exterior de la
computadora. Transforma la información que se encuentra dentro del computador
en caracteres escritos inteligibles por el usuario.
3.- Periféricos de almacenamiento: Almacenan datos e información. Transforman la
información externa en señales codificadas, permitiendo su transmisión, detección,
interpretación, procesamiento y almacenamiento de forma automática.
4.- Periféricos de comunicación: Permiten comunicarse con otras máquinas o
computadoras.
29. WINDOWS
Microsoft Windows (conocido generalmente como Windows o MS Windows), es el nombre
de una familia de distribuciones para PC, smartphone, servidores y sistemas empotrados,
desarrollados y vendidos por Microsoft, y disponibles para múltiples arquitecturas, tales
como x86 y ARM. Desde un punto de vista técnico, estas no son sistemas operativos, sino que
contienen uno (tradicionalmente MS-DOS, o el más actual cuyo núcleo es Windows NT)
junto con una amplia variedad de software; no obstante, es usual (aunque no
necesariamente correcto) denominar al conjunto como sistema operativo en lugar de
distribución. Microsoft introdujo un entorno operativo denominado Windows el 20 de
noviembre de 1985 como un complemento para MS-DOS en respuesta al creciente interés
en las interfaces gráficas de usuario (GUI). Microsoft Windows llegó a dominar el mercado
mundial de computadoras personales, con más del 90% de la cuota de mercado, superando a
Mac OS, que había sido introducido en 1984.
Las versiones más recientes de Windows son Windows 8.1 y Windows 8 para equipos de
escritorio, Windows Server 2012 para servidores y Windows Phone 8 y 8.1 para dispositivos
móviles. La primera versión en español fue Windows 3.0.
La primera versión se lanzó en 1985 y comenzó a utilizarse de forma generalizada gracias a
su interfaz gráfica de usuario (GUI, Graphical User Interface) basada en ventanas. Hasta ese
momento (y hasta mucho después como corazón de Windows), el sistema operativo más
extendido era MS-DOS (Microsoft Disk Operating System), que por aquel entonces contaba
con una interfaz basada en línea de comandos.
El 30 de septiembre de 2014, Microsoft presentó Windows 10, la nueva versión del sistema
operativo que llegara de forma oficial a finales del 2015, siendo la primera versión que se
integrara a todos los dispositivos Windows, eliminando de esta forma todas las variantes del
mismo. Siendo un único sistema operativo para equipos de escritorio, portátiles, smartphones
y tablets se espera ofrecer una mejor experiencia y eliminando algunos problemas que se
presentaron con Windows 8/ 8.1. Se indicó que durante la conferencia BUILD 2015 se darán
a conocer más detalles.
30. SOFWARE COMERCIAL
El software comercial es el software, libre o no,
que es comercializado, es decir, que existen
sectores de la economía que lo sostiene a través de
su producción, su distribución o soporte. Además
de esto, una de las características es que pueden
ser libres o no libres.
31. MAC OS
Mac OS (del inglés Macintosh Operating System, en español Sistema Operativo de
Macintosh) es el nombre del sistema operativo creado por Apple para su línea de
computadoras Macintosh, también aplicado retroactivamente a las versiones anteriores a
System 7.6, y que apareció por primera vez en System 7.5.1. Es conocido por haber sido uno
de los primeros sistemas dirigidos al gran público en contar con una interfaz gráfica
compuesta por la interacción del mouse con ventanas, iconos y menús.
Deliberada a la existencia del sistema operativo en los primeros años de su línea Macintosh
en favor de que la máquina resultara más agradable al usuario, diferenciándolo de otros
sistemas contemporáneos, como MS-DOS, que eran un desafío técnico. El equipo de
desarrollo del Mac OS original incluía a Bill Atkinson, Jef Raskin y Andy Hertzfeld.
Esta fue la base del Mac OS clásico, desarrollado íntegramente por Apple, cuya primera
versión vio la luz en 1985. Su desarrollo se extendería hasta la versión 9 del sistema, lanzada
en 1999. A partir de la versión 10 (Mac OS X), el sistema cambio su arquitectura totalmente
y pasó a basarse en Unix, sin embargo su interfaz gráfica mantiene muchos elementos de las
versiones anteriores.
Hay una gran variedad de versiones sobre cómo fue desarrollado el Mac OS original y dónde
se originaron las ideas subyacentes. Pese a esto, documentos históricos prueban la existencia
de una relación, en sus inicios, entre el proyecto Macintosh y el proyecto Alto de Xerox
PARC. Las contribuciones iniciales del Sketchpad de Ivan Sutherland y el On-Line System de
Doug Engelbart también fueron significativas
El Mac OS puede ser dividido en dos familias:
La familia Mac OS Classic, basada en el código propio de Apple Computer.
El Sistema Operativo Mac OS X, desarrollado a partir de la familia Mac OS Classic y
NeXTSTEP, el cual estaba basado en UNIX.
32. SOFWARE LIBRE
Softwarelibre (en inglés free software, aunque esta denominación a veces se
confunde con «gratis» por la ambigüedad del término free en el idioma inglés,
por lo que también se usa libre software) es la denominación del software que
respeta la libertad de todos los usuarios que adquirieron el producto y, por
tanto, una vez obtenido el mismo, puede ser usado, copiado, estudiado,
modificado, y redistribuido libremente de varias formas. Según la Free Software
Foundation, el software libre se refiere a la seguridad de los usuarios para
ejecutar, copiar, distribuir y estudiar el software, e incluso modificarlo y
distribuirlo modificado.
Un programa informático es software libre si otorga a los usuarios todas estas
libertades de manera adecuada. De lo contrario no es libre. Existen diversos
esquemas de distribución que no son libres, y si bien podemos distinguirlos en
base a cuánto les falta para llegar a ser libres, su uso bien puede ser considerado
contrario a la ética en todos los casos por igual.
El software libre suele estar disponible gratuitamente, o al precio de costo de la
distribución a través de otros medios; sin embargo no es obligatorio que sea así,
por lo tanto no hay que asociar «software libre» a «software gratuito»
(denominado usualmente freeware), ya que, conservando su carácter de libre,
puede ser distribuido comercialmente (software comercial). Análogamente, el
software gratis o gratuito
33. incluye en ocasiones el código fuente; no obstante, este tipo de software no es «libre»
en el mismo sentido que el software libre, a menos que se garanticen los derechos de
modificación y redistribución de dichas versiones modificadas del programa.
Tampoco debe confundirse software libre con «software de dominio público». Éste
último es aquel software que no requiere de licencia, pues sus derechos de
explotación son para toda la humanidad, porque pertenece a todos por igual.
Cualquiera puede hacer uso de él, consignando su autoría original. Este software sería
aquel cuyo autor lo dona a la humanidad o cuyos derechos de autor han expirado. Si
un autor condiciona su uso bajo una licencia, por muy débil que sea, ya no es del
dominio público.
34. Libertad Descripción
0
la libertad de usar el programa, con cualquier
propósito.
1
la libertad de estudiar cómo funciona el
programa y modificarlo, adaptándolo a las
propias necesidades.
2
la libertad de distribuir copias del programa, con
lo cual se puede ayudar a otros usuarios.
3
la libertad de mejorar el programa y hacer
públicas esas mejoras a los demás, de modo que
toda la comunidad se beneficie.
Las libertades 1 y 3 requieren acceso al código fuente porque estudiar y modificar software sin su
código fuente es muy poco viable.
35. OPEN SOURCE
Código abierto es la expresión con la que se conoce al software
distribuido y desarrollado libremente. Se focaliza más en los beneficios
prácticos (acceso al código fuente) que en cuestiones éticas o de
libertad que tanto se destacan en el software libre.
Se utilizó por primera vez en 1990 las comunidades de software libre,
tratando de usarlo como reemplazo al ambiguo nombre original en
inglés del software libre (free software). «Free» en inglés significa dos
cosas distintas dependiendo del contexto: gratuidad y libertad. Lo cual
implica, para el caso que nos ocupa, "software que podemos usar,
escribir, modificar y redistribuir gratuitamente" (software gratuito) y,
además, software libre, según la acepción española de libertad.
La expresión, para algunos, no resultó apropiada como reemplazo
para el ya tradicional free software, pues eliminaba la idea de libertad,
confundida con la simple gratuidad. No obstante continúa siendo
ambivalente, puesto que se usa en la actualidad por parte de
programadores que no ofrecen software libre pero, en cambio, sí
ofrecen el código fuente de los programas para su revisión o
modificación previamente autorizada por parte de sus pares
académicos.
36. Dada la ausencia de tal ambigüedad en la lengua española, el término software
libre es adecuado para referirse a programas que se ofrecen con total libertad
de modificación, uso y distribución bajo la regla implícita de no modificar
dichas libertades hacia el futuro. De hecho en inglés también se usa el término
"libre software" para evitar ambigüedades semánticas.
Desde el punto de vista de una "traducción estrictamente literal", el significado
textual de "código abierto" es que "se puede examinar el código fuente", por lo
que puede ser interpretado como un término más débil y flexible que el del
software libre. Sin embargo, ambos movimientos reconocen el mismo conjunto
de licencias y mantienen principios equivalentes.
Sin embargo, hay que diferenciar los programas de código abierto, que dan a los
usuarios la libertad de mejorarlos, de los programas que simplemente tienen el
código fuente disponible, previa restricciones sobre su uso o modificación.
En la actualidad el código abierto se utiliza para definir un movimiento nuevo
de software (la Iniciativa Open Source), diferente al movimiento del software
libre, incompatible con este último desde el punto de vista filosófico, y
completamente equivalente desde el punto de vista práctico, de hecho, ambos
movimientos trabajan juntos en el desarrollo práctico de proyectos.
La idea bajo el concepto de código abierto es sencilla: cuando los
programadores (en Internet) pueden leer, modificar y redistribuir el código
fuente de un programa, éste evoluciona, se desarrolla y mejora. Los usuarios lo
adaptan a sus necesidades, corrigen sus errores con un tiempo de espera menor
a la aplicada en el desarrollo de software convencional o cerrado, dando como
resultado la producción de un mejor software.
37.
38. HISTORIA DE LINUX
El proyecto GNU, que se inició en 1983 por Richard Stallman; tiene como objetivo el
desarrollo de un sistema operativo Unix completo y compuesto enteramente de software
libre. La historia del núcleo Linux está fuertemente vinculada a la del proyecto GNU. En
1991 Linus Torvalds empezó a trabajar en un reemplazo no comercial para MINIX12 que
más adelante acabaría siendo Linux.
Cuando Torvalds liberó la primera versión de Linux, el proyecto GNU ya había producido
varias de las herramientas fundamentales para el manejo del sistema operativo, incluyendo
un intérprete de comandos, una biblioteca C y un compilador, pero como el proyecto
contaba con una infraestructura para crear su propio núcleo (o kernel), el llamado Hurd, y
este aún no era lo suficiente maduro para usarse, comenzaron a usar a Linux a modo de
continuar desarrollando el proyecto GNU, siguiendo la tradicional filosofía de mantener
cooperatividad entre desarrolladores. El día en que se estime que Hurd es suficiente maduro
y estable, será llamado a reemplazar a Linux.
Entonces, el núcleo creado por Linus Torvalds, quien se encontraba por entonces estudiando
la carrera de Ingeniería Informática en la Universidad de Helsinki, llenó el "espacio" final
que había en el sistema operativo de GNU.
Componentes
Entorno gráfico
Artículo principal: Entorno de escritorio
GNU/Linux puede funcionar tanto en entorno gráfico como en modo consola. La consola es
común en distribuciones para servidores, mientras que la interfaz gráfica está orientada al
usuario final tanto de hogar como empresarial. Asimismo, también existen los entornos de
escritorio, que son un conjunto de programas conformado por ventanas, iconos y muchas
aplicaciones que facilitan la utilización del computador. Los escritorios más populares en
GNU/Linux son: GNOME, KDE SC, LXDE y Xfce. En dispositivos móviles se encuentra
Android, que funciona sobre el núcleo Linux, pero no usa las herramientas GNU. Intel
anunció productos de consumo basados en MeeGo para mediados del 2011, por lo que es
probable que este entorno tenga también una creciente importancia en los próximos años.
39.
40. 10 DISTRIBUCIONES MAS
IMPORTANTES DE LINUX
Ubuntu es la distro Linux de la que más suelo hablar en Mundo geek, al ser la que yo utilizo. Sin
embargo, como sabéis, existen decenas de distribuciones, muchas de ellas de lo más interesantes.
Para aquellos dispuestos a probar algo nuevo, os dejo un pequeño comentario sobre las 10
distribuciones Linux más populares según DistroWatch, basada en el número de visitas diarias
durante este año. Si utilizas alguna de ellas, y quieres contarnos por qué, puedes hacerlo en los
comentarios.
Ubuntu
Basada en Debian, gratuita, y con versiones para escritorio, servidores y netbooks, se trata de un
proyecto patrocinado por Canonical, la empresa de Mark Shuttleworth. Su nombre significa, en
zulú, “Humanidad hacia otros”.
Lanzan una nueva versión cada 6 meses, por lo que las aplicaciones están bastante actualizadas.
Para aquellos que necesiten más estabilidad, también existen versiones LTS (Long Term Support) que
reciben actualizaciones durante 3 años (5 años en la versión para servidores).
Ubuntu viene en forma de 1 CD (aunque también hay versión DVD) que puedes recibir
gratuitamente en tu casa vía Ship it.
El escritorio por defecto es GNOME, aunque existen versiones de Ubuntu pensadas para otros
entornos, ya sean oficiales como Kubuntu (KDE) y Xubuntu (xfce) o no oficiales como Lubuntu
(LXDE).
41. Fedora
Esponsorizada por la histórica Red Hat, que la utiliza como base y banco de pruebas de su
distribución comercial, Red Hat Enterprise Linux. Se trata de la distro que Linus Torvalds
utiliza en la mayor parte de sus máquinas, lo que da una idea de su calidad.
Utiliza GNOME por defecto y se basa en paquetes RPM en lugar de deb, para cuya gestión
utiliza Yum.
Como Ubuntu, no instala por defecto códecs para formatos propietarios como MP3 o MPEG,
ni software propietario como Adobe Flash Player.
Su ciclo de vida es un poco menos rígido que el de Ubuntu: publican una nueva versión cada
6 meses, aproximadamente, versiones que son mantenidas durante algo más de un año.
openSUSE
Esta distro de origen alemán nació en 2005 después de que Novell decidiera “liberar” la
antigua SUSE, aunque no se comenzó a utilizar este nombre hasta 2006. En ella se basan la
distribución comercial de Novell Novell Linux Desktop, también conocida como SUSE Linux
Enterprise Desktop, y su versión para servidores, SUSE Linux Enterprise Server.
Como Fedora, utiliza paquetes RPM.
Uno de sus puntos fuertes, y su aplicación más famosa, es YaST, acrónimo de Yet another
Setup Tool.
El instalador da la opción de utilizar GNOME o KDE, aunque en openSUSE 11.2 KDE estará
marcado por defecto.
42. Mint
Esta distro de origen irlandés, que curiosamente es una de las más jóvenes del mercado, y la
más joven de esta recopilación, está ganando popularidad a pasos agigantados. Se trata de
una distro basada en Ubuntu, con la que es totalmente compatible, pero que intenta facilitar
aún más la vida a los usuarios, por ejemplo, instalando por defecto diversos códecs
propietarios, el plugin de Java o el plugin de Flash. También han desarrollado algunas
herramientas bastante interesantes.
Al estar basada en Ubuntu, el entorno de escritorio por defecto que utilizan es GNOME,
aunque hay versiones para KDE, XFCE y Fluxbox.
Las versiones de Linux Mint se suelen lanzar 1 o 2 meses después de la respectiva versión de
Ubuntu.
Debian
Una distro clásica, y la más longeva de entra las que aparecen en esta recopilación, con 16
años a sus espaldas. Es la distro en la que se basa Ubuntu, y está considerada por muchos
como una de las más robustas y estables del mercado. También es, probablemente, la más
comprometida con el software libre, motivo que causa que algunas personas consideren su
comunidad, y todo lo relacionado, como un poco “talibán”.
Tiene fama de ser complicada de instalar, aunque eso quedó atrás hace mucho tiempo.
Utiliza GNOME como entorno de escritorio por defecto y, como era de esperar, paquetes deb
para las aplicaciones.
Una curiosidad es que, aparte de la versión basada en el núcleo Linux, también existen
versiones de Debian basadas en Hurd, NetBSD y FreeBSD.
43. Mandriva
Nacida de la fusión de la francesa Mandrake y la brasileña Conectiva,
cambió su nombre en 2005 para evitar problemas legales. En el
pasado estaba considerada como una de las distros más sencillas de
instalar y utilizar, aunque tenía una cierta fama de inestabilidad.
Utiliza KDE como entorno de escritorio, y urpmi como gestor de
paquetes (RPM).
Su nueva versión, Mandriva 2010.0, que incluye KDE 4.3.x, está
prevista para dentro de un par de semanas. El objetivo es deshacerse
de todos los paquetes relacionados con KDE 3 de los repositorios para
esta misma fecha.
Como curiosidad, la primera versión de Mandrake estaba basada en
Red Hat.
PCLinuxOS
PCLinuxOS estaba basada originalmente en Mandrake, con la que
sigue compartiendo algunas características.
Utiliza KDE como escritorio por defecto, y paquetes RPM para el
software, aunque, curiosamente, la gestión de los paquetes se realiza
con apt y synaptic.
44. Puppy Linux
Puppy Linux se distingue de todas las demás distros de la
recopilación en que está pensada para ser lo más pequeña
posible, hasta el punto de que se puede cargar completamente
en la memoria RAM de un PC bastante antiguo (su versión más
simple, Barebones, ocupa sólo 40MB).
Es famosa por su rapidez y su estabilidad.
Utiliza JWM como gestor de ventanas, utilizado también en otras
distros ligeras, como Damm Small Linux, y se basa en paquetes PUP
y PET.
Sabayon Linux
Sabayon es una distro italiana derivada de Gentoo, una distro
basada en código fuente, en lugar de paquetes binarios, que es
temida por muchos y amada por otros tantos. El objetivo de
Sabayon es acercar Gentoo al gran público, cosa que parecen
estar consiguiendo.
Además del gestor de paquetes de Gentoo, Portage, Sabayon
también incluye un gestor de paquetes binarios llamado Entropy.
El entorno de escritorio por defecto de esta distribución es KDE.
45. CentOS
Ya hablamos anteriormente de la distribución
comercial de Red Hat: Red Hat Enterprise Linux.
Debido a la GPL, Red Hat tiene la obligación de
publicar gran parte del código fuente de su
distribución, cosa que estos hacen con mayor o menor
agrado. La comunidad de CentOS aprovecha este
código fuente para crear una distribución muy similar
a Red Hat Enterprise Linux, pero sin el coste del
soporte o la certificación.
Como Red Hat Enterprise Linux, está basada en
GNOME y utiliza paquetes RPM.
46. PANEL DE CONTROL DE
WINDOWS
El panel de control de la interfaz gráfica de Windows permite a los usuarios que vean y que
manipulen ajustes y controles del sistema básico, tales como Agregar nuevo hardware,
Agregar o quitar programas, Cuentas de usuario y opciones de accesibilidad entre otras
opciones de sonidos y pantalla. adicionales pueden ser proporcionados por el software de
terceros.
El panel de control ha sido una parte inherente del sistema operativo de Microsoft Windows
desde su lanzamiento (Windows 1.0), con muchos de los applet actuales agregados en las
últimas versiones. El panel de control es un programa independiente, no una carpeta como
aparece, que está alcanzado del menú del comienzo, y se almacena en el directorio system32
de la miniapplet Conexiones de Red, quien tiene como función; instalar, configurar y reparar
una red doméstica o corporativa. También sirve para compartir archivos y carpetas.
Aplicaciones
Barra de tareas : Tiene como fin, configurar y deshabilitar las opciones de la barra de tareas,
como Mostrar Inicio Rápido, ocultar los íconos, cambiar los atributos (hay dos opciones que
son el Clásico y el Moder Windows XP) o Vista. En Windows 7, se eliminó el menú inicio
clásico.
Centro de Seguridad: esta introducida en la versión de Windows XP Service Pack 2 para
mantener la seguridad frente a virus, gusanos y troyanos.
Firewall de Windows un cortafuegos que no permite que ningún programa salga de la red.
Sin embargo, aunque el cortafuegos es muy seguro, un usuario inexperto puede aprovechar
hasta el punto más débil del sistema. En Windows 7, fue renombrado como Centro de
Actividades.
Actualizaciones Automáticas Windows Update quien tiene como propósito mantener las
aplicaciones al día. En la versión SP2, Actualizaciones automáticas viene activado cómo por
defecto.
47. Modo pantalla o muestre mensajes, fotos o diseños al azar.
Pantalla: se puede cambiar la resolución de la pantalla y la cantidad de colores que muestra.
Configuraciones adicionales: se puede configurar la barra de inicio.
Opciones de las carpetas: permite configurar la forma de cómo se ven las carpetas.
Impresores y otro hardware: En esta sección se pueden configurar varios dispositivos
externos que se conectan a la computadora como son: controladores de video juegos,
teclados, “mouse”, módem, impresoras, escáner, cámaras, etc.
Conexiones de red e Internet: En esta sección se puede configurar todo lo relacionado a
redes:
Conexiones por cables
Conexiones inalámbricas
Opciones de Internet Explorer
Asistente de conexión a internet
Firewall de Windows
Crear nuevas conexiones
Cuentas de usuario: Se pueden agregar, borrar o modificar las cuentas de los usuarios. Entre
las modificaciones que se pueden realizar en esta sección están:
Cambiar la imagen que identifica al usuario
Cambiar clave
Cambiar el tipo de usuario (cuenta limitada o de administrador)
Habilitar o deshabilitar la cuenta de “Visitante” para dar acceso a personas que
ocasionalmente utilicen la computadora
48. Agregar o quitar programas: Como dice su nombre, permite
agregar o quitar programas instalados en la computadora. Al
entrar en esta sección, aparecerá una lista de los programas
instalados, cuánto ocupan en el disco y con qué frecuencia se
utiliza. Adicionalmente se pueden agregar o quitar
componentes de Windows como Messenger, MSN Explorer o
Outlook Express. En Windows Vista y Windows 7, fue
renombrado por Programas y características.
Opciones de idioma, fecha y hora: Esta categoría le brinda la
disponibilidad al usuario de cambiar la fecha y la hora de la
computadora; adicionalmente, se puede seleccionar el país e
idioma que desee utilizar en Windows para uso del teclado,
sistema de medidas y monedas.
Sonido, voz y equipo de audio: en esta categoría aparecerán las
propiedades de los dispositivos de sonido, altavoces y equipos
especiales de voz. Inclusive, si la computadora dispone de otros
equipos de sonido adicionales a los que están incorporados en
la computadora, también se pueden administrar en esta
sección.
49. Opciones de accesibilidad: Adecua varias de las opciones de Windows para que
puedan utilizarlo personas con alguna discapacidad especial. Entre los ajustes
que se pueden hacer en esta sección están:
Teclado: Se pueden realizar cambios para que el usuario escuche tonos al tocar
las teclas de mayúsculas y detectar cuando el usuario deja oprimida alguna
tecla por error.
Sonido: Opciones para generar avisos visuales cuando ocurren sonidos y otros
cambios.
Pantalla: ajusta los tipos de letras y colores para que personas con deficiencias
visuales puedan ver mejor.
Mouse: Permite realizar cambios en Windows para que la persona pueda
utilizar algunas teclas para mover el mouse.
General: Es en esta sección se pueden hacer ajustes generales de las
características de accesibilidad.
Rendimiento y mantenimiento: En esta sección se pueden realizar cambios más
completos en el funcionamiento del hardware en Windows, como el manejo de
los discos duros y ajuste del uso energético de la computadora.
Centro de seguridad (Centro de actividades en Windows 7): Es dentro de esta
categoría que se puede configurar la forma de cómo Windows administra las
opciones de seguridad de Internet contra virus y contra ataques en la red.
Control de cuentas de usuario: Esta opción fue incluida en Windows Vista y
Windows 7. Su objetivo es mejorar la seguridad de Windows al impedir que
aplicaciones maliciosas hagan cambios no autorizados en el ordenador
50. Sistema de archivos(windows y
linux)
¿Qué es un sistema de archivos?
Se trata de estándares diseñados por cada
desarrollador de sistemas operativos, los cuáles
indican la forma en que van a ser almacenados los
archivos en los dispositivos de almacenamiento masivo
(unidades SSD, discos duros, discos ópticos, memorias
USB, etc.), así como también la forma en que va a
iniciar el sistema operativo (proceso de arranque).
Aunado a lo anterior, el término formatear, se refiere a
preparar el dispositivo de almacenamiento, para
guardar la información en un sistema de archivos
definido. -Ex
51. Tipos de sistemas de archivos-
Cuando almacenamos un archivo (una carpeta, una imagen,
un video, un documento de Word, etc.), este conserva su
nombre y sus características propias, pero se acopla al
sistema de archivos existente en el dispositivo de
almacenamiento; se puede hacer una analogía con los
idiomas:
+ El sistema de archivos de UNIX y LINUX
EXT / EXT2 / EXT3: Es el protocolo de Linux para el
almacenamiento de datos, se trata de un sistema de ficheros
de alto rendimiento usado para discos duros, así como para
sistemas de almacenamiento extraíbles (disqueteras y
memorias USB). Tiene la ventaja de permitir actualizar de
ext2 a ext3 sin perder los datos almacenados ni tener que
formatear el disco. Tiene un menor consumo de CPU y esta
considerado mas seguro que otros sistemas de ficheros en
Linux dada su relativa sencillez y su mayor tiempo de
prueba. Los sistemas operativos Linux e UNIX son capaces
de detectar casi cualquier sistema de archivos (EXT, FAT,
FAT32, NTFS, CDFS, UDF, etc.).
52. El sistema de archivos de Windows 98 y Windows Millenium de Microsoft®
FAT32: proviene de ("File Allocation Table 32"), que significa tabla de
localización de archivos a 32 bits. Es el sistema de archivos que se empezó a
usar a partir de la versión OSR2 de Microsoft® Windows 95, la cuál tiene una
mejor manera de almacenar los datos con respecto a la FAT 16 ya que puede
manejar discos duros de hasta 2 Terabytes. Se utiliza básicamente con
Microsoft® Windows 98 y Microsoft® Windows ME. Los sistemas operativos
Windows 98 y ME de Microsoft® reconocen el sistema de archivos FAT, FAT32,
el CDFS utilizado en CD-ROM y el UDF utilizado en DVD-ROM.
+ El sistema de archivos de Windows XP, Windows Vista y Windows 7 de
Microsoft®
NTFS: proviene de ("New Tecnology File System"), que significa sistema de
archivos de nueva tecnología, utilizado en la plataforma Windows NT®.
Permite accesos a archivos y carpetas por medio de permisos, no es compatible
con Linux (solo lee, y difícilmente escribe), ni con Ms-DOS®, ni Windows 95,
ni Windows 98 y tampoco puede accederla, tiene formato de compresión
nativa, permite encriptación, soporta 2 TB, no se recomienda en sistemas con
menos de 400 MB. Se utiliza para Microsoft® Windows XP y Microsoft®
Windows Vista y Windows 7. Los sistemas operativos Windows XP, Vista y 7 de
Microsoft® reconocen el sistema de archivos FAT, FAT32, NTFS, el CDFS
utilizado en CD-ROM, el UDF utilizado en DVD-ROM y el LFS para discos sin
registro de arranque maestro.
53. exFAT: proviene de ("EXtended File Allocation
Table"), que significa tabla de localización de
archivos extendida, el cuál se diseño para su uso
en dispositivos de almacenamiento electrónico
basados en el uso de tecnología de memoria
NAND, tales como memorias USB y unidades SSD,
para ser utilizado con versiones de Microsoft®
Windows CE, es importante mencionar que
Windows Vista y 7 tienen soporte para el
formateo con este sistema de archivos, al igual
que MacOS® y Linux. Una característica
importante es que Permite almacenar hasta 1000
archivos en una carpeta.
54.
55.
56. MANTENIMINETO PREVENTIVO
En las operaciones de mantenimiento, el mantenimiento preventivo es el destinado a la conservación
de equipos o instalaciones mediante realización de revisión y reparación que garanticen su buen
funcionamiento y fiabilidad. El mantenimiento preventivo se realiza en equipos en condiciones de
funcionamiento, por oposición al mantenimiento correctivo que repara o pone en condiciones de
funcionamiento aquellos que dejaron de funcionar o están dañados.
El primer objetivo del mantenimiento es evitar o mitigar las consecuencias de los fallos del equipo,
logrando prevenir las incidencias antes de que estas ocurran. Las tareas de mantenimiento
preventivo incluyen acciones como cambio de piezas desgastadas, cambios de aceites y lubricantes,
etc. El mantenimiento preventivo debe evitar los fallos en el equipo antes de que estos ocurran.
Algunos de los métodos más habituales para determinar que procesos de mantenimiento preventivo
deben llevarse a cabo son las recomendaciones de los fabricantes, la legislación vigente, las
recomendaciones de expertos y las acciones llevadas a cabo sobre activos similares.
57. PARA QUE SIRVE
El mantenimiento preventivo constituye una acción, o serie de acciones necesarias, para
alargar la vida útil del equipo e instalaciones y prevenir la suspensión de las actividades
laborales por imprevistos. Tiene como propósito planificar periodos de paralización de
trabajo en momentos específicos, para inspeccionar y realizar las acciones de mantenimiento
del equipo, con lo que se evitan reparaciones de emergencia.
Un mantenimiento planificado mejora la productividad hasta en 25%, reduce 30% los costos
de mantenimiento y alarga la vida útil de la maquinaria y equipo hasta en un 50%.
Los programas de mantenimiento preventivo tradicionales, están basados en el hecho de que
los equipos e instalaciones funcionan ocho horas laborables al día y cuarenta horas
laborables por semana. Si las máquinas y equipos funcionan por más tiempo, los programas
se deben modificar adecuadamente para asegurar un mantenimiento apropiado y un equipo
duradero.
El área de actividad del mantenimiento preventivo es de vital importancia en el ámbito de la
ejecución de las operaciones en la industria de cualquier tamaño.
De un buen mantenimiento depende no sólo un funcionamiento eficiente de las instalaciones
y las máquinas, sino que además, es preciso llevarlo a cabo con rigor para conseguir otros
objetivos como el hacer que los equipos tengan periodos de vida útil duraderos, sin
excederse en lo presupuestado para el mantenimiento.
Las estrategias convencionales de "reparar cuando se produzca la avería" ya no sirven.
Fueron válidas en el pasado, pero ahora si se quiere ser productivo se tiene que ser
consciente de que esperar a que se produzca la avería es incurrir en unos costos
excesivamente elevados (pérdidas de producción, deficiencias en la calidad, tiempos muertos
y pérdida de ganancias).
58. MANTENIMIENTO CORRECTIVO
Se denomina mantenimiento correctivo, aquel que corrige los defectos observados en los
equipamientos o instalaciones, es la forma más básica de mantenimiento y consiste en
localizar averías o defectos y corregirlos o repararlos. Históricamente es el primer concepto
de mantenimiento y el único hasta la Primera Guerra Mundial, dada la simplicidad de las
máquinas, equipamientos e instalaciones de la época. El mantenimiento era sinónimo de
reparar aquello que estaba averiado.
Este mantenimiento que se realiza luego que ocurra una falla o avería en el equipo que por
su naturaleza no pueden planificarse en el tiempo, presenta costos por reparación y
repuestos no presupuestadas, pues implica el cambio de algunas piezas del equipo.
Otros tipos de mantenimiento
Mantenimiento Predictivo
Está basado en la determinación de la condición técnica del equipo en operación. El
concepto se basa en que las máquinas darán un tipo de aviso antes de que fallen y este
mantenimiento trata de percibir los síntomas para después tomar acciones y decisiones de
reparación o cambio antes de que ocurra una falla.
Se realiza antes que ocurra una falla o avería, con la finalidad de mantener los equipos
trabajando y para reducir las posibilidades de ocurrencias o fallas. Consiste en la revisión
periódica de ciertos aspectos, de los componentes de un equipo , que influyen en el
desempeño fiable del sistema y en la integridad de su infraestructura.
Esta modalidad de mantenimiento se ocupa en la determinación de las condiciones
operativas de durabilidad y confiabilidad de un equipo. Su primer objetivo es evitar o
mitigar las consecuencias de las fallas del equipo, logrando prevenir las incidencias antes de
que estas ocurran. Las tareas incluyen acciones como revisiones del mecanismo, limpieza e
incluso cambios de piezas desgastadas evitando fallas antes de que estas ocurran.
59. Mantenimiento Proactivo
El mantenimiento Proactivo llamado también
Mantenimiento de precisión o Mantenimiento Basado
en la Confiabilidad, es un proceso de gestión de
riesgos que permite mejorar continuamente
estrategias de mantenimiento y rendimiento de
maquinaria y su objetivo es eliminar los fallos
repetitivos o posibles problemas recurrentes.
Una buena implantación y ejecución del proceso de
Mantenimiento Proactivo puede asegurar una mejor
amortización de los activos al gestionar claramente el
riesgo potencial sobre ellos. La gestión total incluye los
equipos (hardware) y los programas (software) y todos
los recursos técnicos requeridos.
60. COMO MEJORAR EL
RENDIMIENTO DE LA P.C
1-DESFRACMENTAR EL DISCO DURO
2-ELIMINAR COSAS QUE NO SE UTILIZEN
COMO PROGRAMAS O COSAS ASI
3-LIBERAR ESPACIO
61. TIPOS DE ESCITORIO LINUX Una de las grandes ventajas de Linux es la posibilidad de personalizar cualquier parte del
sistema, como queramos. En este sentido, el entorno de escritorio es una parte muy
importante ya que es la parte con la que convivimos y como tal, es vital que nos encontremos
cómodos en su uso para que la experiencia de usuario sea lo más satisfactoria posible. Hoy
os vamos a hablar de algunos de los entornos de escritorio más conocidos, para que si no los
conocíais o solo habíais oído hablar brevemente de ellos, podáis conocerlos un poco mejor. Si
te interesa sigue leyendo
GNOME
Este entorno de escritorio es uno de los más conocidos que no solo está presente en Linux.
También se puede encontrar en otros sistemas Unix como BSD y Solaris. Gnome (GNU
Network Object Model Environment) tuvo su origen en los mejicanos Miguel de Icaza y
Federico Mena en 1999, estando traducido actualmente en más de 166 idiomas.
El objetivo de este entorno es crear un sistema de escritorio para el usuario final que sea
completo, libre y fácil de usar. Usa las bibliotecas gráficas GTK y está bajo licencia GPL. Una
característica bastante útil aunque común a prácticamente cualquier entorno, es el poder
usar varios espacios de trabajo, cada uno con un escritorio independiente de los demás. El
hecho de pasar aplicaciones entre escritorios es tan simple como arrastrar con el ratón la
ventana de dicha aplicación a otro escritorio.
GNOME es muy configurable ya que se puede personalizar prácticamente cualquier cosa.
Menús, iconos, tipos de letra, fondo de escritorio, pantalla, tema para las ventanas, sonido o
la interacción con las ventanas entre otras.
En Abril de este mismo año, Gnome se actualizó a su versión 3.0 teniendo numerosos
cambios, aunque el cambio que ha destacado sobre el resto, es la inclusión de GNOME Shell,
en detrimento del GNOME Panel. Esto ha creado bastante controversia ya que los usuarios
no pueden utilizar Compiz mientras GNOME Shell se esté ejecutando.
62.
63. KDE
KDE (KDesktop Environment) se trata de un entorno de
escritorio creado en 1996 por Mathias Ettrich para diferentes
versiones del sistema UNIX. El objetivo al crear este entorno fue el
tener algo que permitiese a los usuarios no solo mirar líneas de
ordenes e interactuar de forma gráfica con todos los componentes del
sistema. De la misma manera, se pretendía que esta, fuera una
herramienta fácil de usar. Se basa en el la biblioteca gráfica Qt y
actualmente está traducido en más de 108 idiomas.
Este entorno se basa en la personalización, y de la misma manera que
GNOME prácticamente cualquier aspecto puede ser configurado por
el usuario de la manera que él quiera. Actualmente la última versión
estable es la 4.7 y tiene como elemento central en su diseño a “Plasma“.
Esta herramienta se crea con el objetivo de combinar el panel Kicker,
KDesktop y el gestor de widgets, en un único elemento.
Este es un escritorio diseñado además para ser bonito y eso conlleva
que tenga mayor consumo de recursos que GNOME. También es cierto
que el mayor consumo de recursos no es exagerado, aunque si
sensiblemente superior siendo más pronunciado en la carga del
escritorio. Donde más evidente se nota esta diferencia es en equipos
con los recursos más ajustados.
64.
65. Unity
Unity es un entorno de escritorio desarrollado en Junio de
2010 por Canonical para Ubuntu. Su primer lanzamiento se
pudo ver en la versión 10.10 de Ubuntu Netbook Remix,
con el objetivo de optimizar el espacio de las pantallas de los
netbooks. Después de esto, en octubre de ese mismo año, se
anunció qie Unity se utilizaría en la versión de escritorio de
Ubuntu.
Los elementos que tiene Unity son un lanzador a la
izquierda que sirve como lugar donde se encuentran los
accesos directos de las aplicaciones, un contenido central
llamado “Lugares” que muestra todos los archivos y
aplicaciones de usuario, además de ofrecer un buscador de
categorías y aplicaciones.
Y ya lo hemos visto con el lanzamiento de Ubuntu 11.04
como el escritorio por defecto era este, creando bastante
descontento entre buena parte de los usuarios de Ubuntu.
No en vano circulan numerosos tutoriales en la red que
ayudan a quitar este entorno y volver al antiguo GNOME.
66.
67. XFCE
Este es un entorno de escritorio muy ligero para
sistemas Unix. Según palabras de su creador Olivier
Fourdan, XFCE (XForms Common Environment) está
“diseñado para la productividad, las apliacciones se
cargan y se ejecutan rápidamente, mientras se
conserva recursos del sistema“. Creado en 1996, está
basado en la biblioteca GTK y utiliza el gestor de
ventanas Xfwm.
XFCE es un entorno muy ligero, y resulta ideal para
equipos como menos recursos ya que el no ser un
entorno visualmente tan potente como pueden ser los
anteriores, hace que no consuma tantos recursos.
También hay que apuntar que el no ser tan potente
visualmente no le impide que pueda ser muy
personalizable, pudiendo cambiar temas de ventana,
fondos de escritorio, protectores de pantalla, tipos de
letras o cualquier aspecto visual del mismo.
68.
69. LXDE
De la misma manera que los anteriores, este
entorno está disponible para varios sistemas Unix.
LXDE (Lightweight X11 Desktop Environment)
pretende ser como su propio nombre indica un
entorno de escritorio X11 ligero. Utiliza Openbox
como gestor de ventanas predeterminado.
Los componentes de LXDE son independientes, a
diferencia de otros entornos de escritorio, lo que
hace que tengan muy pocas dependencias. Y
como entorno ligero que es, está diseñado
especialmente para equipos con escasos recursos
como netbooks o ordenadores antiguos.
70.
71. ENTRO OTROS NO MUY CONOCIDOS
XFast: entorno ligero que además de portable funciona en muchos dispositivos. Su objetivo principal
es contar con un entorno gráfico muy rápido. Ideal para equipos con pocos recursos.
Enlightenment: también conocido como “E”, se trata también de un entorno muy ligero que ha
pasado con el tiempo a convertirse de gestor de ventanas de Gnome, a entorno de escritorio. Destaca
por ser bastante configurable y atractivo visualmente.
ROX Desktop: este entorno de escritorio está basado en ROX-Filer (gestor de archivos que fue usado
en Xubuntu hasta que Thunar llegó a ser estable). Usa GTK+ y destaca por su sistema de arrastrar y
soltar para mover los datos entre las aplicaciones.
Equinox: Equinos Desktop Environment se trata de un entorno de escritorio bastante sencillo, rápido
y portable. Al igual que XFast, es ideal para ejecutar en equipos con pocos recursos.
étoilé: se trata de un proyecto flexible, modular y muy ligero que permite al usuario crear su propio
entorno de trabajo. Étoilé trabaja con un sistema de clasificación de etiquetas a los objetos, en lugar
de depender de carpetas. Gracias a este sistema es más fácil compartir datos entre documentos de
una manera rápida y sencilla.
72. DISTRIBUCIONES DEL LINUX
MEXICANO
Jarro Negro
Al día de hoy podemos decir que es la distribución mexicana más conocida. Inició su camino como
un proyecto del CCH Naucalpan pero hoy se encuentra disponible para todo el mundo. Es una
distribución independiente, es decir, no se basa en otras distribuciones, aunque en sus inicios se basó
en Slackware y Debian. Ha recibido reconocimientos de CNN, la UVM, la SEP y el IPN y entre sus
características destaca el uso del gestor de ventanas Enlightenment, lo hace la hace una distribución
ligera y poco exigente con los recursos del equipo donde se ejecute. El proyecto cayó en el abandono
en 2008 y se mantuvo así hasta 2011, cuando se anunció el lanzamiento de una nueva versión para
celebrar los 6 años de vida del proyecto. Desde su web oficial podemos descargar la versión 2.1.0
73. Aldos
Alcance Libre Desktop Operating System es una distribución que va en su versión 1.4.4 y esta
orientado a ser un sistema operativo de escritorio con soporte a largo plazo. Lo desarrolla y mantiene
Joel Barrios Dueñas, de la comunidad Alcance Libre. Utiliza Gnome como entorno de escritorio y
está basado en Fedora. Además de contar con una completa dotación de software de trabajo y
entretenimiento soporta aplicaciones como Flash y Skype. Puedes descargar las versiones de 32 y 64
bits desde http://www.alcancelibre.org/staticpages/index.php/notas-lanzamiento-
aldos-1-4.
Aztli Linux
Aztli (‘Ala’ en náhuatl)Es un proyecto de los alumnos de la Benemérita Universidad Autónoma de
Puebla (BUAP) que ofrece a sus usuarios un entorno de trabajo moderno y amigable y aspira a
difundir la filosofía del software libre siendo el escalón de entrada al mundo Linux, como Ubuntu o
Linux Mint. Descarga y prueba la versión 4.0 en versiones Gnome y KDE desde
http://aztli.cs.buap.mx.
74. Aztec OS
Aunque inició como un sistema operativo ‘familiar’, Andrés Carranza Silva decidió poner su
proyecto a disposición del público en general. Aztec OS se centra en la facilidad de instalación y la
seguridad, además de integrar una gran cantidad de aplicaciones para hacer felices a los usuarios
que llegan por primera vez al mundo Linux. Se puede conseguir la versión 1.2 en
http://www.aztecos.org.
Beak OS
Beak OS promete correr en equipos de gama alta pero igualmente en aquellos con
recursos limitados e integra aplicaciones de uso cotidiano y profesional. Su
desarrollo es apoyado por el CONACYT
Se puede descargar la versión 1.7 (server, gnome y xfce) desde
http://www.beakos.com.mx.
75. Orvitux
Jesús Manuel Hernández (@orvitux), el creador de esta distribución, anunció que se estaba
desarrollando una nueva versión de Orvitux basada en Debian. Orvitux tiene como idea principal
ser una distribución práctica y fácil de usar, con funciones de detección y configuración de
hardware únicas y montones de aplicaciones para el ocio y la productividad. Por el momento se
puede descargar una versión alfa con el entorno de escritorio KDE desde http://orvitux.com.mx
TM Linux
En 2010 hubo una versión Beta de esta distribución basada en Unity Linux (originalmente se basó
en PCLinuxOS) y aunque comenzaba a contar con soporte comunitario e incluso comercial, el
desarrollo cayó en el olvido en 2011.
76. Ikim Linux
Le idea detrás de Ikim (en maya “búho pequeño”) era crear una distribución que pudiera correr en
equipos de muy bajos recursos o en desuso para que la mayor cantidad de gente pudiera instalarlo
en sus equipos y con ello ayudar a resolver el problema de la basura tecnológica. Existió en 2008
una versión estable llamada Akbal, desarrollada por la comunidad Debian de México, pero tras
algunos años el desarrollo derivó en la siguiente distro:
Vacteria
Ikim se transformó en Vacteria en 2011, como un sistema operativo especial para
desarrolladores, al traer preinstalados servicios web y software de virtualización. Incluso se
planteó que tendría por defecto el entorno de escritorio Xfce, lo que la haría muy liviana.
Extrañamente, el desarrollo se encuentra abandonado desde finales de 2012.
77. Kodex
Es la versión mexicanizada de Knoppix, esa distro basada en Debian y tan querida por su facilidad
para detectar el hardware donde se instala. Está recomendada para usuarios novatos, aunque la
instalación puede ponerse un poco difícil. Descárgala desde http://mirrors.sandino.net/knoppix/a-la-
mexicana
78. 10 PERSONAJES HISTORICOS
DE LA COMPUTADORA
Charles Babbage:
Nacimiento: 26 de Diciembre de 1791
Fallecimiento: 18 de octubre de 1871, a los 79 años de edad
Nacionalidad: Britanica
Aportacion: Diseño y parcialmente implemento la maquina a vapor.
Diseño la Maquina Analitica
Creo los planos de la impresora moderna
79. Lady Augusta Lovelance
Nacimiento: 10 de diciembre de 1815
Fallecimiento: 27 de noviembre de 1852
Nacionalidad: Britanica
Aportacion: Desarrollo instrucciones para hacer calculos de una version inicial de la computadora
Herman Hollerith
Nacimiento: 29 de febrero de 1860
Fallecimiento: 17 de noviembre de 1929
Nacionalidad: Estadounidense
Profesion: Ingeniero mecanico
Aportacion: Invento la maquina tubuladora para realizar el censo
80. Steve Jobs
Nacimiento: 24 de Febrero de 1955
Fallecimiento: -
Nacionalidad: Estadounidense
Profesion: Empresario
Aportacion: Interfaz de usuario Mac, OS, iOS
Bill Gates
Nacimiento: 28 de octubre de 1995
Fallecimiento: -
Nacionalidad: Estadounidense
Profesion: Empresario
Aportaciones: Creo el software de Windows.
81.
Konrad Zuse
Nacimiento: 22 de junio de 1910
Fallecimiento: 18 de Diciembre de 1995
Nacionalidad: Alemana
Profesion: Ingeniero y Pionero de la Computacion
Aportacion: La computadora electromecanica binaria programable
82. Augusta Ada King (nacida Augusta Ada Byron)
Nació el 10 de diciembre de 1815 en Londres, Reino Unido, falleciendo en la misma ciudad el 27 de
noviembre de 1852.
Es considerada como la primera programadora, desde que escribió la manipulación de los símbolos,
de acuerdo a las normas para una máquina de Charles Babbage que aún no había sido construida.
Describió la máquina analítica de Charles Babbage,
Dedujo y previó la capacidad de los ordenadores para ir más allá de los simples cálculos de números,
mientras que otros, incluido el propio Babbage, se centraron únicamente en estas capacidades.
Su padre fue el conocido poeta Lord Byron.
Alan Turing, (23 de junio de 1912, Londres – 7 de junio de 1954 en Wilmslow, Cheshire)
Fue un matemático, lógico, científico de la computación, criptógrafo y filósofo británico.
Es considerado uno de los padres de la ciencia de la computación siendo el precursor de la
informática moderna.
Proporcionó una influyente formalización de los conceptos de algoritmo y computación: la máquina
de Turing.
Formuló su propia versión de la hoy ampliamente aceptada Tesis de Church-Turing, la cual postula
que cualquier modelo computacional existente tiene las mismas capacidades algorítmicas, o un
subconjunto, de las que tiene una máquina de Turing.
Durante la Segunda Guerra Mundial, trabajó en descifrar los códigos nazis, particularmente los de
la máquina Enigma; durante un tiempo fue el director de la sección Naval Enigma del Bletchley
Park. Tras la guerra diseñó uno de los primeros computadores electrónicos programables digitales
en el Laboratorio Nacional de Física del Reino Unido y poco tiempo después construyó otra de las
primeras máquinas en la Universidad de Mánchester.
Entre otras muchas cosas, también contribuyó de forma particular e incluso provocativa al enigma
de si las máquinas pueden pensar, es decir a la Inteligencia Artificial.
La carrera de Turing terminó súbitamente cuando fue procesado por ser homosexual. No se
defendió de los cargos y se le dio a escoger entre la castración química o ir a la cárcel. Eligió lo
primero y sufrió importantes consecuencias físicas, entre ellas la impotencia. Dos años después del
juicio, en 1954, Turing falleció debido a la ingestión de una manzana contaminada con cianuro en
un contexto que indica un posible suicidio
83. Dennis Ritchie (USA, 9 de septiembre de 1941 – 12 de octubre de 2011)
Fue un científico computacional estadounidense.
Colaboró en el diseño y desarrollo de los sistemas operativos Multics y Unix, así como el
desarrollo de varios lenguajes de programación como el C, tema sobre el cual escribió un
célebre clásico de las ciencias de la computación junto a Brian Wilson Kernighan: El
lenguaje de programación C.
Recibió el Premio Turing de 1983 por su desarrollo de la teoría de sistemas operativos
genéricos y su implementación en la forma del sistema Unix.
En 1998 le fue concedida la Medalla Nacional de Tecnología de los Estados Unidos de
América.
El año 2007 se jubiló, siendo el jefe del departamento de Investigación en software de
sistemas de Alcatel-Lucent.
Niklaus Wirth (Winterthur Suiza, 15 de febrero de 1934 )
Científico de la computación, en 1959 obtiene el título de Ingeniero en Electrónica en la
Escuela Politécnica Federal de Zúrich (ETH) en Suiza.
En 1960 obtuvo un M.Sc. de la Universidad de Laval, Canadá. En 1963 obtiene un Doctorado
(Ph.D.) en la Universidad de California, Berkeley.
De 1963 a 1967 sirvió como profesor auxiliar de Informática en la Universidad de Stanford
y de nuevo en la Universidad de Zúrich. A partir de 1968 se convirtió en profesor de
Informática en la ETH en Suiza, tomándose dos años sabáticos en la Xerox PARC de
California.
Wirth fue el jefe de diseño de los lenguajes de programación Euler, Algol W, Pascal, Modula,
Modula-2 y Oberon. También ocupó gran parte de su tiempo en el equipo de diseño e
implementación de sistemas operativos Lilith y Oberon para el Lola en el diseño del
hardware digital y el sistema de simulación.
Su artículo de desarrollo de un programa por refinamiento sucesivo (“program development
by stepwise refinement”) es considerado un texto clásico en la ingeniería del software, así
como su libro Algoritmos + Estructuras de datos = Programas, que recibió un amplio
reconocimiento, y que aun hoy en día es útil en la enseñanza de la programación.
Recibió el Premio Turing por el desarrollo de estos lenguajes de programación en 1984. Se
jubiló en 1999.
84. GRACIAS POR SU ATENCION Y ESPERO QUE EL
TRABAJO LE SEA DE AYUDA