Archivo recopilatorio

235 visualizaciones

Publicado el

0 comentarios
0 recomendaciones
Estadísticas
Notas
  • Sé el primero en comentar

  • Sé el primero en recomendar esto

Sin descargas
Visualizaciones
Visualizaciones totales
235
En SlideShare
0
De insertados
0
Número de insertados
3
Acciones
Compartido
0
Descargas
0
Comentarios
0
Recomendaciones
0
Insertados 0
No insertados

No hay notas en la diapositiva.

Archivo recopilatorio

  1. 1. 1 Colegio de Estudios Científicos y Tecnológicos Plantel Tecámac Alumno: Noe Aldair Francisco Cruz Profesor: René Dominguez Escalona Materia de recuperación: Administra Sistemas Operativos. Evidencias para examen de recuperación.
  2. 2. 2 Índice: Página 1.- Antecedentes de la Computadora ---- > 4 2.- Tipos de S.O y funcionamiento ---- > 7 3.- Estructura de un S.O -------- > 10 4.- BIOS, UEFI y Legacy -------------- > 12 5.- Placa madre, RAM y MP ------- > 17 6.- Unidades de Alm. Y periféricos ---- > 21 7.- Windows, Software Libre y MacOS -------- > 24 8.- Software libre, Open Source e historia de Linux ------ > 31 9.- 10 Distribuciones Linux importantes. -------------------- > 33 10.- Panel de Control de Windows -------------------------- > 43 11.- Sistema de Archivos ---------------- > 46 12.- Mantenimiento Preventivo y Correctivo. ----------- > 50 13.- Como mejorar el rendimiento de la PC. --------------> 52 14.- Tipos de escritorios Linux ----------------> 54 15.- Distribuciones Linux Mexicanas. ------------- > 58 16.- 10 Personaes históricos de la computación ----------> 60 17.- Breve resumen ----------- > 61
  3. 3. 3
  4. 4. 4
  5. 5. 5 1.- Antecedentes de la Computadora y S.O Objetivos e introducción: El conocer los antecedentes tanto de computadoras como S.O expande nuestro conocimiento sobre ellas al saber de donde provienen y quién las inventó. Las computadoras provienen desde los tiempos del ábaco, dando así el primer paso para la invención de éstas. Antecedentes de PC y S.O: El Abaco Quizás fue el primer dispositivo mecánico de contabilidad que existió. Se ha calculado que tuvo su origen hace al menos 5000 años y su efectividad ha soportado la prueba del tiempo. La Pascalina El inventor y pintor Leonardo Da Vinci (1452- 1519) trazó las ideas para una sumadora mecánica. Siglo y medio después, el filósofo y matemático
  6. 6. 6 francés Blas Pascal (1623-1662) inventó y construyó la primera sumadora mecánica. Se le llamo Pascalina y funcionaba como maquinaria a base de engranes y ruedas. A pesar de que Pascal fue enaltecido por toda Europa debido a sus logros, la Pascalina, resultó un desconsolador fallo financiero, pues para esos momentos, resultaba más costosa que la labor humana para los cálculos aritméticos. La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en Las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar. El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos. La máquina analítica
  7. 7. 7 También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro. Primeros ordenadores Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación. Conclusión y fuentes de información: Ahora tenemos un poco más de conocimiento acerca de nuestras queridas ayudantes y el como han ido evolucionando los S.Opara poder usarlas con más facilidad. Fuentes de información:
  8. 8. 8 http://www.monografias.com/trabajos14/antecedentescompu/antece dentescompu.shtml 2.- Tipos de S.O y funcionamiento: Objetivos e introducción: El tener conocimiento acerca de cada una de los S.O que existen y sus funciones nos da paso a nuestros siguientes ten}mas en donde los anteriores siguen siendo igual de importantes. Los S.O se crearon después de la computadora lo que los convirtió en una herramienta muy u útil para tener mayor manejo de éstas. Tipos de S.O y funcionamiento: DOS: El famoso DOS, que quiere decir Disk Operating System (sistema operativo de disco), es más conocido por los nombres de PC-DOS y MS- DOS. MS-DOS fue hecho por la compañía de software Microsoft y es en esencia el mismo SO que el PC-DOS. La razón de su continua popularidad se debe al aplastante volumen de software disponible y a la base instalada de computadoras con procesador Intel. Cuando Intel liberó el 80286, DOS se hizo tan popular y firme en el mercado que DOS y las aplicaciones DOS representaron la mayoría del mercado de software para PC. En aquel tiempo, la
  9. 9. 9 compatibilidad IBM, fue una necesidad para que los productos tuvieran éxito, y la "compatibilidad IBM" significaba computadoras que corrieran DOS tan bien como las computadoras IBM lo hacían.Aún con los nuevos sistemas operativos que han salido al mercado, todavía el DOS es un sólido contendiente en la guerra de los SO. Windows 3.1: Microsoft tomo una decisión, hacer un sistema operativo que tuviera una interfaz gráfica amigable para el usuario, y como resultado obtuvo Windows. Este sistema muestra íconos en la pantalla que representan diferentes archivos o programas, a los cuales se puede acceder al darles doble clic con el puntero del mouse. Todas las aplicaciones elaboradas para Windows se parecen, por lo que es muy fácil aprender a usar nuevo software una vez aprendido las bases. Windows 95: En 1995, Microsoft introdujo una nueva y mejorada versión del Windows 3.1. Las mejoras de este SO incluyen soporte multitareas y arquitectura de 32 bits, permitiendo así correr mejores aplicaciónes para mejorar la eficacia del trabajo. Windows NT: Esta versión de Windows se especializa en las redes y servidores. Con este SO se puede interactuar de forma eficaz entre dos o más computadoras. OS/2: Este SO fue hecho por IBM. Tiene soporte de 32 bits y su interfaz es muy buena. El problema que presenta este sistema operativo es que no se le ha dad el apoyo que se merece en cuanto a aplicaciones se refiere. Es decir, no se han creado muchas aplicaciones que aprovechen las características de el SO, ya que la mayoría del mercado de software ha sido monopolizado por Windows. Mac OS: Las computadoras Macintosh no serían tan populares como lo son si no tuvieran el Mac OS como sistema operativo de planta. Este sistema operativo es tan amigable para el usuario que cualquier persona puede aprender a usarlo en muy poco tiempo. Por otro lado,
  10. 10. 10 es muy bueno para organizar archivos y usarlos de manera eficaz. Este fue creado por Apple Computer, Inc. UNIX: El sistema operativo UNIX fue creado por los laboratorios Bell de AT&T en 1969 y es ahora usado como una de las bases para la supercarretera de la información. Unix es un SO multiusuario y multitarea, que corre en diferentes computadoras, desde supercomputadoras, Mainframes, Minicomputadoras, computadoras personales y estaciones de trabajo. Esto quiere decir que muchos usuarios puede estar usando una misma computadora por medio de terminales o usar muchas de ellas. Conclusión y fuente de información. Ahora tenemos un poco más e conocimiento acerca del origen de cada uno de los S.O existentes y la manera en cómo deben manejarse dadas las circunstancias. Fuentes de información. http://www.e-mas.co.cl/categorias/informatica/tiposso.htm
  11. 11. 11 3.- Estructura de un S.O: Objetivos e introducción: El conocimiento acerca de la estructura de los S.O nos da paso a saber más sobre el tema implicado ya que con ello se abre otro mundo a las computadoras. El S.O se inventa después de la computadora para que sea más fácil su manejo y su dinámica. Estructura de un S.O: Es la estructura de los primeros sistemas operativos constituidos fundamentalmente por un solo programa compuesto de un conjunto de rutinas entrelazadas de tal forma que cada una puede llamar a cualquier otra. Las características: Construcción del programa final a base de módulos compilados separadamente que se unen a través del ligador. Buena definición de parámetros de enlace entre las distintas rutinas existentes, que puede provocar mucho acoplamiento. Carecen de protecciones y privilegios al entrar a rutinas que manejan diferentes aspectos de los recursos de la computadora, como memoria, disco, etc. Es decir, ese sistema nos permite entender cualquier concepto adicional referente a las normas y modificaciones de la misma.
  12. 12. 12 Estructura Jerárquica A medida que fueron creciendo las necesidades de los usuarios y se perfeccionaron los sistemas se hizo necesaria una mayor organización del software del sistema operativo, donde una parte del sistema contenía sub-partes organizadas en forma de niveles. Ejemplos: Multics y Unix. Máquina Virtual Se trata de un tipo de sistemas operativos que presentan una interface a cada proceso, mostrando una máquina que parece idéntica a la máquina real subyacente. Estos sistemas operativos separan dos conceptos que suelen estar unidos en el resto de sistemas: la multiprogramación y la máquina extendida. El objetivo de los sistemas operativos de máquina virtual es el de integrar distintos sistemas operativos dando la sensación de ser varias máquinas diferentes. Es un software. La estructura de este sistema operativo maquina virtual parte principalmente de un Kernel que se denomina monitor de la máquina virtual, la cual se ejecuta sobre el hardware, generando así varias máquinas virtuales formando lo que se llama la multiprogramación. Conclusión y fuente de información: Ahora tenemos un poco más de conocimiento acerca de las reglas de un S.O y el uso de cada uno de ellos según se dicte el caso. Fuente de información: http://es.wikibooks.org/wiki/Sistemas_operativos/Por_su_estructura
  13. 13. 13 4.- BIOS, UEFI y LEGACY: Objetivos e introducción: El conocimiento de cada una de estas partes de la computadora es fundamental para continuar con nuestros proyectos y el mejorar académicamente. La BIOS es la base de una PC y seguido está el UEFI que es la mayor tecnología hasta ahora y la más reciente. BIOS En computadoras IBM PC compatibles, el Basic Input/Output System (BIOS), también conocido como System BIOS, ROM BIOS o PC BIOS, es un estándar de facto que define a una interfaz de firmware. El nombre se originó en el Basic Input/Output System usado en el sistema operativo CP/M en 1975. El software BIOS es instalado dentro de la PC, y es el primer programa que se ejecuta cuando se enciende la computadora. El propósito fundamental del BIOS es inicializar y probar el hardware del sistema y cargar un bootloader o un sistema operativo de un dispositivo de almacenamiento de datos. En adición, el BIOS provee una capa de abstracción para el
  14. 14. 14 hardware, p.e. que consiste en una vía para los programas de aplicaciones y los sistemas operativos interactúen con el teclado, el monitor y otros dispositivos de entrada/salida. Las variaciones que ocurren en el hardware del sistema quedan ocultos por el BIOS, ya que los programas usan servicios de BIOS en lugar de acceder directamente al hardware. Los sistemas operativos modernos ignoran la capa de abstracción provista por el BIOS y acceden al hardware directamente. El BIOS de la IBM PC/XT original no tenía interfaz con el usuario interactiva. Lo mensajes de error eran mostrados en la pantalla, o codificados por medio de una serie de sonidos. Las opciones en la PC y el XT se establecían por medio de interruptores y jumpers en la placa madre y en las placas de los periféricos. Las modernas computadoras compatibles Wintel proveen una rutina de configuración, accesible al iniciar el sistema mediante una secuencia de teclas específica. El usuario puede configurar las opciones del sistema usando el teclado y el monitor. El software del BIOS es almacenado en un circuito integrado de memoria ROM no-volátil en la placa madre. Está específicamente diseñado para trabajar con cada modelo de computadora en particular, interconectando con diversos dispositivos que componen el conjunto de chips complementarios del sistema. En computadores modernos, el BIOS está almacenado en una memoria flash, por lo que su contenido puede ser reescrito sin remover el circuito integrado de la placa madre. Esto permite que el BIOS sea fácil de actualizar para agregar nuevas características o corregir errores, pero puede hacer que la computadora sea vulnerable a los rootkit de BIOS. UEFI Como en un principio se la conocía, es un desarrollo llevado a cabo por Intel y que comienza su andadura a principios de los años 90 para crear un entorno de trabajo más eficaz a los procesadores Itanium. Pero
  15. 15. 15 afortunadamente no se quedó allí, ya que en la actualidad está siendo implementado en la mayoría de las motherboards más modernas del mercado, dotándolas de características como cifrado, una interfaz de control del hardware mucho más avanzada y transparente para el usuario, autenticación de red y una mejora sustancial en los tiempos de arranque del equipo, entre otras. Luego de que la especificación madurara, en 2005 se creó el consorcio UEFI(Unified Extensible Firmware Interface), cuya misión era la de desarrollar y mejorar el estándar para su adopción masiva por parte de la industria y reemplazar la antigua BIOs. Al pasar los años, y como resultado de la experiencia y conocimientos obtenidos, en la actualidad el usuario puede disfrutar y modificar funciones y opciones del hardware que compone su PC, logrando un control sin precedentes en el mismo, y lo mejor de todo es que no es necesario tener conocimientos profundos en informática, ya que todo está preparado como para que pueda ser usado sin peligro, incluyendo la posibilidad de hacerlo a través de un ratón. Más arriba hemos mencionado que el sistema UEFI mejora en mucho los tiempos de arranque de la PC con respecto a los tiempos de la BIOS. Lo que tarda en cargar completamente el equipo se debe fundamentalmente a los tiempos que son necesarios para la carga total de la BIOS, un aspecto que desde hace preocupa a muchos
  16. 16. 16 usuarios, independientemente del tipo y capacidad de la computadora que posea. LEGACY Un sistema heredado (o sistema legacy) es un sistema informático (equipos informáticos o aplicaciones) que ha quedado anticuado pero continúa siendo utilizado por el usuario (típicamente una organización o empresa) y no se quiere o no se puede reemplazar o actualizar de forma sencilla. Las compañías gastan mucho dinero en sistemas informáticos y, para obtener un beneficio de esa inversión, el software o el hardware debe utilizarse varios años. El tiempo de vida de los sistemas informáticos es muy variable, pero muchos sistemas grandes se pueden llegar a utilizar hasta más de 20 años. Muchos de estos sistemas antiguos aún son importantes para sus respectivos negocios, es decir, las empresas cuentan con los servicios suministrados por estos sistemas y cualquier fallo en estos servicios tendría un efecto serio en el funcionamiento de la organización. Estos sistemas antiguos reciben el nombre de sistemas heredados. Lo habitual es que los sistemas heredados, los que ya suponen un problema para una empresa u organización por la dificultad para sustituirlos, no sean los mismos sistemas que originalmente se empezaron a utilizar en la empresa. Muchos factores externos e internos, como el estado de las economías nacional e internacional, los mercados cambiantes, los cambios en las leyes, los cambios de administración o la reorganización estructural, conducen a que los negocios experimenten cambios continuos. Conclusión y fuentes de información: Los distintos sistemas que hemos visto nos serán de utilidad futuramente para instalar un S.O viejo en una PC nueva o viceversa según sea el caso y nos mantiene informados de lo anterior.
  17. 17. 17 Fuentes de información: http://es.wikipedia.org/wiki/BIOS http://es.wikipedia.org/wiki/UEFI http://es.wikipedia.org/wiki/sistema_heredado 5.- Placa Madre, RAM y Microprocesador: Objetivos e introducción: El conocer acerca de la placa madre, ram y microprocesador extiende los conocimientos que previamente adquirimos después de los temas anteriores y reforzarán nuestras técnicas para mejora en la PC dependiendo de en que situación nos encontremos tanto en ensamblaje como nuevo equipo. La placa madre es la placa en donde todo está conectado par a poder funcionar, la memoria de acceso aleatorio se encarga de que los procesos ocupen un cierto espacio para funcionar y el microprocesador es el cerebro de toda PC. Placa madre:
  18. 18. 18 La placa base, también conocida como placa madre o placa principal (en inglés motherboard o mainboard) es una tarjeta de circuito impreso a la que se conectan los componentes que constituyen la computadora. Es una parte fundamental para armar cualquier computadora personal de escritorio o portátil. Tiene instalados una serie de circuitos integrados, entre los que se encuentra el circuito integrado auxiliar (chipset), que sirve como centro de conexión entre el microprocesador (CPU), la memoria de acceso aleatorio (RAM), las ranuras de expansión y otros dispositivos. Va instalada dentro de una carcasa o gabinete que por lo general está hecha de chapa y tiene un panel para conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes internos. La placa madre, además incluye un firmware llamado BIOS, que le permite realizar las funcionalidades básicas, como pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema operativo. RAM La memoria de acceso aleatorio (en inglés: rand om-access memory) se utiliza como memoria de trabajo para el sistema operativo, los programas y la mayor parte del software. Es allí donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de cómputo. Se denominan «de acceso aleatorio» porque se puede leer o escribir en una posición de memoria con un
  19. 19. 19 tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera más rápida posible. Durante el encendido del computador, la rutina POST verifica que los módulos de memoria RAM estén conectados de manera correcta. En el caso que no existan o no se detecten los módulos, la mayoría de tarjetas madres emiten una serie de pitidos que indican la ausencia de memoria principal. Terminado ese proceso, la memoria BIOS puede realizar un test básico sobre la memoria RAM indicando fallos mayores en la misma. MICROPROCESADOR: El microprocesador (o simplemente procesador) es el circuito integrado central y más complejo de un sistema informático; a modo de ilustración, se le suele llamar por analogía el «cerebro» de un computador. Es el encargado de ejecutar los programas, desde el sistema operativo hasta las aplicaciones de usuario; sólo ejecuta instrucciones programadas en lenguaje de bajo nivel, realizando operaciones aritméticas y lógicas simples, tales como sumar, restar, multiplicar, dividir, las lógicas binarias y accesos a memoria. Esta unidad central de procesamiento está constituida, esencialmente, por registros, una unidad de control, una unidad aritmético lógica (ALU) y una unidad de cálculo en coma flotante (conocida antiguamente como «coprocesador matemático»). El microprocesador está conectado generalmente mediante un zócalo específico de la placa base de la computadora; normalmente
  20. 20. 20 para su correcto y estable funcionamiento, se le incorpora un sistema de refrigeración que consta de un disipador de calor fabricado en algún material de alta conductividad térmica, como cobre o aluminio, y de uno o más ventiladores que eliminan el exceso del calor absorbido por el disipador. Entre el disipador y la cápsula del microprocesador usualmente se coloca pasta térmica para mejorar la conductividad del calor. Existen otros métodos más eficaces, como larefrigeración líquida o el uso de células peltier para refrigeración extrema, aunque estas técnicas se utilizan casi exclusivamente para aplicaciones especiales, tales como en las prácticas de overclocking. Ahora que sabemos un poco más sobre cada uno de los componentes explicados anteriormente podemos comenzar con los siguientes temas en cuanto a informática se refiere, así dar comienzo a otra etapa dentro de los S.O Fuentes de información: http://es.wikipedia.org/wiki/Placa_base http://es.wikipedia.org/wiki/Memoria_de_acceso_aleatorio http://es.wikipedia.org/wiki/Microprocesador
  21. 21. 21 6.- Unidades de Almacenamiento y dispositivos periféricos. Objeticos e introducción: El objetivo de conocer las unidades tanto de almacenamiento como periféricas es el saber más acerca de los espacios dentro de las PC y sus unidades como son el KB, MB o GB. Las unidades de almacenamiento son utilizadas a diario por millones de personas para guardar datos importantes en sus unidades, son de gran utilidad y con espacios enormes para datos pequeños. Las unidades periféricas la podemos encontrar en la vida diaria ocupando un lugar en nuestro hogar u oficina. Unidades de Almacenamiento y periféricos. Debido a la cantidad de información que manejamos actualmente, los dispositivos de almacenamiento se han vuelto casi tan importantes como el mismísimo computador. Aunque actualmente existen dispositivos para almacenar que superan las 650 MB de memoria, aún seguimos quejándonos por la falta de capacidad para transportar nuestros documentos y para hacer Backups de nuestra información más importante. Todo esto sucede debido al
  22. 22. 22 aumento de software utilitario que nos permite, por dar un pequeño ejemplo, convertir nuestros Cds en archivos de Mp3. El espacio en nuestro Disco duro ya no es suficiente para guardar tal cantidad de información; por lo que se nos es de urgencia conseguir un medo alternativo de almacenamiento para guardar nuestros Cds en Mp3 o los programas que descargamos de Internet. Disco duro Disco duro, en los ordenadores o computadoras, unidad de almacenamiento permanente de gran capacidad. Está formado por varios discos apilados —dos o más—, normalmente de aluminio o vidrio, recubiertos de un material ferromagnético. Como en los disquetes, una cabeza de lectura/escritura permite grabar la información, modificando las propiedades magnéticas del material de la superficie, y leerla posteriormente (La tecnología magnética, consiste en la aplicación de campos magnéticos a ciertos materiales cuyas partículas reaccionan a esa influencia, generalmente orientándose en unas determinadas posiciones que conservan tras dejar de aplicarse el campo magnético. Esas posiciones representan los datos, bien sean una canción, bien los bits que forman una imagen o un documento importante.); esta operación se puede hacer un gran número de veces. La mayor parte de los discos duros son fijos, es decir, están alojados en el ordenador de forma permanente. Existen también discos duros
  23. 23. 23 removibles, como los discos Jaz de Iomega, que se utilizan generalmente para hacer backup —copias de seguridad de los discos duros— o para transferir grandes cantidades de información de un ordenador a otro. El primer disco duro se instaló en un ordenador personal en 1979; era un Seagate con una capacidad de almacenamiento de 5 MB. Hoy día, la capacidad de almacenamiento de un disco duro puede superar los 50 MB. A la vez que aumentaba la capacidad de almacenamiento, los discos duros reducían su tamaño; así se pasó de las 12 pulgadas de diámetro de los primeros, a las 3,5 pulgadas de los discos duros de los ordenadores portátiles o las 2,5 pulgadas de los discos de los notebooks (ordenadores de mano). Modernamente, sólo se usan en el mundo del PC dos tipos de disco duro: el IDE y el SCSI (leído "escasi"). La diferencia entre estos Discos duros radica en la manera de conectarlos a la MainBoard. IDE: Los discos IDE son los más habituales; ofrecen un rendimiento razonablemente elevado a un precio económico y son más o menos fáciles de instalar. Sin embargo, se ven limitados a un número máximo de 4 dispositivos (y esto con las controladoras EIDE, las IDE originales sólo pueden manejar 2). Su conexión se realiza mediante un cable plano con conectores con 40 pines colocados en dos hileras (aparte del cable de alimentación, que es común para todos los tipos de disco duro). Así pues, para identificar correctamente un disco IDE basta con observar la presencia de este conector, aunque para estar seguros al 100% deberemos buscar unos microinterruptores ("jumpers") que, en número de 2 a 4, permiten
  24. 24. 24 elegir el orden de los dispositivos (es decir, si se comportan como "Maestro" o como "Esclavo"). SCSI: Esta tecnología es mucho menos utilizada, pero no por ser mala, sino por ser relativamente cara. Estos discos suelen ser más rápidos a la hora de transmitir datos, a la vez que usan menos al procesador para hacerlo, lo que se traduce en un aumento de prestaciones. Es típica y casi exclusiva de ordenadores caros, servidores de red y muchos Apple Macintosh. Los conectores SCSI son múltiples, como lo son las variantes de la norma: SCSI-1, SCSI-2, Wide SCSI, Ultra SCSI... Pueden ser planos de 50 contactos en 2 hileras, o de 68 contactos, o no planos con conector de 36 contactos, con mini-conector de 50 contactos... Una pista para identificarlos puede ser que, en una cadena de dispositivos SCSI (hasta 7 ó 15 dispositivos que van intercalados a lo largo de un cable o cables, como las bombillas de un árbol de Navidad), cada aparato tiene un número que lo identifica, que en general se puede seleccionar. Para ello habrá una hilera de jumpers, o bien una rueda giratoria, que es lo que deberemos buscar. Conclusión y fuente de información: Ahora que conocemos estos tipos de almacenamiento y periféricos podemos avanzar y seguir compitiendo con los demás temas de conocimiento necesario para la materia, una vez en ellos nos adentraremos más en los S.O. Fuente de información: http://es.wikipedia.org/wiki/Dispositivo_de_almacenamiento_de_dato s http://disperifericos.galeon.com/
  25. 25. 25 7.- Windows, Software Libre y MacOS Objetivo e introducción: El objetivo principal por el cual vemos este tema es para conocer a los inventores de estos S.O usados por todo el mundo y sus distribuciones principal es ya que han dado la vuelta y revolucio nado el uso de la computa dora. Windows es creado por Bill Gates en 1980 así como Mac OS en 1990 y finalmente dando lugar al Software Libre sobresaliendo de estos dos debido a su libertad de uso y sus condiciones. Windows: Microsoft Windows (conocido generalmente como Windows o MS Windows), es el nombre de una familia de distribuciones para PC, smartphone,servidores y sistemas empotrados, desarrollados y vendidos por Microsoft, y disponibles para múltiples arquitecturas, tales como x86 y ARM. Desde un punto de vista técnico, estas no son sistemas operativos, sino que contienen
  26. 26. 26 uno (tradicionalmente MS-DOS, o el más actual cuyo núcleo es Windows NT) junto con una amplia variedad de software; no obstante, es usual (aunque no necesariamente correcto) denominar al conjunto como sistema operativo en lugar de distribución. Microsoft introdujo un entorno operativo denominadoWindows el 20 de noviembre de 1985 como un complemento para MS-DOS en respuesta al creciente interés en las interfaces gráficas de usuario (GUI). Microsoft Windows llegó a dominar el mercado mundial de computadoras personales, con más del 90% de la cuota de mercado, superando a Mac OS, que había sido introducido en 1984. Las versiones más recientes de Windows son Windows 8.1 y Windows 8 paraequipos de escritorio, Windows Server 2012 para servidores y Windows Phone 8 y 8.1 para dispositivos móviles. La primera versión en español fueWindows 3.0. La primera versión se lanzó en 1985 y comenzó a utilizarse de forma generalizada gracias a su interfaz gráfica de usuario (GUI, Graphical User Interface) basada en ventanas. Hasta ese momento (y hasta mucho después como corazón de Windows), el sistema operativo más extendido era MS-DOS (Microsoft Disk Operating System), que por aquel entonces contaba con una interfaz basada en línea de comandos. El 30 de septiembre de 2014, Microsoft presentó Windows 10, la nueva versión del sistema operativo que llegara de forma oficial a finales del 2015, siendo la primera versión que se integrara a todos los dispositivos Windows, eliminando de esta forma todas las variantes del mismo. Siendo un único sistema operativo para equipos de escritorio, portátiles, smartphones y tablets se espera ofrecer una mejor experiencia y eliminando algunos problemas que se presentaron con Windows 8/ 8.1. Se indicó que durante la conferencia BUILD 2015 se darán a conocer más detalles.
  27. 27. 27 Software Libre: Software libre (en inglés free software, aunque esta denominación a veces se confunde con «gratis» por la ambigüedad del término free en el idioma inglés, por lo que también se usa libre software) es la denominación del software que respeta la libertad de todos los usuarios que adquirieron el producto y, por tanto, una vez obtenido el mismo, puede ser usado, copiado, estudiado, modificado, y redistribuido libremente de varias formas.2 Según la Free Software Foundation, el software libre se refiere a la seguridad de los usuarios para ejecutar, copiar, distribuir y estudiar el software, e incluso modificarlo y distribuirlo modificado. Un programa informático es software libre si otorga a los usuarios todas estas libertades de manera adecuada. De lo contrario no es libre. Existen diversos esquemas de distribución que no son libres, y si bien podemos distinguirlos en base a cuánto les falta para llegar a ser libres, su uso bien puede ser considerado contrario a la ética en todos los casos por igual. El software libre suele estar disponible gratuitamente, o al precio de costo de la distribución a través de otros medios; sin embargo no es obligatorio que sea así, por lo tanto no hay que asociar «software libre» a «software gratuito» (denominado usualmente freeware), ya que, conservando su carácter de libre, puede ser distribuido comercialmente (s oftware comercial). Análogamente, el software gratis o gratuito incluye en ocasiones el código
  28. 28. 28 fuente; no obstante, este tipo de software no es «libre» en el mismo sentido que el software libre, a menos que se garanticen los derechos de modificación y redistribución de dichas versiones modificadas del programa. Tampoco debe confundirse software libre con software de dominio público. Éste último es aquel software que no requiere de licencia, pues sus derechos de explotación son para toda la humanidad, porque pertenece a todos por igual. Cualquiera puede hacer uso de él, consignando su autoría original. Este software sería aquel cuyo autor lo dona a la humanidad o cuyosderechos de autor han expirado. Si un autor condiciona su uso bajo una licencia, por muy débil que sea, ya no es del dominio público. MacOS Mac OS (del inglés Macintosh Operating System, en español Sistema Operativo de Macintosh) es el nombre del sistema operativo creado por Apple para su línea de computadoras Macintosh, también aplicado retroactivamente a las versiones anteriores a System 7.6, y que apareció por primera vez en System 7.5.1. Es conocido por haber sido uno de los primeros sistemas dirigidos al gran público en contar con una interfaz gráfica compuesta por la interacción del mouse con ventanas, iconos y menús.
  29. 29. 29 Deliberada a la existencia del sistema operativo en los primeros años de su línea Macintosh en favor de que la máquina resultara más agradable al usuario, diferenciándolo de otros sistemas contemporáneos, como MS-DOS, que eran un desafío técnico. El equipo de desarrollo del Mac OS original incluía a Bill Atkinson, Jef Raskin y Andy Hertzfeld. Esta fue la base del Mac OS clásico, desarrollado íntegramente por Apple, cuya primera versión vio la luz en 1985. Su desarrollo se extendería hasta la versión 9 del sistema, lanzada en 1999. A partir de la versión 10 (Mac OS X), el sistema cambio su arquitectura totalmente y pasó a basarse en Unix, sin embargo su interfaz gráfica mantiene muchos elementos de las versiones anteriores. Hay una gran variedad de versiones sobre cómo fue desarrollado el Mac OS original y dónde se originaron las ideas subyacentes. Pese a esto, documentos históricos prueban la existencia de una relación, en sus inicios, entre el proyectoMacintosh y el proyecto Alto de Xerox PARC. Las contribuciones iniciales del Sketchpad de Ivan Sutherland y el On-Line System de Doug Engelbart también fueron significativas.
  30. 30. 30 Teniendo en cuenta estos dos famosos S.O y el Software Libre de por medio ahora podemos avanzar al siguiente tema que profundizará en ellos y aumentaremos los conocimientos. Fuente de Información: http://es.wikipedia.org/wiki/Microsoft_Windows http://es.wikipedia.org/wiki/Software_libre http://es.wikipedia.org/wiki/Macintosh 8.- Software libre, Open Source e historia de Linux Introducción y objetivos: El objetivo de conocer el Software libre es por el mismo que hemos estado viendo versiones anteriores y al igual que Linux es importante conocer la historia. El software libre nace años después de Windows y está destinado para que todos lo usen, modifiquen y vendan si es que gustan
  31. 31. 31 Software Libre: Software libre (en inglés free software, aunque esta denominación a veces se confunde con «gratis» por la ambigüedad del término free en el idioma inglés, por lo que también se usa libre software) es la denominación del software que respeta la libertad de todos los usuarios que adquirieron el producto y, por tanto, una vez obtenido el mismo, puede ser usado, copiado, estudiado, modificado, y redistribuido libremente de varias formas. Según la Free Software Foundation, el software libre se refiere a la seguridad de los usuarios para ejecutar, copiar, distribuir y estudiar el software, e incluso modificarlo y distribuirlo modificado. Se utilizó por primera vez en 1990 las comunidades de software libre, tratando de usarlo como reemplazo al ambiguo nombre original en inglés del software libre (free software). «Free» en inglés significa dos cosas distintas dependiendo del contexto: gratuidad y libertad. Lo cual implica, para el caso que nos ocupa, "software que podemos usar, escribir, modificar y redistribuir gratuitamente" (software gratuito) y, además, software libre, según la acepción española de libertad.
  32. 32. 32 Historia de Linux: En 1983 Richard Stallman inició el ambicioso Proyecto GNU, con el propósito de crear unsistema operativo similar y compatible con UNIX y los estándares POSIX. Dos años más tarde,1985, creó la Fundación del Software Libre (FSF) y desarrolló la Licencia pública general de GNU (GNU GPL), para tener un marco legal que permitiera difundir libremente el software. De este modo el software de GNU fue desarrollado muy rápidamente, y por muchas personas. A corto plazo, se desarrolló una multiplicidad de programas, de modo que a principios de los años 1990 había casi bastante software disponible como para crear un sistema operativo completo. Sin embargo, todavía le faltaba un núcleo.
  33. 33. 33 9.- 10 Distribuciones Linux importantes. Objetivo e introducción: El conocer acerca de éstas distribuciones y la importancia que han tenido dentro del mundo de la computación es profundizar en los temas anteriores como hemos visto con historia de Linux y de sus diferentes compañías. Linux y la fundación de Software Libre nos ha dado paso al siguiente tema en la tecnología que son sus distribuciones libres para así tener más variedad a la hora de elegirlos. Arch Linux: Arch Linux una distribución basada en el principio KISS, con un sistema de desarrollo continuo entre cada versión (no es necesario volver a instalar todo el sistema para actualizarlo). Arch Linux una distribución basada en el principio KISS, con un sistema de desarrollo continuo entre cada versión (no es necesario volver a instalar todo el sistema para actualizarlo). Arch Linux, como la mayoría de las distribuciones, está basada principalmente en paquetes binarios. Estos paquetes son gestionados con Pacman, el cual maneja la instalación, actualización, y desinstalación de los paquetes. Los paquetes binarios de Arch Linux soportan las
  34. 34. 34 arquitecturas i686 y x86-64, buscando el mayor rendimiento en el hardware más moderno. El formato de los paquetes binarios es pkg.tar.xz, los cuales son ficheros empaquetados con tar, usando el prefijo .pkg (el cual le da la distinción a los paquetes de Arch) y comprimidos con xz, por su simplicidad y velocidad de instalación. como de carga al servidor, la cual es menor, precisamente, por el menor tamaño de los paquetes. Core: Contiene todos los paquetes necesarios para configurar un sistema base (núcleo + herramientas mínimas). Extra: Contiene paquetes no requeridos por un sistema base, incluyendo entornos de escritorio y programas. Testing: Un respositorio especial donde se albergan paquetes elegibles para ser transferidos a core o extra. Community: Contiene los paquetes del AUR (repositorio de usuarios) que han sido más votados por la comunidad de usuarios y adoptados por un Trusted User, usuario que se considera digno de confianza. Community Testing: Contiene paquetes de AUR en estado de prueba para ser luego transferidos a Community. El repositorio Unstable ya no existe desde julio de 2008, sus paquetes fueron repartidos entre los distintos repositorios actuales.14 Además también existen repositorios privados para Arch Linux como ARM, el cual tiene paquetes que se eliminaron del repositorio y versiones antiguas de paquetes existentes, aunque, debido a la existencia de AUR, son menos usados que los repositorios privados en otras distribuciones.
  35. 35. 35 Canaima: Canaima, es un proyecto socio-tecnológico abierto, construido de forma colaborativa, desarrollado en Venezuela y basado en Debian. Como otras distribuciones, Canaima GNU/Linux posee aplicaciones diversas para llevar a cabo tareas de ofimática, entretenimiento, desarrollo y configuración de todo el sistema. Su interfaz predeterminada es GNOME. Existen otras versiones extraoficiales mantenidas por la comunidad, con diferentes escritorios, como XFCE Ofimática:. suite de oficina LibreOffice, con los siguiente módulos:. Procesador de textos. Hoja de cálculo. Generador de Presentaciones. Generador de fórmulas matemáticas y software de dibujo. Gestión de proyectos: Planner. Editor de HTML. Siguiendo la tendencia impuesta por otras organizaciones que realizan distribuciones GNU/Linux, desde la versión 3, LibreOffice sustituyó a OpenOffice.org y a partir de la versión 3.1 deja de ser incorporado el gestor de base de datos de esta suite de oficina. Escritorio de Canaima personalizado GNU/Linux 3.0 Internet: Navegador web: Cunaguaro, basado en Iceweasel, presente desde la versión 3.0 de Canaima y que sustituye al navegador Curiara.. Cliente de correo electrónico: Guácharo.8 . Cliente de mensajería instantánea: Pidgin. Cliente Twitter: Turpial Gráficos:. Libreoffice Draw.. GNU Paint.. Editor de diagramas Dia.. Gimp. Inkscape. Visor de cámara Web Cheese. Shotwell Photo Manager.. Software de escaneo de imágenes Xsane.
  36. 36. 36 Programación:: Quanta Plus.. Eclipse.. Anjuta: Entorno de desarrollo integrado para programar en los lenguajes de programación C, C++, Java, Python yVala, en sistemas GNU/Linux y BSDen los lenguajes C, C++, Java y Python, en sistemas GNU/Linux. CentOS: CentOS, una distribución creada a partir del mismo código del sistema Red Hat pero mantenida por una comunidad de desarrolladores voluntarios. Requisitos de Sistema Hardware recomendado para operar: Sin entorno de escritorio: Memoria RAM: 64 MB (mínimo). Espacio en Disco Duro: 1024 MB (mínimo) - 2 GB (recomendado). Con entorno de escritorio: Memoria RAM: 2 GB (mínimo). Espacio en Disco Duro: 20 GB (mínimo) - 40 GB (recomendado). Arquitecturas: CentOS soporta casi las mismas arquitecturas que Red Hat Enterprise Linux:. Intel x86-compatible (32 bit). Intel x86-64 (64 bit) Chakra Project: Chakra project, una popular distribución para escritorio, inicialmente basada en Arch Linux, actualmente se encuentra en un desarrollo independiente.
  37. 37. 37 Chakra Project GNU/Linux incluye tanto software libre como privativo en sus repositorios, y es capaz de instalar controladores privativos para las tarjetas de vídeo soportadas sin configuración adicional. Esta distribución es publicada bajo un modelo semi-continuo (half-rolling release), donde, sobre una base estable de paquetes que es probada y no actualizada frecuentemente, se envían al usuario actualizaciones constantes de los programas y juegos. Este sistema permite que Chakra Project sea a la vez estable, y tenga las últimas versiones de la mayoría de los programas, que generalmente están disponibles inmediatamente después de ser publicados, si es que no hay algún problema grave. Luego de Chakra Claire el equipo de desarrolladores opto por solo centrarse en la arquitecturax86_64, desechando los i686, primera distro en tomar esa decisión basado en el hecho que la gran mayoría de computadora actuales la soporta. Dragora: Dragora y Trisquel, que van adquiriendo importancia entre las distribuciones que sólo contienen software libre. El sistema de paquetes es similar al de Slackware. Fue escrito desde cero, utilizando las nuevas características de Bash. Como resultado se obtuvo: programas más cortos, sencillos, que consumen menos recursos y al mismo tiempo se vuelve poderoso. El formato de paquete es ".tlz", que no es otra cosa que un archivo tar comprimido con Lzip. Cada paquete en su interior puede contener: el código binario del programa, un archivo de script se utiliza para realizar la compilación del programa (en caso de ser necesario), y un archivo de texto
  38. 38. 38 plano llamado description que provee una descripción en los idiomas inglés y español acerca del paquete. Actualmente está pendiente la documentación del sistema de paquetes, entre varias cosas. Para la administración de su sistema de paquetes se utilizan diversos programas. Para la versión 2.1 el sistema de paquetes fue mejorado, para modularizarlo. Elementary OS: Elementary OS Es una distribución Linux basada en Ubuntu 12.04 Las aplicaciones incluidas por defecto en elementary OS Luna son las siguientes: Phanteon Greeter: Gestor de sesiones basado en LightDM. WingPanel: El panel superior, parecido al de Unity y GNOME Shell. Slingshot: El menú de aplicaciones en el panel WingPanel. Plank: Dock basado en Docky. Switchboard: Panel de control centralizado. Midori: Navegador web basado en WebKit. Geary: Cliente de correo electrónico. Empathy:Cliente de mensajería instantánea y VoIP. Maya: Calendario de escritorio. Noise: Reproductor de música.
  39. 39. 39 Scratch: Editor simple de textos. Pantheon Terminal: Emulador de terminal. Pantheon Files: Gestor de archivos. Fedora: Fedora, una distribución lanzada por Red Hat para la comunidad. PackageKit, administrador de paquetes por defecto en Fedora. El Proyecto Fedora se distribuye en muchas formas diferentes: Fedora DVD - un DVD con todos los paquetes disponibles; Medios Vivos (Live CD) - imágenes de CD o DVD que también pueden ser instalados en unidades USB; Imagen de CD o USB - usado para ser instalado sobre HTTP FTP o NFSImagen de rescate en CD o USB - usado si alguna parte del sistema ha fallado y requiere ser reparado. También permite instalaciones desde Internet. También se distribuyen variantes personalizadas de Fedora, las cuales son llamadas Fedora spins. Éstas son construidas de un set de paquetes de software específico y tienen una combinación de software para satisfacer las necesidades de un usuario final determinado. Los Fedora spins son desarrollados por diferentes grupos especiales de Fedora.Para descargas e información consultar el sitio web Fedora Spins. Yum es el administrador de paquetes del sistema. Las interfaces gráficas, como el pirut y el pup, son provistos de la misma forma que el puplet, los cuales ofrecen notificaciones visuales en el panel cuando las actualizaciones están disponibles.apt-rpm es una alternativa a yum, y puede ser más familiar para personas que hayan usado anteriormente distribuciones como Ubuntu o Debian, donde apt-get es el administrador de paquetes predeterminado.Adicionalmente,
  40. 40. 40 repositorios extra pueden ser agregados al sistema y de esta forma paquetes que no están disponibles en Fedora pueden ser instalados. Fuduntu: Fuduntu, distribución ligera y rápida basada en Fedora y orientada al uso en notebooks. Fuduntu es una distribución Rolling release, por lo que no es necesario reinstalar la distribución completa o actualizarla en su totalidad, ya que sus versiones son solo de actualizaciones de paquetes; esto quiere decir que usted puede instalar la primera versión de Fuduntu y actualizar el sistema normalmente, y en pocos minutos contar con las características de la última versión de todas las aplicaciones instaladas. Originalmente Fuduntu tenía como objetivo los netbook, por lo que contiene de serie muchas mejoras en la eficiencia de consumo e incorpora el applet de manejo de energía Jupiter, desarrollado también por Andrew Wyatt. Por defecto se incluyen las aplicaciones Nautilus Elementary,Adobe Flash, Fluendo MP3 Codec, VLC, Infinality Freetype,Google Docs, Gmail, Nano, el editor de texto, Dropbox,Banshee; y desde los repositorios se pueden agregar las últimas versiones de LibreOffice, Gimp y una larga lista de aplicaciones completas y en su versión estable. También se pueden habilitar los repositorios de testing para instalar las versiones inestables de las aplicaciones.
  41. 41. 41 Gentoo: Gentoo, una distribución orientada a usuarios avanzados, conocida por la similitud en su sistema de paquetes con el FreeBSD Ports, un sistema que automatiza la compilación de aplicaciones desde su código fuente. La piedra angular de Gentoo es Portage, un gestor de paquetesinspirado en los ports de FreeBSD, escrito en Python y Bash. Portage implementa algunas características avanzadas que no están presentes en los ports de FreeBSD: la gestión de dependencias, afinamiento preciso de los paquetes a gusto del administrador, instalaciones falsas al estilo OpenBSD, cajas de arena durante la compilación, desinstalación segura, perfiles de sistema, paquetes virtuales, gestión de los ficheros de configuración y ranuras múltiples para distintas versiones de un mismo paquete. Una característica de Gentoo es que las versiones de software se actualizan de forma continua, a diferencia de otrasdistribuciones donde los paquetes pasan meses en pruebas Esto permite tener un sistema con las últimas versiones de todo el software (ideal para tareas de escritorio), aunque los fallos en versiones nuevas aparezcan con mayor frecuencia. Como contrapartida, esta carencia de niveles de versiones según su estabilidad comprobada puede tener como resultado la presencia de fallos en el software que pueden suponer un riesgo para el correcto funcionamiento de la máquina. Otra desventaja de este sistema es que poner en marcha un sistema completo, o actualizar un sistema que ha estado desatendido durante una temporada, puede requerir una respetable cantidad de tiempo (horas o incluso días si el ordenador es muy antiguo), mientras se descargan y compilan todos los paquetes
  42. 42. 42 nuevos. Aun así, Gentoo permite por regla general una actualización sin problemas, a diferencia de otras distribuciones donde puede llegar a resultar complicada o casi imposible. Esta actualización también es posible a partir de binarios precompilados, lo que requiere menos tiempo. Conclusión y fuente de información: Ahora al saber sus distribuciones tenemos más en cuenta el camino que ha tomado y si decidimos ser grandes programadores hacer una distribución para ellos y generar ganancias e incluso poder trabajar a su lado. Fuente de información: http://es.wikipedia.org/wiki/Gentoo_Linux http://es.wikipedia.org/wiki/Fedora_(distribuci%C3%B3n_Linux) http://es.wikipedia.org/wiki/Elementary_OS http://es.wikipedia.org/wiki/Dragora http://es.wikipedia.org/wiki/Chakra_project http://es.wikipedia.org/wiki/CentOS http://es.wikipedia.org/wiki/Canaima_(distribuci%C3%B3n_Linux) http://es.wikipedia.org/wiki/Arch_Linux
  43. 43. 43 10.- Panel de Control de Windows, Objetivo e introducción: El conocer más acerca del Panel de control del S.O llamado Windows nos da paso a los siguientes temas basados en ellos y el como se pueden ir desarrollando para dar paso y profundizar los conocimientos anteriores como hemos visto con Linux. El Panel de Control de Windows es una herramienta sencilla que se ha añadido para poder tener un mejor control sobre la PC y saber su información básica en cada aspecto. Panel de control de Windows: El panel de control de la interfaz gráfica de Windows permite a los usuarios que vean y que manipulen ajustes y controles del sistema básico, tales como Agregar nuevo hardware, Agregar o quitar programas, Cuentas de usuario y opciones de accesibilidad entre otras opciones de sonidos y pantalla. Applets adicionales pueden ser proporcionados por el software de terceros. El panel de control ha sido una parte inherente del sistema operativo deMicr osoft Windo ws des de su lanzam iento (Windo ws 1.0), con mucho s de los
  44. 44. 44 applet actuales agregados en las últimas versiones. El panel de control es un programa independiente, no una carpeta como aparece, que está alcanzado del menú del comienzo, y se almacena en el directorio system32 de la miniapplet Conexiones de Red, quien tiene como función; instalar, configurar y reparar una red doméstica o corporativa. También sirve para compartir archivos y carpetas. Barra de tareas : Tiene como fin, configurar y deshabilitar las opciones de la barra de tareas, como Mostrar Inicio Rápido, ocultar los íconos, cambiar los atributos (hay dos opciones que son el Clásico y el Moder Windows XP) o Vista. En Windows 7, se eliminó el menú inicio clásico. Centro de Seguridad: esta introducida en la versión de Windows XP Service Pack 2 para mantener la seguridad frente a virus, gusanos y troyanos. Firewall de Windows un cortafuegos que no permite que ningún programa salga de la red. Sin embargo, aunque el cortafuegos es muy seguro, un usuario inexperto puede aprovechar hasta el punto más débil del sistema. En Windows 7, fue renombrado como Centro de Actividades.
  45. 45. 45 Actualizaciones Automáticas Windows Update quien tiene como propósito mantener las aplicaciones al día. En la versión SP2, Actualizaciones automáticas viene activado cómo por defecto. Modo pantalla o muestre mensajes, fotos o diseños al azar. Pantalla: se puede cambiar la resolución de la pantalla y la cantidad de colores que muestra. Configuraciones adicionales: se puede configurar la barra de inicio. Opciones de las carpetas: permite configurar la forma de cómo se ven las carpetas. Impresores y otro hardware: En esta sección se pueden configurar varios dispositivos externos que se conectan a la computadora como son: controladores de video juegos, teclados, “mouse”, módem, impresoras, escáner, cámaras, etc. Conexiones de red e Internet: En esta sección se puede configurar todo lo relacionado a redes: Conexiones por cables. Conexiones inalámbricas. Opciones de Internet Explorer. Asistente de conexión a internet. Firewall de Windows. Crear nuevas conexiones Conclusión y fuente de información: Ahora sabemos más acerca del Panel de Control de Windows, sus cambios y evoluciones más notorias en estas versiones que ha tenido y su último avance. Fuente de información: http://es.wikipedia.org/wiki/Panel_de_control_%28Windows%29
  46. 46. 46 11.- Sistema de Archivos Objetivo e introducción: El objetivo principal de este tema es conocer el sistema de archivos con el que contamos ya sea si somos usuarios de Windows, Mac OS o de un software libre de cualquier distribución porque cambian y no en todos son igual. Los sistemas de archivos son implementados en los 90’s después de que se eliminara el CMD y pasara a ser una interfaz de control en donde pueden verse archivos como “.exe” o “.jpg”
  47. 47. 47 Sistema de Archivos: El sistema de archivos o ficheros (en inglés: filesystem) es el componente del sistema operativo encargado de administrar y facilitar el uso de las memorias periféricas, ya sean secundarias o terciarias. Sus principales funciones son la asignación de espacio a los archivos, la administración del espacio libre y del acceso a los datos resguardados. Estructuran la información guardada en una unidad de almacenamiento (normalmente un disco duro de una computadora), que luego será representada ya sea textual o gráficamente utilizando un gestor de archivos. La mayoría de los sistemas operativos manejan su propio sistema de archivos. Lo habitual es utilizar dispositivos de almacenamiento de datos que permiten el acceso a los datos como una cadena de bloques de un mismo tamaño, a veces llamados sectores, usualmente de 512 bytes de longitud (También denominados clústers). El software del sistema de archivos es responsable de la organización de estos sectores en archivos y directorios y mantiene un registro de qué sectores pertenecen a qué archivos y cuáles no han sido utilizados. En la práctica, un sistema de archivos también puede ser utilizado para acceder a datos generados dinámicamente, como los recibidos a través de una conexión de red (sin la intervención de un
  48. 48. 48 dispositivo de almacenamiento). Los sistemas de archivos tradicionales proveen métodos para crear, mover, renombrar y eliminar tanto archivos como directorios, pero carecen de métodos para crear, por ejemplo, enlaces adicionales a un directorio o archivo (enlace duro en Unix) o renombrar enlaces padres (".." en Unix). El acceso seguro a sistemas de archivos básicos puede estar basado en los esquemas de lista de control de acceso o capacidades. Las listas de control de acceso hace décadas que demostraron ser inseguras, por lo que los sistemas operativos experimentales utilizan el acceso por capacidades. Los sistemas operativos comerciales aún funcionan con listas de control de acceso. Ejemplo en Unix En un sistema tipo Unix como GNU/Linux, la ruta para la canción llamada "La canción.ogg" del usuario "Alvaro" sería algo como: /home/Alvaro/Mi música/La canción.ogg donde: '/' representa el directorio raíz donde está montado todo el sistema de archivos. 'home/Alvaro/Mi música/' es la ruta del archivo. 'La canción.ogg' es el nombre del archivo que se establece como único. Ejemplo en Windows: En un sistema de archivos de Windows (específicamente en Windows 8) se vería como: C:UsersAlvaroMusiccanción.mp3 donde:
  49. 49. 49 'C:' es la unidad de almacenamiento en la que se encuentra el archivo. 'UsersAlvaroMusic' es la ruta del archivo. 'canción' es el nombre del archivo. '.mp3' es la extensión del archivo, este elemento, parte del nombre, es especialmente relevante en los sistemasMicrosoft Windows, ya que sirve para identificar qué tipo de archivo es y la aplicación que está asociada con el archivo en cuestión, es decir, con qué programa se puede editar o reproducir el archivo. Conclusión y fuente de información: Al saber más sobre los tipos de sistemas nos hace diferenciar lo que son con tipos Unix y Windows para que no haya confusión alguna y tengamos así más conocimiento sobre el tema. Fuente de información: http://es.wikipedia.org/wiki/Sistema_de_archivos
  50. 50. 50 12.- Mantenimiento Preventivo y Correctivo. Introducción y objetivo: El saber acerca del mantenimiento preventivo tanto como correctivo nos hace profundizar el tema de cuidado de un PC ya que si algo falla o si a final de cuentas de ha descompuesto podemos repararlo sin problema, peor si no podemos evitar que esto suceda. Ambos tipos de mantenimiento son indispensables para cada PC ya que con ello se evitan problemas y aumentan la vida útil de una PC. Mantenimiento Preventivo En las operaciones de mantenimiento, el mantenimiento preventivo es el destinado a la conservación de equipos o instalaciones mediante realización de revisión y reparación que garanticen su buen funcionamiento y fiabilidad. El mantenimiento preventivo se realiza en equipos en condiciones de funcionamiento, por oposición al mantenimiento correctivo que repara o pone en condiciones de funcionamiento aquellos que dejaron de funcionar o están dañados. El primer objetivo del mantenimiento es evitar o mitigar las consecuencias de los fallos del equipo, logrando prevenir las incidencias antes de que estas ocurran. Las tareas de mantenimiento preventivo incluyen acciones como cambio de piezas desgastadas, cambios de aceites y lubricantes, etc. El mantenimiento preventivo debe evitar los fallos en el equipo antes de que estos ocurran. Algunos de los métodos más habituales para determinar que procesos de mantenimiento preventivo deben llevarse a cabo son las recomendaciones de los fabricantes, la legislación vigente, las recomendaciones de expertos y las acciones llevadas a cabo sobre activos similares.
  51. 51. 51 Se denomina mantenimiento correctivo, aquel que corrige los defectos observados en los equipamientos o instalaciones, es la forma más básica de mantenimiento y consiste en localizar averías o defectos y corregirlos o repararlos. Históricamente es el primer concepto de mantenimiento y el único hasta la Primera Guerra Mundial, dada la simplicidad de las máquinas, equipamientos e instalaciones de la época. El mantenimiento era sinónimo de reparar aquello que estaba averiado. Este mantenimiento que se realiza luego que ocurra una falla o avería en el equipo que por su naturaleza no pueden planificarse en el tiempo, presenta costos por reparación y repuestos no presupuestadas, pues implica el cambio de algunas piezas del equipo. Después de la Primera Guerra Mundial se planteó que el mantenimiento no solo tenía que corregir las averías, sino que tenía que adelantarse a ellas garantizando el correcto funcionamiento de las máquinas, evitando el retraso producido por las averías y sus consecuencias, dando lugar a lo que se denominó mantenimiento correctivo que es el que se hace en el equipo en funcionamiento, en evicción de posteriores averías, garantizando un periodo de uso fiable. Conclusión y fuente de información: Ahora al saber acerca de estos tipos de mantenimiento podemos ser capaces de arreglar una avería o prevenir alguna en caso de que no haga falta el mantenimiento correctivo. Fuente de información: http://es.wikipedia.org/wiki/Mantenimiento_preventivo http://es.wikipedia.org/wiki/Mantenimiento_correctivo
  52. 52. 52 13.- Como mejorar el rendimiento de la PC. Introducción y objetivo: El saber el mejorar el rendimiento de una PC nos ayuda a rendir al máximo con nuestra PC ya que con ella podemos ser capaces de adelantarnos con algún proceso o incluso tener más de uno al mismo tiempo. El rendimiento se aumenta de varias maneras pero la más efectiva siempre es teniendo un buen cuidado de nuestra PC, así podemos asegurarnos que servirá a su máxima potencia. Como mejorar el rendimiento de la PC Los métodos verdaderamente efectivos para mejorar el funcionamiento y hacer el sistema operativo más rápido y eficiente. Factores que en la práctica han demostrado que son determinantes para optimizar Windows y que hacen el sistema un 50% más ligero. Otras medidas que se pueden emplear. Otras frecuentemente usadas pero que no traen ninguna mejoría. Todos los sistemas operativos Windows utilizan una configuración estándar, de manera que sean funcionales en cualquier equipo, sin importar que algunos tengan más recursos de hardware que otros. Por supuesto cada versión ha ido elevando los requerimientos técnicos, pero en cada caso es posible con sencillos tips o ajustes elevar significativamente el rendimiento del sistema. A continuación se relacionan 10 medidas que cualquier persona sin
  53. 53. 53 conocimientos de informática puede aplicar en su PC y sin la necesidad de instalar ningún programa externo. Windows posee todos los recursos y herramientas necesarias para optimizar y acelerar el sistema. Mantener el sistema operativo limpio y ordenado: Debes darle el mantenimiento necesario al disco duro del equipo regularmente, para eso es necesario Liberar espacio en disco y desfragmentar, principalmente el disco o unidad del sistema. El sistema operativo aunque no esté realizando ninguna tarea en el equipo está constantemente leyendo y escribiendo información en los discos lo cual trae consigo la fragmentación de los datos que no es más que la división en múltiples fragmentos de los archivos al escribirlos. Conclusión y fuente de información: Con lo anterior ya aprendido nos hemos podido dar el tiempo necesario para dar un mantenimiento a nuestra PC y si es así rendirá al máximo y será la más rápida para nosotros. Fuente de información: http://norfipc.com/articulos/acelerar-windows.html
  54. 54. 54 14.- Tipos de escritorios Linux Introducción y objetivo: El conocimiento de los distintos tipos de escritorio en Linux es poder diferenciar el que ofrece mejores características y así poder elegir el que nosotros creemos conveniente, así como sus mejores modelos y lo que cada uno ofrece. Los tipos de escritorio están basados en Unix y así como tal están representados en sus diferentes distribuciones. KDE Partiendo del punto de que lo de “mejor” depende del gusto y la necesidad de cada quién, no es secreto para nadie que con sus altas y sus bajas, KDE siempre ha mantenido un lugar privilegiado entre los usuarios de GNU/Linux. Con la salida de KDE 4 las cosas se pusieron feas, y con la inminente desaparición de KDE 3.5, yo al igual que muchos salí corriendo hacia Gnome. Y confieso que siempre sentí cierto vacío.
  55. 55. 55 Gnome: Gnome fue sin dudas por mucho tiempo el rey de los Entornos de Escritorios desde mi punto de vista. Con la salida de KDE4, el auge de Ubuntu, y la sencillez que siempre lo caracterizó, poco a poco se fue convirtiendo en el preferido de muchísimos usuarios alrededor del planeta con la salida de Gnome2, donde todo era fácil, y acceder a las aplicaciones como a las opciones del Escritorio se conseguía con unos pocos clics. XFCE:
  56. 56. 56 Xfce ha venido a cubrir el vacío que ha dejado en muchos Gnome2. Un escritorio que ya tiene unos cuantos años y que ha ido evolucionando poco a poco, cuya lentitud en su desarrollo se debe a los pocos programadores con los que cuenta. Algo casi paradójico si tenemos en cuenta que Xfce se ha vuelto popular en los últimos años. LXDE:
  57. 57. 57 LXDE es el más pequeño de los Entornos de Escritorio desarrollados sobre Gtk, es el más rápido y por lo tanto, el que más carece de aplicaciones propias, por lo que al igual que Xfce, tiene que hacer uso de muchas herramientas provenientes de Gnome para completar su abanico de posibilidades. Conclusión y fuente de información: Ahora que tenemos en cuenta los distintos tipos de escritorios en Linux somos capaces de poder elegir con mayor precisión lo que nosotros deseamos para cada gusto, el que es mejor y el que más conviene según nuestro criterio. Fuente de información: http://www.omicrono.com/2011/07/todo-sobre-entornos-de- escritorio-en-linux-gnome-kde-unity-xfce-y-lxde/
  58. 58. 58 15.- Distribuciones Linux Mexicanas. Objetivo e introducción: El objetivo de saber acerca de las distribuciones Linux mexicanas es para saber como ha evolucionado México en cuanto a la tecnología nos referimos y así poder estar enterados de lo último en Software Libre. Las distribuciones mexicanas no tienen mucho tiempo de haber salido a la vista de los demás y aunque no son muy conocidas son un gran avance para México en Software Libre. Orvitux: Orvitux es una distribución linux mexicana de tipo “rolling release”, basada en Unity Linux. Está diseñada tanto para uso personal como comercial. Incluye algunas características modernas como un livecd, detección automática de hardware, soporte wifi, fuentes TrueType, etc. Proyecto JN Este proyecto nació durante la Opción Técnica mantenimiento a sistemas de microcómputo en el CCH Naucalpan.Nos juntamos un par
  59. 59. 59 de amigos y el Prof. Raul González Alzaga (Profesor de mantenimiento a sistemas de microcomputo CCHN) y decidimos elaborar una distribución para el plantel. Y así nació este proyecto! Después se integró al equipo Sergio, Alberto y Alfredo. A partir de la versión 2 se decidió elaborar una distribución no solo para el CCH ,sino para los países de habla hispana. El diseño de ésta nueva página lo desarrolló Luis Cejudo. También se desarrollo el empaquetado JNP,que ayuda a mantener actualizada la distribución. Hay que destacar que no está basada en ninguna otra distribución Gnu/Linux. A lo largo de estos años de desarrollo hemos impartido conferencias en varias partes de México y de América Latina, con la ayuda de diferentes dependencias nacionales y extranjeras; así como GUL'S. También el proyecto ha recibido varios reconocimientos por parte de instituciones nacionales y extranjeras. Conclusión y fuente de información: Ahora tenemos en cuenta nuestras distribuciones en México y el como han avanzado así como las que están listas para ver la luz en un futuro cercano. México avanza aunque no como deseamos que lo haga. Fuente de información: http://jarronegro.com.mx/http://blog.desdelinux.net/las-mejores- distribuciones-linux-mexicanas/
  60. 60. 60 16.- 10 Personajes históricos de la computación. Objetivo e introducción: El último tema pero no el menos importante es saber los personajes que han hecho posible el mundo que conocemos ahora en la informática, con ellos fueron capaces los demás trabajadores de crear los S.O que tanto nos agradan. Entre ellos encontraremos personajes que no nos imaginamos que pudieran estar ahí debido a su antigüedad pero demos un vistazo a lo siguiente. En este tema encontramos personajes como Bill Gates, Steve Jobs incluso a una duquesa pero no sin antes reanudar lo anterior que no por se rlo último es lo menos importante. Conclusión y objetivo: El conocer a estos personajes históricos nos hace notar que no hace falta ser un gran título para lograr algo grande y marcar la historia de un país o nación… o quizá sí. Fuente de información: http://aportacionesimportantesalacomputacion.blogspot.mx/2011/09 /biografias-de-personajes-importantes-de.html http://desarrolloaplicaciones.juanxxiii.net/?p=88
  61. 61. 61 Un breve resumen: Bueno este trabajo ha sido realizado para la recuperación de ASO, sin embargo, he aprendido un poco más de aquí y reforcé lo que vi en clase gracias a mi profesor que sin duda aunque yo creía que esto era una carga extrema de trabajo sé que lo hace por nuestro bien y nuestra educación y aunque pienso que tal vez no seguiré adelante por esta cuestión le quiero dar mi más sincero agradecimiento. En cuanto a Arduino y los videos tutoriales espero no haya problema, ya que al no poseer el que mi equipo tiene me vi en la necesidad de recurrir a páginas de terceros para poder así obtener mi trabajo. Gracias.
  62. 62. 62
  63. 63. 63

×