1.
Cecytem plantel Tecámac
ADMINISTRA SISTEMAS
OPERATIVOS
Ing. rene Domínguez escalona
RECOPILACIÓN DE
DOCUMENTACIÓN ASO
técnico en programación
sheyla Alarcón sosa
grupo 502
2.
Índice
1._ANTCEDENTES DE LAS COMPUTADORAS Y SISTEMAS OPERATIVOS ……………………...
2._TIPOS DE SISTEMAS OPERATIVOS Y FUNCIONAMIENTO DEL SISTEMA OPERÁTICO
……………………
3._ESTRUCTURA DE UN SISTEMA OPERATIVO ……………………
4._BIOS,UEFI Y LEGACY ………………………………….
5._TARJETA MADRE RAM Y MICROPROCESADOR ………………..
6._UNIDADES DE ALMACENAMIENTO Y PERIFÉRICOS …………
7._WINDOWS,SOFTWARE COMERCIAL Y MAC OS ……………
8._SOFTWARE LIBRE OPEN SOURCE Y HISTORIA DE LINUX ……………………..
9._10 DISTRIBUCIONES DE MAS IMPORTANTES Y SUS CARACTERÍSTICAS …………………..
10._PANEL DE CONTROL DE WINDOWS…………………….
11._SISTEMA DE ARCHIVOS ………………………
12._MANTENIMINTO CORRECTIVO Y PREVENTIVO …………………………………………
13._COMO MEJORAR EL RENDIMIENTO DE LA PC ………………………..
14._TIPO DE ESCRITORIO LINUX …………………………
15._DISTRIBUCIONES DE LINUX MEXICANAS ……………………………………………
16._ 10 PERSONAJES HISTÓRICOS DE LA COMPUTACIÓN
…………………………………………………………..
3.
OBJETIVO
El objetivo de esta investigación es desarrollar
conocimientos al lector sobre los temas impartidos en el
semestre, crear una investigación que no sea tan
extensa y ayude a comprender mas fácil el tema además
de tener un método que le facilite la búsqueda de
dichos temas .
5.
Existía un gran desconocimiento de las capacidades
de las computadoras, puesto que estas máquinas
tenían las siguientes características:
Estaban construidas por medio de tubos de vacío.
Eran programadas en lenguaje de máquina.
En esta generación las máquinas son grandes y
costosas (de un costo aproximado de ciento de miles
de dólares).
Primera generación de las
computadoras
7.
En 1951 aparece la UNIVAC (Universal Computer), fue la primera computadora
comercial, que disponía de mil palabras de memoria central y podían leer cintas
magnéticas.
En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas
perforadas, retomadas por Herman Hollerith (1860 - 1929), quien además fundó
una compañía que con el paso del tiempo se conocería como IBM (International
Bussines Machines).
Después se desarrolló por IBM la IBM 701 de la cual se entregaron 18 unidades
entre 1953 y 1957
Posteriormente, la compañía Remington Rand fabricó el modelo 1103, que
competía con la 701 en el campo científico, por lo que la IBM desarrollo la 702, la
cual presentó problemas en memoria, debido a esto no duró en el mercado.
La computadora más exitosa de la primera generación fue la IBM 650, de la cual
se produjeron varios cientos. Esta computadora que usaba un esquema de
memoria secundaria llamado tambor magnético.
8.
Comprende aproximadamente de 1946 a 1958. Se trata de
máquinas que emplean tecnología de bulbos (también
llamados válvulas de vacío) para el proceso de los datos.
La información y programas se insertaban por medio de
tarjetas perforadas, el principal dispositivo de
almacenamiento masivo de información era una especie
de tambor magnético que giraba y permitía la lectura y
escritura de datos. Estos equipos de 1a generación tenían
que instalarse en grandes espacios y disponer de una
ventilación especial, debido a que los bulbos generan
mucho calor.
Primera generación
9.
Comprende aproximadamente de 1955 a 1965. Se
trata de computadoras que emplean tecnología de
transistores, los cuáles fueron desarrollados en los
laboratorios Bell® por John Bardeen, Walter Brattain
y Willian Shockley (lo cuál les hizo acreedores al
Premio Nobel de Física de 1974). Este dispositivo
construido a base de Silicio y/o Germanio tenía la
característica de ser 200 veces mas pequeño que el
bulbo, mas veloz, emitir bajos niveles de calor y de
bajo costo.
Segunda generación
10.
Con esta nueva tecnología fue posible la reducción
del tamaño de los equipos de cómputo, aunado al
uso de núcleos magnéticos (especie de red con orilla
magnética dónde se almacenaba la información), se
desarrollo de la programación de alto nivel (con
instrucciones basadas en el idioma humano a
diferencia del de bajo nivel que esta basado
totalmente en 0´s y 1´s) y la popularización del
Software comercial, siendo uno de los primeros el
procesador de palabras WordStar®, que aún existe
en versión comercia.
11.
Comprende aproximadamente de 1964 a 1974. Esta
generación de computadoras aparecen debido a la
concentración de elementos electrónicos miniatura
(entre ellos los transistores), dentro de una pequeña
placa plástica llamada circuito integrado, el cuál
tiene la capacidad de realizar funciones especificas
pero menor un espacio muy reducido y con un muy
bajo consumo de energía, aunque el proceso de
fabricación aumenta el costo, el rendimiento que
logra equilibra el precio que se paga.
Tercera generación
12.
En esta generación, el Software es controlado por
medio de sistema operativos y estos permiten una
mayor familiaridad del operador con la
computadora, como el caso del OS de IBM®, los
equipos se reducen de tamaño al punto de poderlos
llamar "minicomputadoras", además es posible el
almacenamiento el discos y cintas magnéticas.
13.
Comprende aproximadamente de 1974 a 1983 y se le
denomina la revolución informática. Esta generación esta
marcada por la aparición de microprocesadores, en
especial del Chip Intel® 4004 en 1971, construido
siguiendo el modelo de Von Neumann y capaz de realizar
dentro de si las operaciones matemáticas básicas a gran
velocidad, en un espacio totalmente reducido a diferencia
de todo lo anterior construido, esto es, se logro que varios
circuitos integrados diminutos especializados estuvieran
dentro de solo Chip. En esta generación se utilizan el
ratón, disquetes de 5.25"/3.5", discos duros, ranuras de
expansión XT, sistemas operativos gráficos, también nace
la empresa Apple®, Motorola®, AMD®, Micro Soft (la
empresa antecesora de la actual Microsoft®), entre otras.
CUARTA
GENERACIÓN
14. Comprende del año 1980/1983 hasta este momento. Son tres enfoques los que marcarán esta generación: el basado
en inteligencia artificial, el tecnológico y el social, siendo los dos primeros muy relacionados entre sí.
a) Inteligencia artificial: a partir 1980, cuándo en Japón se comenzó a modelar hipotéticamente el desarrollo de la
"computadora inteligente", la cuál haría un uso extensivo de la IA (inteligencia artificial), aplicando los procesos del
razonamiento humano para la resolución de problemas en una máquina, lo que generaría comunicación similar a la
humano-humano pero en modo humano-máquina. Para lo anterior la computadora necesitaría cierta cantidad de
cultura basada en conocimientos acumulados similares a los de un humano, lo cuál ya se encuentra de manera
teórica disponible en Internet y si la computadora puede utilizarla de manera similar a nosotros, la IA esto puede
ser realidad en un futuro no muy lejano.
b) Tecnológico: el desarrollo de materiales como polímeros conductores, materiales nano compuestos,
magnetopolímeros, micro y nanotubos, materiales para refrigeración magnética, tecnología NAND, materiales
superconductores, etc., a partir de lo anterior se podrían crear nuevos dispositivos capaces de superar las barreras
actuales en cuánto a almacenamiento y proceso de la información, permitiendo el flujo de cantidades ilimitadas de
datos a muy altas velocidades, y el desarrollo a gran escala de la denominada computación cuántica (basada en el
uso de qubits en lugar de bits, los cuáles pueden tomar valores simultáneos en lugar de solo un cero ó un uno).
c) Social: otro enfoque de la quinta generación es el social, debido a que la cercanía y las barreras geográficas ha
sido superada por las redes, no solo por Internet (redes sociales, Blogs, videojuegos en línea, Chat, etc.), sino las
telecomunicaciones (videoconferencia vía teléfono celular, mensajes SMS, correo electrónico, etc.).
QUINTA
GENERACIÓN
15.
Inteligencia artificial:
La inteligencia artificial es el campo de estudio que trata de aplicar los procesos del pensamiento
humano usados en la solución de problemas a la computadora.
Robótica:
La robótica es el arte y ciencia de la creación y empleo de robots. Un robot es un sistema de computación
híbrido independiente que realiza actividades físicas y de cálculo. Están siendo diseñados con
inteligencia artificial, para que puedan responder de manera más efectiva a situaciones no estructuradas.
Sistemas expertos:
Un sistema experto es una aplicación de inteligencia artificial que usa una base de conocimiento de la
experiencia humana para ayudar a la resolución de problemas.
Redes de comunicaciones:
Los canales de comunicaciones que interconectan terminales y computadoras se conocen como redes de
comunicaciones; todo el "hardware" que soporta las interconexiones y todo el "software" que administra
la transmisión.
17.
La época entre los años 60's y 80's fue una temporada
repleta de cambios en el ámbito informático y el
inicio de la computación como se la conoce.
Aparecieron técnicas como la multiprogramación y
los sistemas de tiempo compartido, las cuales en su
noción básica se conservan hasta la actualidad.
Obviamente la implementación de estas nuevas
técnicas supuso un cambio a los sistemas operativos
previos (IOCS, Sistema por lotes)
AÑOS DE LOS 60 A LOS
80
18.
Un gran cambio se da en los microprocesadores, no
solo por el paso de 32 bits a 64 bits, también por el
uso de más de un núcleo tanto virtual como físico; lo
que conlleva a que los nuevos sistemas operativos
puedan dividir tareas en busca de una mayor
velocidad y mejor manejo de datos, todo esto con la
disminución de los precios en hardware ayuda a
crear sistemas operativos impensables antes del 2000,
pero claro mucho más robustos.
DEL 2000
A LA ACTUALIDAD
19.
AmigaOS
es el nombre que recibe el conjunto de la familia de gestores de ventanas y ROMs que incluían por defecto los ordenadores
personales Como doreAmiga como Sistema Operativo
Apple dos:
se estrenó en abril de 1977, casi exactamente un año después de la introducción de la primera computadora de Apple. Se
incluye la misma tecnología de procesador (MOS 6502) funcionando ala misma velocidad de reloj (1,023 MHz) como elApple
iOS
: IOS es el sistema operativo que se ejecuta en eliPhone, iPod touch y dispositivos iPad. El sistema operativo gestiona el
hardware del dispositivo y proporciona las tecnologías necesarias para implementar aplicaciones nativas. El sistema
operativo también se distribuye con varias aplicaciones del sistema, tales como teléfono, Mail, Safari, y que proporcionan
servicios estándar del sistema para el usuario
OSX
El corazón del Mac OS X es el núcleo XNU. El núcleo se refiere a la parte de un sistema operativo que se carga primero.
Controla y supervisa los recursos del hardware como la memoria, la asignación de procesador CPU y unidades de disco. El
núcleo XNUincluye el código de un sistema informático de arquitectura antigua que se llama Mach. Mach es un producto de
la Carnegie Mellon University y ha existido desde la década de 1980. Este código es el responsable de algunas de las
funciones básicas dentro de la computadora Mac, incluyendo la gestión de memoria virtual y multitarea. El código también
proporciona al sistema operativo Mac la autoridad parar reducir la velocidad de procesamiento de la CPU se empieza a
sobrecalentarse
Atari dos
Atari DOS es el sistema operativo de discose utiliza con la familia de ordenadores Atari de 8-bit
Unix:
UNIX es un sistema operativo. El trabajo de un sistema operativo consiste en orquestar las diversas partes de la computadora
- el procesador, memoria de a bordo, las unidades de disco, teclados, monitores de vídeo, etc. - para realizar tareas útiles.
20.
2 tipos de sistema
operativo y
funcionaminto;)
21.
Es un conjunto de programas y archivos auxiliares que
permiten la interactividad entre el usuario y la computadora,
comportándose como un intérprete entre el lenguaje humano y
el lenguaje máquina. También se encarga de la administración
de los dispositivos, así como la carga y ejecución de
aplicaciones. -Extraído de InformaticaModerna.com.
La distintas empresas como Macintosh®, IBM®, Microsoft® y
personajes destacados como Linus Torvalds, han creado y
desarrollado distintas versiones de sistemas operativos acorde
al momento tecnológico; ya que es necesario que se adapte de
manera correlacionada con el hardware existente y los nuevos
programas que utiliza el usuario.
22.
Creado por Ken Thompson y Dennies Ritchie en
laboratorios Bell® AT&T® de MULTICS®.
Inicialmente era un sistema operativo de tipo texto y
algunos gráficos muy rústicos. Hoy en día es la base
de comunicaciones de la Internet.
Sistema operativo UNIX
24.
(Comprado por Bill Gates propietario de
Microsoft®): De tipo Texto, Monousuario (Solo
puede Atender a un usuario) y Monotarea (Ejecuta
una tarea a la vez). Es el soporte para programas que
manejan gráficos y sus emulaciones de sistema
operativo gráfico como: Windows 3.X, 95, 98, 98SE,
Me, 2000, NT, XP. Es decir están ejecutados desde
Ms-DOS®.
Sistema operativo
Microsoft® Ms-DOS
26.
De tipo gráfico, multiusuario (puede Atender a
varios usuarios) y multitarea (Ejecuta varias tareas
simultáneas).
Sistema operativo
Microsoft® Windows
28.
Sistema Operativo competidor de Ms-DOS® en años
60 y 70; que perdió popularidad por el éxito de
Microsoft® Windows®. Se siguió desarrollando
hasta la última versión PC-DOS® 2000.
Sistema operativo PC-
DOS® de IBM®
30.
Creado por el finlandés Linus Bendict Torvalds en la
universidad de Helsinki, basándose en el SO UNIX-
MINIX en 1991. Actualmente existen una gran gama
de versiones: Linspire®, Debian, Knoppix, Red
Hat®, SuSe, Slackware, Mandrake, Ubuntu, Fedora y
Android, todos ellos de tipo gráfico.
Sistema operativo LINUX
32.
Creado por Jef Raskin, Steve Wozniak, Steve Jobs y Ron
Wayne: sistema operativo tipo gráfico. Macintosh® desde
sus inicios, no aceptó la estandarización de PC-IBM®, y
comenzó a desarrollar sus microprocesadores, memorias
RAM, tarjetas principales (Motherboard), puertos,
sistemas operativos y aplicaciones de manera
independiente a las PC´s. Por ello no era posible ejecutar
programas para Mac® en PC, a menos que se utilizara un
programa emulador para ello. Actualmente Apple® Mac
se esta integrando al estándar PC, para mayor
compatibilidad, aunque hasta la fecha aún no es posible
simplemente instalar el MacOS en una PC común.
Sistema operativo MacOS
de Apple®
34.
desarrollado por Sun Microsystem®, es un sistema
operativo poco comercial y para servidores
principalmente. Normalmente lo utilizan grandes
corporativos.
Sistema operativo Solaris
37.
Una parte del sistema operativo esta encargada de la
gestión de la unidad central de proceso. El sistema
operativo se encarga de gestionar la prioridad entre
procesos.
Gestión del procesador
38.
Una parte del sistema operativo esta encargada de la
gestión y asignación de la memoria a los procesos o
aplicaciones, impidiendo que las zonas de memoria
ocupadas por aplicaciones no sean ocupadas por
otras aplicaciones.
Gestión de la memoria
39.
Una parte del sistema operativo esta encargada de la
gestión de procesos, iniciando, deteniendo y
finalizando los mismos dependiendo del usuario o
de las ordenes recibidas por el sistema operativo.
Gestión de proceso
40.
Una parte del sistema operativo esta encargada de la
gestión de los procesos que establecen acciones con
los dispositivos de almacenamiento o dispositivos de
entrada y salida.
Gestión Entrada/Salida
y Almacenamiento
41.
El sistema operativo gestiona archivos, directorios,
atributos de los anteriores y otras características para
identificar la información con la que trabaja el
sistema operativo.
Gestión de información
44.
Basic Input-Output System. Es el conjunto de
programas básicos para que opere el ordenador, que
se dirigen al reloj y a los periféricos de entrada (como
el teclado y el ratón) y de salida (como la pantalla).
El programa de la Bios se encuentra guardado en la
memoria ROM (Read Only Memory) de lectura
exclusiva.
BIOS DEFINICION
45.
La inicialización del sistema es necesaria para cargar los registros
de la CPU y los periféricos( como los controladores de las entradas
y salidas) a un estado conocido y preparado para la ejecución. El
testeo de los componentes del sistema tales como la Ram, aseguran
que los componentes del sistema funcionan correctamente. Cuando
la BIOS completa la inicialización y testeo de los componentes del
sistema, este debe ser cargado y ejecutado desde la Ram para
alcanzar una ejecución más rápida del sistema.
Una vez cargada en la Ram la ejecución de la bios continua,
estableciendo la tabla del vector y cargando el sistema operativo
así como cualquier aplicación requerida.
Finalmente, el control pasa al sistema operativo Rom_Dos.
Arranque de la Bios
46.
1. Cuando se reinicializa el sistema muestra el
nombre de la bios y versión de la misma, que a su
vez realiza el testeo de la memoria Ram (8Mb). El
terminal pitará dos veces.
2. Después comienza la carga del sistema operativo.
Visualización en
pantalla
48.
UEFI (Unified Extensible Firmware Interface) es una
interfaz de firmware estándar para PCs, diseñada
para reemplazar el BIOS (sistema básico de entrada y
salida). Es un estándar creado por más de 140
compañías tecnológicas que forman parte del
consorcio UEFI, en el que se incluye Microsoft. Se ha
diseñado para mejorar la interoperabilidad del
software y solucionar las limitaciones del BIOS.
Algunas de las ventajas que ofrece el firmware UEFI
son:
UEFI DEFINICIÓN
49.
Mayor seguridad, ya que ayuda a proteger el proceso previo al
inicio (o pre arranque) frente a ataques de bootkit.
Tiempos de inicio y reanudación desde la hibernación más rápidos.
Compatibilidad con unidades de más de 2,2 terabytes (TB).
Compatibilidad con modernos controladores de dispositivos de
firmware de 64 bits que el sistema puede usar para direccionar más
de 17,2 mil millones de gigabytes (GB) de memoria durante el
inicio.
Capacidad para usar el BIOS con hardware UEFI.
Ventajas
51.
se le llama legacy system a un sistema o programa de
computadora viejo, q sigue siendo usado porque el
usuario no quiere reemplazarlo o rediseñarlo.
mantener legacy system esta considerado
problemático por muchos ingenieros por varios
motivos: corren con hardware lento y obsoleto, y a
veces usan recursos de la computadora innecesarios.
son difíciles de mantener y mejorar.
LEGACY DEFINICIÓN
54.
tarjeta madre, placa base o motherboard es una
tarjeta de circuito impreso que permite la integración
de todos los componentes de una computadora. Para
esto, cuenta con un software básico conocido como
BIOS, que le permite cumplir con sus funciones.
TARJETA MADRE
56.
(Random Access Memory - Memoria de acceso aleatorio). Tipo de
memoria donde la computadora guarda información para que
pueda ser procesada más rápidamente. En la memoria RAM se
almacena toda información que está siendo usada en el momento.
Su capacidad de almacenamiento se mide en megabytes y más
recientemente en gigabytes.
La información que contienen es renovada continuamente y
cuando la computadora se reinicia o se apaga, toda la información
contenida se pierde, por eso es llamada memoria volátil.
Tipos de memoria RAM: SRAM, DRAM.
Tipos de módulo de memorias RAM: SIMM, DIMM, RIMM.
RAM
58.
El microprocesador es el cerebro de la computadora,
lleva a cabo o ejecuta los programas, y es
imprescindible para el funcionamiento del
ordenador. Se trata de un chip o pastilla de silicio,
que contiene circuitos integrados, transistores, y que
se halla protegido por una cobertura de cerámica y
plástico. Su forma es cuadrada o rectangular, y su
color es negro.
MICROPROCESADOR
59.
La función del microprocesador es la de recuperar,
interpretar, cumplir instrucciones, y operar como
calculadora del sistema, pudiendo hacer operaciones
aritméticas y también operaciones lógicas entre
conjuntos, como unión (OR) o intersección (AND).
FUNCIÓN
62.
os sistemas informáticos pueden almacenar los datos tanto interna
(en la memoria) como externamente (en los dispositivos de
almacenamiento). Internamente, las instrucciones o datos pueden
almacenarse por un tiempo en los chips de silicio de la RAM
(memoria de acceso aleatorio) montados directamente en la placa
de circuitos principal de la computadora, o bien en chips montados
en tarjetas periféricas conectadas a la placa de circuitos principal
del ordenador. Estos chips de RAM constan de conmutadores
sensibles a los cambios de la corriente eléctrica, esto quiere decir
que los datos son almacenados por tiempo limitado (hasta que
dejamos de suministrar energía eléctrica) por esta razón aparecen
los dispositivos de almacenamiento secundarios o auxiliares, los
cuales son capaces de conservar la información de manera
permanente, mientras su estado físico sea óptimo. Los dispositivos
de almacenamiento externo pueden residir dentro del CPU y están
fuera de la placa de circuito principal.
Almacenamiento
64.
En el acceso secuencial, el elemento de lectura del
dispositivo debe pasar por el espacio ocupado por la
totalidad de los datos almacenados previamente al
espacio ocupado físicamente por los datos
almacenados que componen el conjunto de
información a la que se desea acceder.
Acceso secuencial
65.
En el modo de acceso aleatorio, el elemento de
lectura accede directamente a la dirección donde se
encuentra almacenada físicamente la información
que se desea localizar sin tener que pasar
previamente por la almacenada entre el principio de
la superficie de grabación y el punto donde se
almacena la información buscada.
Acceso aleatorio
66.
Memoria ROM: Esta memoria es sólo de lectura, y
sirve para almacenar el programa básico de
iniciación, instalado desde fábrica. Este programa
entra en función en cuanto es encendida la
computadora y su primer función es la de reconocer
los dispositivos, (incluyendo memoria de trabajo),
dispositivos.
Tipos de Dispositivos de
Almacenamiento
67.
esta es la denominada memoria de acceso aleatorio o
sea, como puede leerse también puede escribirse en
ella, tiene la característica de ser volátil, esto es, que
sólo opera mientras esté encendida la computadora.
En ella son almacenadas tanto las instrucciones que
necesita ejecutar el microprocesador como los datos
que introducimos y deseamos procesar, así como los
resultados obtenidos de esto.
Memoria RAM
68.
Los periféricos son una serie de dispositivos que
conectan a la unidad central del sistema de la
computadora con el exterior pretendiendo
introducir en la computadora la información
necesaria, en forma de órdenes de comando y datos,
para realizar los procesos necesarios.
la comunicación interactiva, en caso de que sea
necesaria de la computadora con los usuarios
durante el proceso.
Definición de periféricos
69.
el envío al exterior de los resultados obtenidos tras los
procesos realizados.
Los periféricos son “traductores” que se encargan de
comunicar una computadora, que utiliza un objeto de
sólo dos caracteres (0,1).
Los periféricos se comunican con la unidad central de
proceso a través de los canales de transferencia de
información, los buses.
La conexión entre los periféricos y la unidad central del
sistema se realiza a través de los cables (adaptadores o
interfaces).
70.
Son los elementos a través de los que se introduce
información a la computadora. Ej.: teclado, ratón (o
mouse), scanner, lápiz óptico, lector de código de
barras, lector de tarjeta magnética, tableta
digitalizadora.
Periféricos de entrada de
información
71.
Son subsistemas que permiten a la computadora
almacenar temporal o indefinidamente la
información o los programas en los soportes de
información (tales como: disco rígido, disco flexible o
diskette, disco compacto, DVD, cinta magnética, etc).
Periféricos de entrada/salida
de la información
72.
Son los periféricos que trasmiten los resultados
obtenidos tras el procesamiento de la información
por la computadora al exterior del sistema
informático para que pueda ser utilizado por los
seres humanos u otros sistemas diferentes. Ej:
plotter, parlante, impresora, fax, pantalla.
Periféricos de salida de
la información
73.
Estos subsistemas están dedicados a permitir la
conexión de la computadora con otros subsistemas
informáticos a través de diversos medios. El medio
más común es la línea telefónica. El periférico de
comunicación más utilizado es el módem
(modulador-demodulador). Ej.: módems, placas de
red, etc.
Periféricos de
comunicación
75.
un término de origen Inglés, que significa ventanas.
Windows es un sistema operativo para
computadoras, es propiedad de Microsoft y de su
fundador, Bill Gates, y es uno de los más utilizados
en todo el mundo.
DEFINICIÓN DE
WINDOWS
76.
Microsoft Windows se comenzó a diseñar en 1981 y en 1985 se
introdujo el Windows 1.0, que no era un sistema operativo
completo, si no un complemento o una extensión gráfica de MS-
DOS (Microsoft Disk Operating System, interfaz que consiste en
una línea de comandos). Pero fue sólo en 1990 que se lanzó la
primera versión como sistema operativo, el Windows 3.0, que
inicialmente sólo era una interfaz gráfica de usuario, sólo
funcionaba en los programas que se ejecutan en modo gráfico.
Windows ya lanzó diversas versiones de sistemas operativos,
cada una mejorada con nuevas tecnologías, comenzando por el
Windows 1.0, pasando por la primera versión en español, el
Windows 3.0, luego el Windows NT, Windows 95, Windows
98, Windows ME (Millennium Edition), Windows 2000,
Windows XP, Windows Server, Windows Vista, Windows 7, y
el más reciente Windows 8, lanzando en 2012.
77.
Existen varios productos de la "familia" de Windows,
además de los sistemas operativos: Windows Live, que
incluye Messenger (chat), Windows Defender, que es un
programa para proteger contra spyware y otro software
no deseado, Windows Media Center, lanzado por primera
vez en 2002, y Windows Media Player, que son software
para escuchar música y realizar otras funciones.
La función de los sistemas operativos de Windows es
facilitar el acceso del usuario a la computadora, con una
interfaz más bonita y fácil de usar, con nuevos programas,
con mayor rapidez, etc.
79.
El software comercial es el software, libre o no, que
es comercializado, es decir, que existen sectores de la
economía que lo sostiene a través de su producción,
su distribución o soporte.
Definición de software
comercial
80.
Tienen licencia las cuales están limitadas por usuarios
y son pagas. Estas licencias restringen las libertades
de los usuarios a usar, modificar, copiar y distribuir
el software.
El desarrollo, programación, y actualización de este
software solo lo hacen las empresas que tienen los
derechos. Como sucede con los productos Microsoft (
Windows, Office)
Tienen licencias, las cuales están limitadas por
usuarios
Características
81.
Estas licencias restringen las libertades de los
usuarios a usar, modificar, copiar y distribuir el
software.
Se suelen esconder y mezquinar los avances y
descubrimientos tecnológicos entre las empresas que
lo desarrollan. Estos ocasiona retrasos tecnológicos y
poco creatividad en los productos. Con estrategias
comerciales se suele hacer que los usuarios
actualicen su software comercial, consiguiendo de
esta forma hacer que el usuario invierta en nuevas
licencias.
82.
Mac OS X es el antiguo nombre de una línea de sistemas
operativos gráficos desarrollados y vendidos por la compañía
Apple Inc, especialmente para ser usados en computadoras
Macintosh y/o dispositivos como el iPhone, el iPod y similares
(en estos dispositivos surgió una nueva línea de sistemas
operativos de nombre iOS).
Mac OS X es el sucesor del original Mac OS de 1984, primer
sistema operativo de Apple. Pero, a diferencia de su
predecesor, el Mac OS X está basado en los sistemas operativos
Unix. Fue en el año 1997 cuando Steve Jobs, nombrado CEO de
Apple, decidió terminar con la versión clásica y crear este
nuevo sistema operativo usando tecnología del sistema
operativo NEXTSTEP de la compañía NeXT (adquirida por
Apple a principios de ese año).
MAC OS
83.
La primera versión fue lanzada en 1999 con el
nombre de Mac OS X Server 1.0, seguida por una
versión orientada a escritorio, la Mac OS X v10.0 en
marzo de 2001. El Mac OS X utiliza el gestor de
ventanas Aqua. Las versiones para dispositivos
pequeños, como los iPhone y los iPod, son versiones
reducidas del sistema operativo.
84.
* Mac OS X v10.1 (Puma) - 25 de septiembre de 2001
* Mac OS X v10.2 (Jaguar) - 25 de agosto de 2002
* Mac OS X v10.3 (Panther) - 24 de octubre de 2003
* Mac OS X v10.4 (Tiger) - 29 de abril de 2005
* Mac OS X v10.5 (Leopard) - 26 de Octubre de 2007
* Mac OS X v10.6 (Snow Leopard) - anunciado el 8 de
Junio de 2008, se espera lanzado para septiembre de
2009 -
Versiones de MAC OS X
86.
s el software que respeta la libertad de los usuarios y
la comunidad. En grandes líneas, significa que los
usuarios tienen la libertad para ejecutar, copiar,
distribuir, estudiar, modificar y mejorar el software.
Es decir, el «software libre» es una cuestión de
libertad, no de precio. Para entender el concepto,
piense en «libre» como en «libre expresión», no como
en «barra libre».
Software libre definición
87.
La libertad de ejecutar el programa como se desea, con
cualquier propósito (libertad 0).
La libertad de estudiar cómo funciona el programa, y
cambiarlo para que haga lo que usted quiera (libertad 1).
El acceso al código fuente es una condición necesaria para
ello.
La libertad de redistribuir copias para ayudar a su
prójimo (libertad 2).
La libertad de distribuir copias de sus versiones
modificadas a terceros (libertad 3). Esto le permite ofrecer
a toda la comunidad la oportunidad de beneficiarse de las
modificaciones. El acceso al código fuente es una
condición necesaria para ello.
LIBERTADES
88.
Un programa es software libre si otorga a los
usuarios todas estas libertades de manera adecuada.
De lo contrario no es libre. Existen diversos
esquemas de distribución que no son libres, y si bien
podemos distinguirlos en base a cuánto les falta para
llegar a ser libres, nosotros los consideramos
contrarios a la ética a todos por igual.
89.
open source es una expresión de la lengua inglesa que
pertenece al ámbito de la informática. Aunque puede
traducirse como “fuente abierta”, suele emplearse en
nuestro idioma directamente en su versión original, sin
su traducción correspondiente.
Se califica como open source, por lo tanto, a los
programas informáticos que permiten el acceso a su
código de programación, lo que facilita modificaciones
por parte de otros programadores ajenos a los creadores
originales del software en cuestión.
OPEN SOURSE
definición
90.
es importante distinguir entre el software open
source, que dispone de la mencionada característica
de presentar su código abierto, y el software libre
(que puede descargarse y distribuirse de manera
gratuita). Existe software libre que no brinda acceso
al código (y que, por lo tanto, no puede considerarse
como open source), y programas open source que se
distribuyen de manera comercial o que requieren de
una autorización para ser modificados.
91.
En 1991, con 23 años, un estudiante de informática
de la Universidad de Helsinki (Finlandia) llamado
Linus Torvalds se propone como entretenimiento
hacer un sistema operativo que se comporte
exactamente igual al sistema operativo UNIX, pero
que funcione sobre cualquier ordenador compatible
PC. Posteriormente Linus tuvo que poner como
requisito mínimo que el ordenador tuviese un
procesador i386, ya que los ordenadores con CPU
más antiguas no facilitaban el desarrollo de un
sistema operativo compatible con UNIX.
HISTORIA DE LINUX
92.
Un factor decisivo para el desarrollo y aceptación de Linux va a ser la gran
expansión de Internet. Internet facilitó el trabajo en equipo de todos los que
quisieron colaborar con Linus y fueron aportando todos los programas que
vienen con UNIX. Linus no pretendía crear todos los programas que
vienen con UNIX. Su objetivo fundamental era crear un núcleo del S.O. que
fuera totalmente compatible con el de UNIX y que permitiera ejecutar
todos los programas gratuitos compatibles UNIX desarrollados por la Free
Software Foundation (fundada por Richard Stallman) que vienen con
licencia GNUF.1. Esta licencia impide poner precio a los programas
donados a la comunidad científica por sus propietarios (programas libres)
y obliga a que si se escriben nuevos programas utilizando código de
programas libres, estos sean también libres.
Para crear su núcleo, Linus se inspiró en Minix, una versión reducida de
UNIX desarrollada por el profesor Andy Tanenbaum para que sus
alumnos pudieran conocer y experimentar con el código de un sistema
operativo real.
94.
Distribución basada en Debían, con lo queesto
conllevara y centrada en el usuario final y facilidad
de uso. Muy popular y con mucho soporte en la
comunidad
UBUNTU
95.
Esta es una distribución que tiene muy buena
calidad, contenidos y soporte a los usuarios por parte
de la empresa que la distribuye. Es necesario el pago
de una licencia de soporte. Enfocada a empresas
RED DHAT
96.
Esta es una distribución patrocinada porRedHat y
soportada por la comunidad. Fácilde instalar y
buena calidad.
FEDORA
97.
Otra distribución con muy buena calidad. El proceso
de instalación es quizás un poco más complicado
pero sin mayores problemas. Gran estabilidad antes
que los últimos avances
DEBIAN
98.
Otra de las grandes. Fácil de instalar, versión libre de
la distribución comercialSuse.
OPEN SUCE
99.
Esta distro de origen irlandés, que curiosamente es una de las más
jóvenes del mercado, y la más joven de esta recopilación, está
ganando popularidad a pasos agigantados. Se trata de una distro
basada en Ubuntu, con la que es totalmente compatible, pero que
intenta facilitar aún más la vida a los usuarios, por ejemplo,
instalando por defecto diversos códecs propietarios, el plugin de
Java o el plugin de Flash. También han desarrollado algunas
herramientas bastante interesantes.
Al estar basada en Ubuntu, el entorno de escritorio por defecto que
utilizan es GNOME, aunque hay versiones para KDE, XFCE y
Fluxbox.
Las versiones de Linux Mint se suelen lanzar 1 o 2 meses después
de la respectiva versión de Ubuntu.
MINT
101.
nacida de la fusión de la francesa Mandrake y la brasileña Conectiva,
cambió su nombre en 2005 para evitar problemas legales. En el pasado
estaba considerada como una de las distros más sencillas de instalar y
utilizar, aunque tenía una cierta fama de inestabilidad.
Utiliza KDE como entorno de escritorio, y urpmi como gestor de paquetes
(RPM).
Su nueva versión, Mandriva 2010.0, que incluye KDE 4.3.x, está prevista
para dentro de un par de semanas. El objetivo es deshacerse de todos los
paquetes relacionados con KDE 3 de los repositorios para esta misma
fecha.
Como curiosidad, la primera versión de Mandrake estaba basada en Red
Hat.
MANDRIVA
103.
PCLinuxOS estaba basada originalmente en
Mandrake, con la que sigue compartiendo algunas
características.
Utiliza KDE como escritorio por defecto, y paquetes
RPM para el software, aunque, curiosamente, la
gestión de los paquetes se realiza con apt y synaptic.
PCLINUXOS
105.
Puppy Linux se distingue de todas las demás distros de la
recopilación en que está pensada para ser lo más pequeña
posible, hasta el punto de que se puede cargar
completamente en la memoria RAM de un PC bastante
antiguo (su versión más simple, Barebones, ocupa sólo
40MB).
Es famosa por su rapidez y su estabilidad.
Utiliza JWM como gestor de ventanas, utilizado también
en otras distros ligeras, como Damm Small Linux, y se
basa en paquetes PUP y PET.
PUPPY LINUX
107.
Sabayon es una distro italiana derivada de Gentoo, una
distro basada en código fuente, en lugar de paquetes
binarios, que es temida por muchos y amada por otros
tantos. El objetivo de Sabayon es acercar Gentoo al gran
público, cosa que parecen estar consiguiendo.
Además del gestor de paquetes de Gentoo, Portage,
Sabayon también incluye un gestor de paquetes binarios
llamado Entropy.
El entorno de escritorio por defecto de esta distribución es
KDE.
SABAYON LINUX
110.
El panel de control es un programa independiente,
no una carpeta como aparece, que está alcanzado del
menú del comienzo, y se almacena en el directorio
system32 como control.exe bajo Windows XP.
Definición
111.
le permite a los usuarios vean, y que manipulen
ajustes y controles del sistema básico, tales como
Agregar nuevo hardware, Agregar o quitar
programas, Cuentas de usuario y cambiar opciones
de accesibilidad. Applets adicionales pueden ser
proporcionados por el software de terceros.
FUNCIÓN
114.
FAT es con diferencia el sistema de archivos más
simple de aquellos compatibles con Windows NT. El
sistema de archivos FAT se caracteriza por la tabla
de asignación de archivos (FAT), que es realmente
una tabla que reside en la parte más "superior" del
volumen. Para proteger el volumen, se guardan dos
copias de la FAT por si una resultara dañada.
Además, las tablas FAT y el directorio raíz deben
almacenarse en una ubicación fija para que los
archivos de arranque del sistema se puedan ubicar
correctamente.
INTRODUCCIÓN A
FAT
115.
El sistema de archivos HPFS se presentó por primera vez con
OS/2 1.2 para permitir un mejor acceso a los discos duros de
mayor tamaño que estaban apareciendo en el mercado.
Además, era necesario que un nuevo sistema de archivos
ampliara el sistema de nomenclatura, la organización y la
seguridad para las crecientes demandas del mercado de
servidores de red. HPFS mantiene la organización de directorio
de FAT, pero agrega la ordenación automática del directorio
basada en nombres de archivo. Los nombres de archivo se
amplían hasta 254 caracteres de doble byte. HPFS también
permite crear un archivo de "datos" y atributos especiales para
permitir una mayor flexibilidad en términos de compatibilidad
con otras convenciones de nomenclatura y seguridad. Además,
la unidad de asignación cambia de clústeres a sectores físicos
(512 bytes), lo que reduce el espacio perdido en el disco.
INTRODUCCIÓN A
HPFS
116.
Desde el punto de vista de un usuario, NTFS sigue
organizando los archivos en directorios que, al igual
que ocurre en HPFS, se ordenan. Sin embargo, a
diferencia de FAT o de HPFS, no hay ningún objeto
"especial" en el disco y no hay ninguna dependencia
del hardware subyacente, como los sectores de 512
bytes. Además, no hay ninguna ubicación especial en
el disco, como las tablas de FAT o los superbloques
de HPFS.
INTRODUCCIÓN A
NTFS
118.
l mantenimiento es la palabra que nos permite designar a
aquella actividad a partir de la cual es plausible mantener
un producto, una máquina, un equipo, entre otros, para
que el mismo funcione de modo correcto, o en su defecto,
la que nos permite practicarle a algunos de estos una
reparación en caso que así lo demande, para que pueda
recuperar su funcionamiento tradicional.
Mayormente, todos los aparatos, máquinas, maquinarias,
dispositivos, entre otros, necesitan en algún momento de
su existencia recibir un mantenimiento, ya sea como
indicamos, para garantizar que sigan funcionando de
modo satisfactorio, o bien para reparar aquel desperfecto
que haya surgido de pronto.
Definición de mantenimiento
preventivo
120.
Gracias al mantenimiento preventivo es posible
garantizar el buen funcionamiento de los equipos ya
que este tipo de mantenimiento se ocupa
exclusivamente de realizar las pertinentes revisiones
y reparaciones que impidan que el aparato se
descomponga. Es decir, su principal misión es
mitigar posibles fallas.
Se diferencia del mantenimiento correctivo,
justamente, porque mantiene al aparato en
funcionamiento, mientras que el correctivo repara a
aquel aparato que dejo de funcionar.
121.
ste mantenimiento tiene por objetivo restaurar el
funcionamiento de los equipos. Para esto se requiere
hacer una evaluación integral de los daños, en
algunas ocasiones es necesario retirar los equipos
para revisarlos en nuestro departamento de servicio,
en estos casos contamos con equipo de renta.
Este mantenimiento se aplica cuando el equipo se
encuentra fuera de servicio por daños en sus
componentes o presenta funcionamiento anormal.
Definición de mantenimiento
correctivo
124.
• Accede a la herramienta de Configuración del sistema, para
eso escribe en el cuadro de Inicio o en Ejecutar: MSCONFIG y
oprime la tecla Enter.
• En la pestaña Inicio de Windows verás todos esos programas
listados con la información entre otras, del fabricante y la ruta
al ejecutable.
• Puedes deshabilitarlos todos si así lo deseas, desmarcando la
casilla de la aplicación correspondiente, ninguno de estos
programas tiene nada que ver con Windows y no te afectarán
en nada si los quitas, solo te aconsejo en tu caso específico
analizar cual necesitas que se inicie con el sistema.
Recomendamos que mantengas si tienes un antivirus instalado,
también si tienes Gadgets en el escritorio mantén activada la
aplicación sidebar, etc.
Deshabilitar programas
innecesarios en el inicio
126.
Debes darle el mantenimiento necesario al disco duro del
equipo regularmente, para eso es necesario Liberar
espacio en disco y desfragmentar, principalmente el disco
o unidad del sistema.
El sistema operativo aunque no se esté realizando
ninguna tarea en el equipo, está constantemente leyendo
y escribiendo información en los discos, esto trae consigo
la fragmentación de los datos, que no es más que la
división en múltiples fragmentos de los archivos al
escribirlos. Las medidas que te pueden ayudar al respecto
puedes leerlas con más amplitud en las siguientes
páginas:
MANTENER EL SISTEMA OPERATIVO
LIMPIO Y ORDENADO
127.
El archivo de paginación es un espacio en el disco duro en el que Windows
va escribiendo datos de la memoria del sistema, de esa forma deja espacio
en la memoria física (RAM) para otros usos.
Cualquier disco es decenas de veces más lento que una memoria RAM,
pero si este disco está lleno, fragmentado y es el mismo de la unidad del
sistema, todo esto traerá más lentitud en cualquier tipo de operación.
En esos casos la paginación de archivos es perjudicial para el rendimiento.
Windows de forma predeterminada crea un archivo de paginación en cada
unidad disponible.
Una de las opciones es emplear un solo archivo de paginación en otra
unidad que no sea la del sistema (la unidad C), si fuera otro disco físico
sería lo ideal, pero siempre se ganará en rendimiento si utilizamos una
unidad diferente.
Modifica la ubicación del archivo de paginación de la siguiente forma:
Optimizar la utilización del archivo
de paginación (Memoria Virtual)
129.
Windows Update busca y descarga las
actualizaciones cuando el equipo está inactivo y solo
las instala cuando lo apagamos, además las
actualizaciones la mayor parte de las veces son para
mejorar el rendimiento.
Desactivar las actualizaciones
automáticas de Windows Update
131.
KDE es un escritorio destinado para todos aquellos
usuarios que están dispuestos a arriesgar un poco de
consumo, pero que a cambio obtendrán el beneficio
de ser más productivos y eficientes en el trabajo día a
día con el ordenador. Para mi un Entorno de
Escritorio va más allá de tener un panel (o dos), un
menú, una bandeja de sistema… etc. Un Entorno de
Escritorio son todas las herramientas y aplicaciones
que nos permiten trabajar cómodamente con
nuestros ficheros y carpetas, y en esto KDEse lleva
las palmas.
KDE
133.
Gnome es para aquellos usuarios que se sientan
atraídos por los nuevos retos e interfaces novedosas
dirigidas especialmente a la tecnología táctil, a los
que no les moleste hacer uso del teclado y derrochar
un poco de recursos. Ideal si se hace uso de otros
Shell como Cinnamon oUnity.
Gnome
135.
es para aquellos usuarios que no tengan necesidad
de realizar tareas avanzadas con el sistema, que
gusten de un Escritorio simple, y quieran tener
acceso a todas sus aplicaciones a golpe de pocos clic.
Puede ser ideal para Escritores, Periodistas y
personas que usen el ordenador para cosas básicas,
brindando un equilibrio entre potencia y rapidez.
Xfce
137.
LXDE es ideal para equipos modestos en
prestaciones gracias al equilibrio que nos ofrece entre
rapidez y simplicidad. Recomendado para usuarios
con un poquito más dee experiencia, ya que todo no
está tan a la mano.
LXDE
140.
jarro Negro es una distribución Linux mexicana, creada
en el Colegio de Ciencias y Humanidades (CCH), plantel
Naucalpan, Estado de México, el proyecto ha sido
desarrollado por Armando Rodríguez Arguijo,quien fue
estudiante del plantel y actualmente Estudiante de
Ingeniería en Computación, en la Facultad de Ingeniería
de la UNAM, junto con Alberto Luebbert, Miembro
Fundador del Grupode Usuarios Linux de Cd.
Netzahualcóyotl desde el 2005. Actualmente estudia
Ingeniería en Sistemas en el Tecnológico de Estudios
Superiores del Oriente del Estado de México
JARRO NEGRO
141.
El objetivo inicial del proyecto era su utilización en
plataformas para servidores principalmente SPARC,
basada en scripts del proyecto Muser y LCosmos,
actualmente esta distribución puede ser utilizada en
cualquier computadora (PC), con la ventaja que
funciona como un Live CD
143.
Orvitux es una distribución linux mexicana det ipo
"rolling release", basada en Unity Linux. Está
diseñada tanto para uso personal como comercial.
Incluye algunas características modernas como un
livecd, detección automática de hardware, soporte
wifi, fuentesTrueType, etc
URVITUX
144.
Al ser una rolling release, no hace falta esperar 6
meses para actualizarse; esta diestro se va
actualizando todo el tiempo.
147. Nacido en Helsinki, Finlandia, el 28 de diciembre de 1969. Sus padres tomaron su nombre de Linus Pauling.
En la primavera del 91, mientras estaba en la universidad, este finlandés de 21 años empezó a trabajar en el
desarrollo de un kernel basado en el sistema operativo propietario UNIX para computadoras con
microprocesadores de Intel. Una vez creado, lo puso a disposición del público a través de un servidor FTP de la
universidad finlandesa.
Linux era el nick de Linux en la universidad, para evitar que le acusaran de egocéntrico, quiso llamar a su creación
Freax (free+freak+x), pero el gestor del servidor decidió que le gustaba más el nombre de trabajo de su amigo y
decidió usar Linux. El resto ya es historia.
Conviene señalar que, aunque la aportación de Linux ha sido trascendental, este joven finlandés no ha hecho más
que seguir los pasos y continuar las innovaciones y la filosofía de los que estuvieron antes que él.
Por ejemplo, Linux dio a luz a su kernel a raíz del OS MINIX, un sistema operativo basado en UNIX y
extremadamente limitado, que escribió Andrew Tanenbaum, un profesor de informática alemán y especialista en
diseño de sistemas operativos, en 1987 para ayudar a sus alumnos a entender un poco los entresijos de UNIX.
Linux es para los programadores lo que Búfalo Bill o Billy el Niño para los pistoleros: el mejor entre iguales y un
ejemplo a seguir. Un individuo capaz de resolver en pocas semanas problemas que requerían meses a un equipo
entero de profesionales. Si no se tuerce en los muchos años que le quedan por delante, es indudable que se
convertirá en un ser legendario en la historia de la informática.
LINUS BENEDICT
TORVALDS
149. En 1973 ingresó en la Universidad de Harvard donde vivía a unos metros del futuro CEO y presidente de
Microsoft, Steve Ballmer. Un día de Diciembre de 1974, Allen y Bill, se encontraban trabajando en
Honywell Inc., en una zona periférica de Boston, Massachussets. Allí Allen le mostró a su amigo la tapa de
la revista Popular Mechanics en la que figuraba una Altair 8800 ($397). Una computadora de M.I.T.S.
(Micro instrumentation and Telemetry Systems), que cualquier fanático podía construir en su propia casa.
Lo único que impedía esto era la necesidad de adquirir un monitor y teclado, aparte del software. Por lo
que ambos ofrecieron a la empresa M.I.T.S. crear una versión de BASIC para la Altair. La Altair 8800 tenia
solo 256 bytes de memoria y poseía el input mediante llaves en la parte frontal. Mas allá de su corta vida
fue considerada una computadora personal exitosa.
Allí comenzó Micro - Soft (abreviatura de programas para PC). En 1977 presentaron al mercado el
Microsoft FORTRAN y dieron a conocer su versión del BASIC para los microprocesadores 8080 y 8086.
Ya en 1984 Microsoft era una de las pocas empresas que hacían programas para Macintosh, una
computadora personal de Apple. Este aporte en los primeros años fue fundamental para echar raíces en el
negocio con los programas Word, Excel, y Works (un sistema integrado).
En 1992, Gates recibió del entonces presidente George Bush el premio "National Metal of Technology". Un
año después Windows presento el NT, un sistema operativo para el ambiente corporativo.
Microsoft también provee al mundo del 50 % de la producción anual de aplicaciones de software. Con
programas como Excel (planillas), Word (procesador de textos) y Acces (base de datos). A pesar de la
aparición de competidores como lo es StarOffice, de Marco Boerries (Sun Microsystems). También está
presente en el mundo multimedia, cd-roms, libros y es dueño del mercado de aplicaciones para las
Macintosh, fruto de su aporte en los primeros años. Detalles de una vida exitosa.
William Henry Gates
151.
En 1973 comenzó a trabajar en un sistema operativo de
discos para crear un entorno de desarrollo para
computadoras PL/M, y de allí surgió CP/M, que al
principio vendía en avisos clasificados en las últimas
páginas de revistas de computación. Con el lanzamiento
de la Altair 8800 en 1975, finalmente había un sistema
comercial capaz de correr CP/M, y antes de fin de año,
surgieron varios ordenadores clónicos con sistemas de
discos que lo requerían. En 1977, era el más popular de
los sistemas operativos de microcomputadora en
existencia, corriendo en casi todas las computadoras
basadas en un procesador Intel 8080 o Zilog Z80. Otro
producto de Gary, fue la primera interfaz gráfica de
usuarios para el procesador 8086, GEM Desktop, en 1985.
Gary Kildall
153.
Es un ingeniero electrónico que en 1976 funda la empresa
Apple junto con Steve Jobs. En 1976 inventa el primer
ordenador personal, en esa época, era empleado de
Hewlett Packard, y tenía la obligación contractual de
presentar sus ideas a la empresa. Finalmente HP la
rechaza, "¿para que quiere la gente un ordenador?". En
poco tiempo, Jobs presentó el invento a la Universidad de
Berkeley, donde tendría un éxito espectacular. Creó los
computadores Apple I y Apple II. Apple II se convirtió en
el computador mejor vendido en los años 1970's e inicios
de los 80's, el cual es ocnocido como el primer ordenador
personal popular
Steve Wozniac
155.
En 1980 cuando tenía 24 años, creó un sistema operativo
llamado 86-DOS, el cual era conocido como Quick and
Dirty Operating System. QDOS era una adaptación de
CP/M al chip 8086 de Intel. IBM comenzó a desarrollar su
computadora personal que llamaría IBM PC. En 1981 tras
fallar las negociaciones con Kildall para la elaboración del
sistema operativo, acordó con Microsoft que le
proporcionaría un Sistema operativo para su IBM PC.
Microsoft compró los derechos del sistema creado por
Tim Paterson, y lo contrataron para adaptarlo al
microprocesador del IBM-PC, el 8088 de Intel, el resultado
fue vendido como PC-DOS a IBM y como MS-DOS a los
computadores que surgirían tras el éxito de IBM-PC.
Tim Paterson
156.
En 1971, siendo estudiante de 1º año de Física en la Universidad de
Harvard, Stallman se convirtió en un hacker del laboratorio de
inteligencia artificial del MIT. En los años 1980's, la cultura hacker
que constituía la vida de Stallman empezó a disolverse bajo la
presión de la comercialización de la industria del Software, otros
hackers del laboratorio de IA, fundaron la compañía Symbolics, la
cual intentaba reemplazar el software libre del Laboratorio con su
propio software privativo. En 1983, anunció en varios grupos de
noticias de Usenet, el inicio del proyecto GNU, que perseguía crear
un sistema operativo completamente libre. En 1985, publicó el
Manifiseto GNU, en el cual declaraba sus intenciones y
motivaciones para crear una alternativa libre al sistema operativo
Unix, al que denominó GNU. Después fundó la organización sin
ánimo de lucro Free Software Foundation, e inventó el concepto de
copyleft, que fue utilizado en la Licencia Pública General GNU en
1989.
Richard Stallman
158. STEVEN PAUL JOBS nacio en 1955 en Silicon Valley (USA). Fue un joven
apasionado de la electrónica y sus profesores destacaban que siempre tenia un modo
diferente de ver las cosas. Historia de la compañía. En el año 1974 y con un capital de
1300 dólares fundó Apple en compañía de su amigo Wozniak. Jobs le puso a la
compañía el nombre de Apple en memoria de un feliz verano que pasó como
hortelano en Oregon; en cambio también se dice que fue por su gran afinidad a la
música de los Beatles y cuya empresa discográfica se llamaba Apple Records.
El Apple I se comercializó en 1976 a un precio de 666 dólares. Fue el primer
computador con una única placa en la que integraba la tarjeta de vídeo y la memoria
ROM. Finalmente Jobs y Wozniak consiguieron 774.000 dólares de beneficio por las
ventas del Apple I.
Al año siguiente Apple Computers Inc. desarrolló el Apple II, el cual poseía un
circuito que permitía interactuar directamente con un monitor en color.Éste era el
primer ordenador personal que venía en una caja de plástico y que incluía gráficos en
color, el Apple II era una máquina impactante. Las ventas de Apple crecieron todavía
más. Muchos desarrolladores independientes desarrollaron aplicaciones para el
nuevo computador consiguiendo en total aproximadamente 16.000 aplicaciones
software. Con el Apple II ganaron 139 millones de dólares en solo tres años.
STEVEN PAUL JOBS
160.
principios de los años 1970's trabajaron juntos en el desarrollo de
un conjunto de protocolos de comunicaciones para ARPANET. El
objetivo era crear una "red de redes" que permitiera conectar las
distintas redes del departamento de defensa norteamericano, sin
importar el sistema operativo, ni el tipo de conexión. En 1974 crean
TCP, con algunas de las siguientes características:
- Pequeñas sub-secciones de la red serían capaces de hablar entre sí
mediante un computador especializado que simplemente reenvía
paquetes (inicialmente llamado gateway, hoy en día conocido
como router).
-Ninguna porción de
la red podría constituir un punto de ruptura (de forma que toda la
red dependiese de su correcto funcionamiento), ni sería capaz de
tomar control sobre toda la red.
Ray Tomlinson
162.
e licenció en Física en 1976 en el Queen's College de la
Universidad de Oxford. Es considerado como el padre de
la web. Ante la necesidad de distribuir e intercambiar
información acerca de sus investigaciones de una manera
más efectiva, Tim en 1990 desarrolló las ideas que forman
parte de la web. Él y su grupo crearon lo que se
denomina: Lenguaje HTML (HyperText
MarkupLanguage) o lenguaje de etiquetas de hipertexto;
el protocolo HTTP (HyperText Transfer Protocol), y el
sistema de localización de objetos en la web URL
(Uniform Resource Locator).
TIM BERNERS-LEE
164.
ue un matemático, físico, filósofo y teólogo francés,
es considerado uno de los padres de la computación,
ya que inventó la Pascalina en 1642, una calculadora
mecánica que funcionaba en base a ruedas y
engranajes. El primer uso de la Pascalina fue en la
Hacienda francesa, debido a que Pascal la diseñó
para ayudar a su padre, que era contador en dicha
entidad. La pascalina tuvo un periodo de gloria en
los años 1960's ya que IBM lo utilizaba para realizar
cálculos muy rápidamente. Era el único dispositivo
que permitía hacer cálculos en base hexadecimal.
BLAISE PASCAL