1. Presentado a : Orlando Echeverry
Presentado por: Bret Sebastian Florez
I.E.D. Jorge Eliecer Gaitán
801 J.T.
2. INDICE
Hardware
Software
Monitor
Placa base
CPU
RAM
Tarjeta de expansión
Fuente de alimentación
Unidad de disco óptico
Disco duro
Teclado
Ratón/ Mouse
3. HADWARE
Hardware corresponde a todas las partes tangibles de una computadora: sus componentes eléctricos, electrónicos,
electromecánicos y mecánicos; sus cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico
involucrado; contrariamente, el soporte lógico es intangible y es llamado software. El término es propio del idioma
inglés (literalmente traducido: partes duras), su traducción al adoptado tal cual es y suena; la Real Academia Española lo define
como ‘’Conjunto de los componentes que integran la parte material de una computador’’. El término, aunque es lo más común,
no solamente se aplica a una computadora tal como se la conoce, ya que, por ejemplo, un robot, un teléfono móvil, una cámara
fotográfica o un reproductor multimedia también poseen hardware (y software).
El término hardware tampoco correspondería a un sinónimo exacto de «componentes informáticos», ya que esta última
definición se suele limitar exclusivamente a las piezas y elementos internos, independientemente de los periféricos.
La historia del hardware del computador se puede clasificar en cuatro generaciones, cada una caracterizada por un cambio
tecnológico de importancia. Este hardware se puede clasificar en: básico, el estrictamente necesario para el funcionamiento
normal del equipo; y complementario, el que realiza funciones específicas.
Un sistema informático se compone de una unidad central de procesamiento (CPU), encargada de procesar los datos, uno o
varios periféricos de entrada, los que permiten el ingreso de la información y uno o varios periféricos de salida, los que
posibilitan dar salida (normalmente en forma visual o auditiva) a los datos procesados.
1. Monitor
2. Placa base
3. CPU
4. Memoria RAM
5. Tarjeta de expansión
6. Fuente de alimentación
7. Unidad de disco óptico
8. Disco duro
9. Teclado
10. Ratón/Mouse
4. SOFTWARE
Existen varias definiciones similares aceptadas para software, pero probablemente la
más formal sea la siguiente:
Es el conjunto de los programas de cómputo, procedimientos, reglas, documentación y
datos asociados que forman parte de las operaciones de un sistema de computación.
Extraído del estándar 729 del IEEE
Considerando esta definición, el concepto de software va más allá de los programas de
computación en sus distintos estados: código fuente, binario o ejecutable; también su
documentación, los datos a procesar e incluso la información de usuario forman parte
del software: es decir, abarca todo lo intangible, todo lo «no físico» relacionado.
El término ’’software’’ fue usado por primera vez en este sentido por John W.
Tukey en 1957. En la ingeniería de software y las ciencias de la computación, el
software es toda la información procesada por los sistemas informáticos: programas
y datos.
El concepto de leer diferentes secuencias de instrucciones (programa) desde
la memoria de un dispositivo para controlar los cálculos fue introducido por Charles
Babbage, como parte de su máquina diferencial. La teoría que forma la base de la
mayor parte del software moderno fue propuesta por Alan Turing en su ensayo de 1936,
‘’Los números computables’’, con una aplicación al problema de decisión.
5.
6. MONITOR
El monitor de computadora o pantalla del ordenador, aunque también es común llamarlo «pantalla», es un dispositivo de
salida que, mediante una interfaz, muestra los resultados del procesamiento de una computadora.
Los primeros monitores surgieron en el año 1981, siguiendo el estándar MDA (Monochrome Display Adapter) eran monitores
monocromáticos (de un solo color) de IBM. Estaban expresamente diseñados para modo texto y soportaban subrayado,
negrita, cursiva, normal, e invisibilidad para textos. Poco después y en el mismo año salieron los monitores CGA (Color
Graphics Adapter-graficos adaptados a color) fueron comercializados en 1981 al desarrollarse la primera tarjeta gráfica a partir
del estándar CGA de IBM. Al comercializarse a la vez que los MDA los usuarios de PC optaban por comprar el monitor
monocromático por su costo.
Tres años más tarde surgió el monitor EGA (Enhanced Graphics Adapter - adaptador de graficos mejorados) estándar
desarrollado por IBM para la visualización de gráficos, este monitor aportaba más colores (16) y una mayor resolución. En 1987
surgió el estándar VGA (Video Graphics Array - graficos de video arreglados) fue un estándar muy acogido y dos años más
tarde se mejoró y rediseñó para solucionar ciertos problemas que surgieron, desarrollando así SVGA (Super VGA), que
también aumentaba colores y resoluciones, para este nuevo estándar se desarrollaron tarjetas gráficas de fabricantes hasta el
día de hoy conocidos como S3 Graphics, NVIDIA o ATI entre otros.
Con este último estándar surgieron los monitores CRT que hasta no hace mucho seguían estando en la mayoría de hogares
donde había un ordenador.
7. PLACA BASE
La placa base, también conocida como placa madre o tarjeta
madre (del inglés motherboard o mainboard) es una placa de circuito
impreso a la que se conectan los componentes que constituyen
la computadora u ordenador. Es una parte fundamental a la hora de armar
un pc de escritorio u portátil. Tiene instalados una serie de circuitos
integrados, entre los que se encuentra el chipset, que sirve como centro de
conexión entre el microprocesador, la memoria de acceso aleatorio (RAM),
las ranuras de expansión y otros dispositivos.
Va instalada dentro de una caja o gabinete que por lo general está hecha de
chapa y tiene un panel para conectar dispositivos externos y muchos
conectores internos y zócalos para instalar componentes dentro de la caja.
La placa base, además, incluye un firmware llamado BIOS, que le permite
realizar las funcionalidades básicas, como pruebas de los dispositivos,
vídeo y manejo del teclado, reconocimiento de dispositivos y carga
del sistema operativo.
8. UNIDAD CENTRAL DE
PROCESAMIENTO
‘’CPU’’ central de procesamiento o CPU (por el acrónimo en inglés de central processing unit), o simplemente
La unidad
el procesador o microprocesador, es el componente del computador y otros dispositivos programables, que interpreta
las instrucciones contenidas en los programas y procesa los datos. Los CPU proporcionan la característica fundamental de la
computadora digital (la programabilidad) y son uno de los componentes necesarios encontrados en las computadoras de
cualquier tiempo, junto con el almacenamiento primario y los dispositivos de entrada/salida. Se conoce
como microprocesador el CPU que es manufacturado con circuitos integrados. Desde mediados de los años 1970, los
microprocesadores de un solo chip han reemplazado casi totalmente todos los tipos de CPU, y hoy en día, el término "CPU" es
aplicado usualmente a todos los microprocesadores.
La expresión "unidad central de proceso" es, en términos generales, una descripción de una cierta clase de máquinas de lógica
que pueden ejecutar complejos programas de computadora. Esta amplia definición puede fácilmente ser aplicada a muchos de
los primeros computadores que existieron mucho antes que el término "CPU" estuviera en amplio uso. Sin embargo, el término
en sí mismo y su acrónimo han estado en uso en la industria de la informática por lo menos desde el principio de los años
1960. La forma, el diseño y la implementación de los CPU ha cambiado drásticamente desde los primeros ejemplos, pero su
operación fundamental ha permanecido bastante similar.
Los primeros CPU fueron diseñados a la medida como parte de una computadora más grande, generalmente una computadora
única en su especie. Sin embargo, este costoso método de diseñar los CPU a la medida, para una aplicación particular, ha
desaparecido en gran parte y se ha sustituido por el desarrollo de clases de procesadores baratos y estandarizados adaptados
para uno o muchos propósitos. Esta tendencia de estandarización comenzó generalmente en la era de
los transistores discretos, computadoras centrales, y microcomputadoras, y fue acelerada rápidamente con la popularización
del circuito integrado (IC), éste ha permitido que sean diseñados y fabricados CPU más complejos en espacios pequeños (en la
orden de milímetros). Tanto la miniaturización como la estandarización de los CPU han aumentado la presencia de estos
dispositivos digitales en la vida moderna mucho más allá de las aplicaciones limitadas de máquinas de computación dedicadas.
Los microprocesadores modernos aparecen en todo, desde automóviles, televisores, neveras, calculadoras, aviones,
hasta teléfonos móviles o celulares, juguetes, entre otros.
9. MEMORIA DE ACCESO DIRECTO
‘’RAM’’
La memoria de acceso aleatorio (en inglés: random-access memory, cuyo acrónimo es RAM) es
la memoria desde donde el procesador recibe las instrucciones y guarda los resultados.
La historia está marcada por la necesidad del volumen de datos. Originalmente, los datos eran programados
por el usuario con movimientos de interruptores. Se puede decir que el movimiento de datos era bit a bit. Las
necesidades apuntaron a una automatización y se crearon lo que se denomina byte de palabra. Desde una
consola remota, se trasladaban los interruptores asignándoles valores de letra, que correspondían a una
orden de programación al microprocesador. Así, si se deseaba programar una orden NOT con dos
direcciones distintas de memoria, solo se tenía que activar el grupo de interruptores asociados a la letra N, a
la letra O y a la letra T. Seguidamente, se programaban las direcciones de memoria sobre las cuales
recibirían dicho operador lógico, para después procesar el resultado. Los interruptores evolucionaron
asignándoles una tabla de direccionamiento de 16x16 bytes, en donde se daban 256 valores de byte
posibles (la actual tabla ASCII). En dicha tabla, se traducen lo que antes costaba activar 8 interruptores por
letra, a una pulsación por letra (de cara al recurso humano, un ahorro en tiempos. Una sola pulsación,
predisponía 1 byte en RAM... o en otras palabras, cambiaba la posición de 8 interruptores con una sola
pulsación). Se usó el formato de máquina de escribir, para representar todo el alfabeto latino, necesario para
componer palabras en inglés; así como los símbolos aritméticos y lógicos que permitían la escritura de un
programa directamente en memoria RAM a través de una consola o teclado.
10. TARJETA DE
EXPANSIÓN
Las tarjetas de expansión son dispositivos con diversos circuitos
integrados, y controladores que, insertadas en sus
correspondientes ranuras de expansión, sirven para ampliar las
capacidades de un ordenador. Las tarjetas de expansión más comunes
sirven para añadir memoria, controladoras de unidad de disco,
controladoras de vídeo, puertos serie o paralelo y dispositivos de módem
internos. Por lo general, se suelen utilizar indistintamente los términos
«placa» y «tarjeta» para referirse a todas las tarjetas de expansión.
En la actualidad las tarjetas suelen ser de tipo PCI, PCI Express o AGP.
Como ejemplo de tarjetas que ya no se utilizan tenemos la de tipo Bus ISA.
Gracias al avance en la tecnología USB y a la integración de audio, video o
red en la placa base, hoy en día son menos imprescindibles para tener un
PC completamente funcional.
11. FUENTE DE ALIMENTACION
En electrónica, una fuente de alimentación es un dispositivo que convierte la tensión alterna de la red de suministro, en una o
varias tensiones, prácticamente continuas, que alimentan los distintos circuitos del aparato electrónico al que se conecta
(ordenador, televisor, impresora, router, etc.).
Una especificación fundamental de las fuentes de alimentación es el rendimiento, que se define como la potencia total de
salida entre la potencia activa de entrada. Como se ha dicho antes, las fuentes conmutadas son mejores en este aspecto.
El factor de potencia es la potencia activa entre la potencia aparente de entrada. Es una medida de la calidad de la corriente.
Aparte de disminuir lo más posible el rizado, la fuente debe mantener la tensión de salida al voltaje solicitado
independientemente de las oscilaciones de la línea, regulación de línea o de la carga requerida por el circuito, regulación de
carga.
Una fuente conmutada es un dispositivo electrónico que transforma energía eléctrica mediante transistores en conmutación.
Mientras que un regulador de tensión utiliza transistores polarizados en su región activa de amplificación, las fuentes
conmutadas utilizan los mismos conmutándolos activamente a altas frecuencias (20-100 Kilociclos típicamente) entre corte
(abiertos) y saturación (cerrados). La forma de onda cuadrada resultante es aplicada a transformadores con núcleo
de ferrita (Los núcleos de hierro no son adecuados para estas altas frecuencias) para obtener uno o varios voltajes de salida de
corriente alterna (CA) que luego son rectificados (Con diodos rápidos) y filtrados (inductores y condensadores) para obtener los
voltajes de salida de corriente continua (CC). Las ventajas de este método incluyen menor tamaño y peso del núcleo, mayor
eficiencia y por lo tanto menor calentamiento. Las desventajas comparándolas con fuentes lineales es que son mas complejas
y generan ruido eléctrico de alta frecuencia que debe ser cuidadosamente minimizado para no causar interferencias a equipos
próximos a estas fuentes.
Las fuentes conmutadas tienen por esquema: rectificador, conmutador, transformador, otro rectificador y salida.
La regulación se obtiene con el conmutador, normalmente un circuito PWM (Pulse Width Modulation) que cambia el ciclo de
trabajo. Aquí las funciones del transformador son las mismas que para fuentes lineales pero su posición es diferente. El
segundo rectificador convierte la señal alterna pulsante que llega del transformador en un valor continuo. La salida puede ser
también un filtro de condensador o uno del tipo LC.
Las ventajas de las fuentes lineales son una mejor regulación, velocidad y mejores características EMC. Por otra parte las
conmutadas obtienen un mejor rendimiento, menor coste y tamaño.
12. UNIDAD DE DISCO OPTICO
En informática, una unidad de disco óptico es una unidad de disco que usa una
luz láser u ondas electromagnéticas cercanas al espectro de la luz como parte del
proceso de lectura o escritura de datos desde o a discos ópticos. Algunas unidades solo
pueden leer discos, pero las unidades más recientes usualmente son
tanto lectoras como grabadoras. Para referirse a las unidades con ambas
capacidades se suele usar el término lectograbadora. Los discos
compactos (CD), DVD, y Blu-ray Disc son los tipos de medios ópticos más comunes
que pueden ser leídos y grabados por estas unidades.
Las unidades de discos ópticos son una parte integrante de los aparatos de consumo
autónomos como los reproductores de CD,reproductores de DVD y grabadoras de
DVD. También son usados muy comúnmente en las computadoras para leer software y
medios de consumo distribuidos en formato de disco, y para grabar discos para el
intercambio y archivo de datos. Las unidades de discos ópticos (junto a las memorias
flash) han desplazado a las disqueteras y a las unidades de cintas magnéticas para
este propósito debido al bajo coste de los medios ópticos y la casi ubicuidad de las
unidades de discos ópticos en las computadoras y en hardware de entretenimiento de
consumo.
La grabación de discos en general es restringida a la distribución y copiado de
seguridad a pequeña escala, siendo más lenta y más cara en términos materiales por
unidad que el proceso de moldeo usado para fabricar discos planchados en masa.
13. DISCO DURO
En informática, un disco duro o disco rígido (en inglés Hard Disk Drive, HDD) es un dispositivo de almacenamiento de
datos no volátil que emplea un sistema de grabación magnética para almacenar datos digitales. Se compone de uno o
más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada
plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada
por la rotación de los discos.
El primer disco duro fue inventado por IBM en 1956. A lo largo de los años, los discos duros han disminuido su precio al mismo
tiempo que han multiplicado su capacidad, siendo la principal opción de almacenamiento secundario para PC desde su
aparición en los años 60.1 Los discos duros han mantenido su posición dominante gracias a los constantes incrementos en la
densidad de grabación, que se ha mantenido a la par de las necesidades de almacenamiento secundario. 1
Los tamaños también han variado mucho, desde los primeros discos IBM hasta los formatos estandarizados actualmente: 3,5"
los modelos para PCs y servidores, 2,5" los modelos para dispositivos portátiles. Todos se comunican con la computadora a
través del controlador de disco, empleando una interfaz estandarizado. Los más comunes hoy día son IDE (también llamado
ATA o PATA), SCSI (generalmente usado enservidores y estaciones de trabajo), Serial ATA y FC (empleado exclusivamente
en servidores).
Para poder utilizar un disco duro, un sistema operativo debe aplicar un formato de bajo nivel que defina una o más particiones.
La operación de formateo requiere el uso de una fracción del espacio disponible en el disco, que dependerá del formato
empleado. Además, los fabricantes de discos duros, SSD y tarjetas flash miden la capacidad de los mismos usando prefijos SI,
que emplean múltiplos de potencias de 1000 según la normativa IEC, en lugar de los prefijos binarios clásicos de la IEEE, que
emplean múltiplos de potencias de 1024, y son los usados mayoritariamente por los sistemas operativos. Esto provoca que en
algunos sistemas operativos sea representado como múltiplos 1024 o como 1000, y por tanto existan ligeros errores, por
ejemplo un Disco duro de 500 GB, en algunos sistemas operativos sea representado como 465 GiB (Según la IEC Gibibyte, o
Gigabyte binario, que son 1024 Mebibytes) y en otros como 465 GB.
Existe otro tipo de almacenamiento que recibe el nombre de Unidades de estado sólido; aunque tienen el mismo uso y emplean
las mismas interfaces, no están formadas por discos mecánicos, sino por memorias de circuitos integrados para almacenar la
información. El uso de esta clase de dispositivos anteriormente se limitaba a las supercomputadoras, por su elevado precio,
aunque hoy en día ya son muchísimo más asequibles para el mercado doméstico. 2
14. TECLADO
En informática un teclado es un periférico de entrada o dispositivo, en parte inspirado en el teclado de
las máquinas de escribir, que utiliza una disposición de botones o teclas, para que actúen como
palancas mecánicas o interruptores electrónicos que envían información a la computadora. Después de
las tarjetas perforadas y las cintas de papel, la interacción a través de los teclados al estilo teletipo se
convirtió en el principal medio de entrada para las computadoras. El teclado tiene entre 99 y 127 teclas
aproximadamente, y está dividido en cuatro bloques:
1. Bloque de funciones: Va desde la tecla F1 a F12, en tres bloques de cuatro: de F1 a F4, de F5 a F8 y
de F9 a F12. Funcionan de acuerdo al programa que esté abierto. Por ejemplo, en muchos programas al
presionar la tecla F1 se accede a la ayuda asociada a ese programa.
2. Bloque alfanumérico: Está ubicado en la parte inferior del bloque de funciones, contiene los números
arábigos del 1 al 0 y el alfabeto organizado como en una máquina de escribir, además de algunas teclas
especiales.
3. Bloque especial: Está ubicado a la derecha del bloque alfanumérico, contiene algunas teclas
especiales como Imp Pant, Bloq de desplazamiento, pausa, inicio, fin, insertar, suprimir, RePag, AvPag,
y las flechas direccionales que permiten mover el punto de inserción en las cuatro direcciones.
4. Bloque numérico: Está ubicado a la derecha del bloque especial, se activa al presionar la tecla Bloq
Num, contiene los números arábigos organizados como en una calculadora con el fin de facilitar la
digitación de cifras. Además contiene los signos de las cuatro operaciones básicas: suma +, resta -,
multiplicación * y división /; también contiene una tecla de Intro o Enter
15. RATON/MOUSE
El ratón o mouse (del inglés, pronunciado [maʊs]) es
un dispositivo apuntador utilizado para facilitar el manejo
de un entorno gráfico en un computador. Generalmente
está fabricado en plástico y se utiliza con una de
las manos. Detecta su movimiento relativo en dos
dimensiones por la superficie plana en la que se apoya,
reflejándose habitualmente a través de un puntero o
flecha en el monitor.
Hoy en día es un elemento imprescindible en un equipo
informático para la mayoría de las personas, y pese a la
aparición de otras tecnologías con una función similar,
como la pantalla táctil, la práctica ha demostrado que
tendrá todavía muchos años de vida útil. No obstante, en
el futuro podría ser posible mover el cursor o el puntero
con los ojos o basarse en el reconocimiento de voz.