1. Una computadora o
computador (del inglés
computer y este del latín
computare -calcular),
también denominada
ordenador (del francés
ordinateur, y este del latín
ordinator), es una máquina
electrónica que recibe y
procesa datos para
convertirlos en información
útil.
2. La característica principal
que la distingue de otros
dispositivos similares, como
la calculadora no
programable, es que es
una máquina de propósito
general, es decir, puede
realizar tareas muy
diversas, de acuerdo a las
posibilidades que brinde
los lenguajes de
programación y el
hardware
3. Índice
1 Arquitectura
2 Periféricos y dispositivos
auxiliares
› 2.1 Monitor
› 2.2 Teclado
› 2.3 Ratón
› 2.4 Impresora
› 2.5 Escáner
› 2.6 Impresora multifunción
› 2.7 Almacenamiento Secundario
› 2.8 Altavoces
3 Otros conceptos y
curiosidades
4 Etimología de la palabra
ordenador
5 Véase también
› 5.1 Historia
› 5.2 Tipos de computadoras
› 5.3 Componentes y periféricos
4. A pesar de que las
tecnologías empleadas
en las computadoras
digitales han cambiado
mucho desde que
aparecieron los primeros
modelos en los años 40,
la mayoría todavía utiliza
la Arquitectura de von
Neumann, publicada a
principios de los años
1940 por John von
Neumann, que otros
autores atribuyen a John
Presper Eckert y John
William Mauchly.
5. La memoria es una secuencia de
celdas de almacenamiento
numeradas, donde cada una es un bit
o unidad de información. La
instrucción es la información necesaria
para realizar lo que se desea con el
computador. Las «celdas» contienen
datos que se necesitan para llevar a
cabo las instrucciones, con el
computador.
La unidad aritmético lógica o ALU es el
dispositivo diseñado y construido para
llevar a cabo las operaciones
elementales como las operaciones
aritméticas (suma, resta, ...),
operaciones lógicas (Y, O, NO), y
operaciones de comparación o
relacionales. En esta unidad es en
donde se hace todo el trabajo
computacional
6. El monitor o pantalla de
computadora, es un
dispositivo de salida que,
mediante una interfaz,
muestra los resultados, o los
gráficos del procesamiento
de una computadora.
Existen varios tipos de
monitores: los de tubo de
rayos catódicos (o CRT), los
de pantalla de plasma
(PDP), los de pantalla de
cristal líquido (o LCD), de
paneles de diodos
orgánicos de emisión de
luz (OLED), o Láser-TV, entre
otros.
7. Un teclado de computadora es
un periférico, físico o virtual (por
ejemplo teclados en pantalla o
teclados táctiles), utilizado para la
introducción de órdenes y datos
en una computadora. Tiene su
origen en los teletipos y las
máquinas de escribir
eléctricas, que se utilizaron como
los teclados de los primeros
ordenadores y dispositivos de
almacenamiento (grabadoras de
cinta de papel y tarjetas
perforadas). Aunque físicamente
hay una miríada de formas, se
suelen clasificar principalmente
por la distribución de teclado de
su zona alfanumérica, pues salvo
casos muy especiales es común a
todos los dispositivos y fabricantes
(incluso para teclados árabes y
japoneses).
8. El mouse (del inglés, pronunciado
[ˈmaʊs]) o ratón es un periférico
de computadora de uso manual,
utilizado como entrada o control
de datos. Se utiliza con una de las
dos manos del usuario y detecta
su movimiento relativo en dos
dimensiones por la superficie
horizontal en la que se apoya,
reflejándose habitualmente a
través de un puntero o flecha en
el monitor. Anteriormente, la
información del desplazamiento
era transmitida gracias al
movimiento de una bola debajo
del ratón, la cual accionaba dos
rodillos que correspondían a los
ejes X e Y. Hoy, el puntero
reacciona a los movimientos
debido a un rayo de luz que se
refleja entre el ratón y la superficie
en la que se encuentra..
9. Una impresora es un periférico de
computadora que permite
producir una copia permanente
de textos o gráficos de
documentos almacenados en
formato electrónico, imprimiendo
en papel de lustre los datos en
medios físicos, normalmente en
papel o transparencias, utilizando
cartuchos de tinta o tecnología
láser. Muchas impresoras son
usadas como periféricos, y están
permanentemente unidas a la
computadora por un cable.
Otras impresoras, llamadas
impresoras de red, tienen una
interfaz de red interna
(típicamente wireless o Ethernet),
y que puede servir como un
dispositivo para imprimir en papel
algún documento para cualquier
usuario de la red. Hoy en día se
comercializan impresoras
10. En informática, un
escáner (del idioma
inglés: scanner) es un
periférico que se utiliza
para convertir,
mediante el uso de la
luz, imágenes o
cualquier otro impreso
a formato digital.
Actualmente vienen
unificadas con las
impresoras formando
multifunciones
11. El disco duro es un sistema de
grabación magnética digital, es
donde en la mayoría de los casos
reside el Sistema operativo de la
computadora. En los discos duros se
almacenan los datos del usuario. En él
encontramos dentro de la carcasa
una serie de platos metálicos apilados
girando a gran velocidad. Sobre estos
platos se sitúan los cabezales
encargados de leer o escribir los
impulsos magnéticos.
Una unidad de estado sólido es un
sistema de memoria no volátil. Están
formados por varios chips de memoria
NAND Flash en su interior unidos a una
controladora que gestiona todos los
datos que se transfieren. Tienen una
gran tendencia a suceder
definitivamente a los discos duros
mecánicos por su gran velocidad y
tenacidad. Al no estar formadas por
discos en ninguna de sus maneras, no
se pueden categorizar como
tal, aunque erróneamente se tienda a
ello.
12. Los altavoces se utilizan
para escuchar los sonidos
emitidos por el
computador, tales como
música, sonidos de
errores, conferencias, etc.
Altavoces de las placas
base: Las placas base
suelen llevar un dispositivo
que emite pitidos para
indicar posibles errores o
procesos, o para indicar
acciones para las personas
con discapacidades
visuales, como la
activación del bloq
num, bloq mayus.
13. En la actualidad se puede tener la
impresión de que los computadores
están ejecutando varios programas al
mismo tiempo. Esto se conoce como
multitarea, y es más común que se
utilice el segundo término. En
realidad, la CPU ejecuta instrucciones
de un programa y después tras un
breve periodo de tiempo, cambian a
un segundo programa y ejecuta
algunas de sus instrucciones. Esto crea
la ilusión de que se están ejecutando
varios programas
simultáneamente, repartiendo el
tiempo de la CPU entre los programas.
Esto es similar a la película que está
formada por una sucesión rápida de
fotogramas. El sistema operativo es el
programa que generalmente controla
el reparto del tiempo. El
procesamiento simultáneo viene con
computadoras de más de un CPU, lo
que da origen al multiprocesamiento.
El sistema operativo es una especie de
caja de herramientas lleno de utilerías
que sirve para decidir, por ejemplo,
qué programas se ejecutan, y cuándo,
y qué fuentes (memoria o dispositivos
E/S) se utilizan. El sistema operativo
tiene otras funciones que ofrecer a
otros programas, como los códigos
que sirven a los programadores,
escribir programas para una máquina
sin necesidad de conocer los detalles
internos de todos los dispositivos
electrónicos conectados.
14. La palabra española
ordenador proviene del
término francés ordinateur, en
referencia a Dios que pone
orden en el mundo ("Dieu qui
met de l'ordre dans le
monde").1 En parte por
cuestiones de
marketing, puesto que la
descripción realizada por IBM
para su introducción en
Francia en 1954 situaba las
capacidades de actuación
de la máquina cerca de la
omnipotencia, idea
equivocada que perdura hoy
en día al considerar que la
máquina universal de Turing
es capaz de computar
absolutamente todo
15. informática es una ciencia que estudia
métodos, procesos, técnicas, con el fin de
almacenar, procesar y transmitir información y
datos en formato digital. La informática se ha
desarrollado rápidamente a partir de la
segunda mitad del siglo XX, con la aparición
de tecnologías tales como el circuito
integrado, Internet y el teléfono móvil.
16. En 1957 Karl Steinbuch acuñó la palabra alemana Informatik en la
publicación de un documento denominado Informatik: Automatische
Informationsverarbeitung (Informática: procesamiento automático de
información). En ruso, Alexander Ivanovich Mikhailov fue el primero en
utilizar informatika con el significado de «estudio, organización, y la
diseminación de la información científica», que sigue siendo su
significado en dicha lengua.[cita requerida]. En inglés, la palabra Informatics
fue acuñada independiente y casi simultáneamente por Walter F. Bauer,
en 1962, cuando Bauer cofundó la empresa denominada «Informatics
General, Inc.». Dicha empresa registró el nombre y persiguió a las
universidades que lo utilizaron, forzándolas a utilizar la alternativa
computer science. La Association for Computing Machinery, la mayor
organización de informáticos del mundo, se dirigió a Informatics General
Inc. para poder utilizar la palabra informatics en lugar de computer
machinery, pero la empresa se negó. Informatics General Inc. cesó sus
actividades en 1985, pero para esa época el nombre de computer
science estaba plenamente arraigado. Actualmente los angloparlantes
utilizan el término computer science, traducido a veces como «Ciencias
de la computación», para designar tanto el estudio científico como el
aplicado; mientras que designan como information technology ( o data
processing, traducido a veces como «tecnologías de la información», al
conjunto de tecnologías que permiten el tratamiento automatizado de
información.
Índice
19. El vocablo informática proviene
del alemán informatik acuñado
por Karl Steinbuch en 1957.
Pronto, adaptaciones locales del
término aparecieron en francés,
italiano, español, rumano,
portugués y holandés, entre otras
lenguas, refiriéndose a la
aplicación de las computadoras
para almacenar y procesar la
información. El término es una
contracción de las palabras
information y automatic
(información automática). En lo
que hoy día conocemos como
informática confluyen muchas de
las técnicas, procesos y máquinas
(ordenadores) que el hombre ha
desarrollado a lo largo de la
historia para apoyar y potenciar
su capacidad de memoria, de
pensamiento y de comunicación.
20. En los inicios del proceso de
información, con la
informática sólo se facilitaban
los trabajos repetitivos y
monótonos del área
administrativa. La
automatización de esos
procesos trajo como
consecuencia directa una
disminución de los costos y un
incremento en la
productividad. En la
informática convergen los
fundamentos de las ciencias
de la computación, la
programación y metodologías
para el desarrollo de software,
la arquitectura de
computadores, las redes de
computadores
Entre las funciones principales
de la informática se cuentan
las siguientes:
Creación de nuevas
especificaciones de trabajo
Desarrollo e implementación
de sistemas informáticos
Sistematización de procesos
Optimización de los métodos
y sistemas informáticos
existentes
Facilita la automatización de
datos
21. Los sistemas
computacionales, generalme
nte implementados como
dispositivos
electrónicos, permiten el
procesamiento automático
de la información. Conforme
a ello, los sistemas
informáticos deben realizar las
siguientes tres tareas básicas:
Entrada: captación de la
información.
Proceso: tratamiento de la
información.
Salida: transmisión de
resultados.
22. Sistemas de mando y control, son sistemas basados en la
mecánica y motricidad de dispositivos que permiten al
usuario localizar, dentro de la logística, los elementos que
se demandan. Están basados en la electricidad, o
sea, no en el control del flujo del electrón, sino en la
continuidad o discontinuidad de una corriente
eléctrica, si es alterna o continua o si es
inducida, contrainducida, en fase o desfase (ver
periférico de entrada).
Sistemas de archivo, son sistemas que permiten el
almacenamiento a largo plazo de información que no se
demandará por un largo periodo de tiempo. Estos
sistemas usan los conceptos de biblioteca para localizar
la información demandada.
Código ASCII, Es un método para la correspondencia de
cadenas de bits permitiendo de esta forma la
comunicación entre dispositivos digitales así como su
proceso y almacenamiento, en la actualidad todos los
sistemas informáticos utilizan el código ASCII para
representar textos, gráficos, audio e infinidad de
información para el control y manipulación de
dispositivos digitales.
23. Los virus informáticos son programas que se introducen
en un ordenador, sin conocimiento del usuario, para
ejecutar en él acciones no deseadas. Estas acciones
son:
Unirse a un programa.
Mostrar mensajes o imágenes, generalmente molestas.
Ralentizar o bloquear el ordenador.
Destruir la información almacenada.
Reducir el espacio en el disco.
Los tipos de virus informáticos que existen son:
Gusanos: recogiendo información, contraseñas, para
enviarla a otro.
Bombas lógicas o de tiempo: que se activan cuando
sucede algo especial, como puede ser una fecha.
Troyanos: hace que los ordenadores vallan más lentos.
Falsos virus: información falsa.
Estos virus se pueden prevenir:
Haciendo copias de seguridad.
Copias de programas originales.
Rechazo de copias de origen dudoso.
Uso de contraseñas.
24. Sistemas de mando y control, son sistemas basados en la
mecánica y motricidad de dispositivos que permiten al
usuario localizar, dentro de la logística, los elementos que
se demandan. Están basados en la electricidad, o sea, no
en el control del flujo del electrón, sino en la continuidad o
discontinuidad de una corriente eléctrica, si es alterna o
continua o si es inducida, contrainducida, en fase o
desfase (ver periférico de entrada).
Sistemas de archivo, son sistemas que permiten el
almacenamiento a largo plazo de información que no se
demandará por un largo periodo de tiempo. Estos sistemas
usan los conceptos de biblioteca para localizar la
información demandada.
Código ASCII, Es un método para la correspondencia de
cadenas de bits permitiendo de esta forma la
comunicación entre dispositivos digitales así como su
proceso y almacenamiento, en la actualidad todos los
sistemas informáticos utilizan el código ASCII para
representar textos, gráficos, audio e infinidad de
información para el control y manipulación de dispositivos
digitales.
25. Teoría de la computación
Saltar a:
navegación, búsqueda
La teoría de la computación
es una rama de la
matemática y la
computación que centra su
interés en las limitaciones y
capacidades fundamentales
de las computadoras.
Específicamente esta teoría
busca modelos matemáticos
que formalizan el concepto
de hacer un cómputo
(cuenta o cálculo) y la
clasificación de problemas.
26. Teoría de autómatas
Esta teoría provee modelos matemáticos que formalizan el
concepto de computadora o algoritmo de manera
suficientemente simplificada y general para que se puedan
analizar sus capacidades y limitaciones. Algunos de estos
modelos juegan un papel central en varias aplicaciones de
las ciencias de la computación, incluyendo procesamiento
de texto, compiladores, diseño de hardware e inteligencia
artificial.
Los tres principales modelos son los autómatas
finitos, autómatas con pila y máquinas de Turing, cada uno
con sus variantes deterministas y no deterministas. Los
autómatas finitos son buenos modelos de computadoras
que tienen una cantidad limitada de memoria, los
autómatas con pila modelan los que tienen gran cantidad
de memoria pero que solo pueden manipularla a manera
de pila (el último dato almacenado es el siguiente leído), y
las máquinas de Turing modelan las computadoras que
tienen una gran cantidad de memoria almacenada en
una cinta.
27. Esta teoría explora los
límites de la posibilidad de
solucionar problemas
mediante algoritmos. Gran
parte de las ciencias
computacionales están
dedicadas a resolver
problemas de forma
algorítmica, de manera
que el descubrimiento de
problemas imposibles es
una gran sorpresa. La
teoría de la
computabilidad es útil
para no tratar de resolver
algoritmicamente estos
problemas, ahorrando así
tiempo y esfuerzo.
Los problemas se clasifican
en esta teoría de acuerdo
a su grado de
imposibilidad:
Los computables son
aquellos para los cuales sí
existe un algoritmo que
siempre los resuelve
cuando hay una solución y
además es capaz de
distinguir los casos que no
la tienen. También se les
conoce como
decidibles, resolubles o
recursivos
28. •Los semicomputables son aquellos para los cuales hay un algoritmo que es capaz
encontrar una solución si es que existe, pero ningún algoritmo que determine cuando la
solución no existe (en cuyo caso el algoritmo para encontrar la solución entraría a un
bucle infinito). El ejemplo clásico por excelencia es el problema de la parada. A estos
problemas también se les conoce como listables, recursivamente enumerables o
reconocibles, porque si se enlistan todos los casos posibles del problema, es posible
reconocer a aquellos que sí tienen solución.
•Los incomputables son aquellos para los cuales no hay ningún algoritmo que los
pueda resolver, no importando que tengan o no solución. El ejemplo clásico por
excelencia es el problema de la implicación lógica, que consiste en determinar cuándo
una proposición lógica es un teorema; para este problema no hay ningún algoritmo que
en todos los casos pueda distinguir si una proposición o su negación es un teorema.
29. Aun cuando un problema sea
computable, puede que no sea
posible resolverlo en la práctica si
se requiere mucha memoria o
tiempo de ejecución. La teoría de
la complejidad computacional
estudia las necesidades de
memoria, tiempo y otros recursos
computacionales para resolver
problemas; de esta manera es
posible explicar por qué unos
problemas son más difíciles de
resolver que otros. Uno de los
mayores logros de esta rama es la
clasificación de problemas, similar
a la tabla periódica, de acuerdo
a su dificultad. En esta
clasificación los problemas se
separan por clases de
complejidad.
30. Esta teoría tiene aplicación en casi
todas las áreas de conocimiento
donde se desee resolver un problema
computacionalmente, porque los
investigadores no solo desean utilizar
un método para resolver un
problema, sino utilizar el más rápido. La
teoría de la complejidad
computacional también tiene
aplicaciones en áreas como la
criptografía, donde se espera que
descifrar un código secreto sea un
problema muy difícil a menos que se
tenga la contraseña, en cuyo caso el
problema se vuelve fácil.