3. CONCEPTO
•El concepto de tecnología de la información refiere
al uso de equipos de telecomunicaciones y
computadoras (ordenadores) para la transmisión, el
procesamiento y el almacenamiento de datos. La
noción abarca cuestiones propias de la informática,
la electrónica y las telecomunicaciones.
4.
5. Historia de la informática
• Antes de empezar con la historia debemos conocer la definición de
informática. Informática se puede definir como la ciencia que se
encarga del estudio de la obtención de información por medios
automáticos. Para entender mejor esta definición hace falta conocer
lo que entiende por información, datos y medios automáticos. Los
datos los podemos entender como el conjunto de elementos a través
de indicaciones, que se deben dar a cierta máquina para que los
procese y nos de un resultado. La información será el conjunto de
datos y los resultados que nos da la máquina. Un medio automático lo
podemos entender como una máquina capaz, por ella sola, de
elaborar o procesar una cierta información sobre la base de unos
ciertos datos de entrada que nos condicionarán los resultados del
procesamiento de esta.
6.
7. Almacenamiento de datos
• Las primeras computadoras electrónicas, como la Colossus, hacían uso de cintas
perforadas, una larga tira de papel en donde los datos son representados por una
serie de agujeros, una tecnología ahora obsoleta. El almacenamiento electrónico
de datos usado por las computadoras modernas data de la Segunda Guerra
Mundial, cuando una forma de memoria de línea de retardo fue desarrollada
para eliminar el desorden de las señales de radar; la primera aplicación práctica
de esto fue la línea de retardo de mercurio. El primer dispositivo de
almacenamiento digital de acceso aleatorio fue el Tubo Williams, basado en un
tubo de rayos catódicos estándar, pero la información almacenada en ella y en la
memoria de línea de retardo era volátil, por lo que debía ser continuamente
refrescada, y por lo tanto se perdía una vez que se desconectaba de la energía. La
primera forma de almacenamiento computacional no volátil fue la memoria de
tambor, inventada en 1932 y usada en la Ferranti Mark I, la primera computadora
de uso general disponible comercialmente.
8.
9. Bases de datos
• Los sistemas de administración de bases de datos surgieron en la
década de 1960 para abordar el problema de almacenar y recuperar
grandes cantidades de datos de manera precisa y rápida. Uno de los
primeros sistemas fue el Information Management System de IBM, el
cual sigue siendo ampliamente implementado más de 40 años
después. El IMS almacena datos jerárquicamente, pero en la década
de 1970, Ted Codd propuso como alternativa los modelos de
almacenamiento relacionales basándose en la teoría de conjuntos y
en la lógica de predicados y en conceptos familiares como lo son las
tablas, filas y columnas. El primer sistema de gestión de bases de
datos relacionales (RDBMS del inglés: Relational Database
Management System) comercial disponible fue el de Oracle en 1980.
10. Recuperación de datos
• El modelo relacional introdujo un lenguaje de programación independiente
llamado Structured Query Language (SQL), basado en el álgebra relacional.
El término “dato” e “información” no son sinónimos. Cualquier cosa
almacenada es un dato, pero solo se transforma en información cuando es
organizada y presentada de forma significativa. La mayoría de los datos
digitales a nivel mundial están desestructurados y almacenados en una
variedad de diferentes formatos físicos, incluyó aquellos pertenecientes a
una misma organización. Los almacenes de datos comenzaron a ser
desarrollados en la década de 1980 para integrar estos diversos depósitos
de datos. Por lo general contienen datos extraídos de variadas fuentes,
incluidas fuentes externas como Internet, y organizadas de tal manera que
sirva a los Sistemas de Soporte a Decisiones (DSS por sus siglas en inglés
Decision Support System).
11. Transmisión de datos
• La transmisión de datos contempla tres etapas: transmisión,
propagación y recepción. Puede ser ampliamente categorizada como
broadcasting, en donde la información es transmitida unidireccional y
descendentemente, o como telecomunicación, con canales
bidireccionales tanto ascendentes como descendentes. XML ha sido
empleado cada vez más como medio de intercambio de información
desde comienzos de la década de 2000, particularmente para
interacciones orientadas a la máquina como aquellas involucradas en
protocolos web como SOAP, describiendo “datos en tránsito en vez de
datos en reposo”. Uno de los retos de su uso es convertir datos de
una base de datos relacional en estructuras como la Document Object
Model o DOM.
12. Manipulación de datos
• Hilbert y López identificaron un ritmo exponencial de cambio tecnológico (una
especie de Ley de Moore): la capacidad per cápita de las máquinas de uso
específico para procesar información se duplicó aproximadamente cada 14 meses
entre 1986 y 2007; la capacidad per cápita de las computadoras de uso general se
duplicó cada 18 meses durante las mismas dos décadas; la capacidad mundial de
telecomunicaciones per cápita se duplicó cada 34 meses; la capacidad de
almacenaje global per cápita necesitó aproximadamente 40 meses para
duplicarse (cada tres años); y la información difundida per cápita se duplicó cada
12,3 años.5 Enormes cantidades de datos son almacenados cada día a nivel
mundial, pero a menos que pueda ser analizada y presentada de manera efectiva
se cataloga en lo que se han llamado tumbas de datos: “archivos de datos que
rara vez son visitados”. Para abarcar ese problema, el campo de la minería de
datos (“el proceso de descubrir patrones interesantes y conocimiento desde
grandes cantidades de datos”) emergió a finales de la década de 1980.