2. ¿QUÉ ES UNA COMPUTADORA?
Una computadora es una máquina electrónica que recibe y
procesa datos para convertirlos en información conveniente y
útil que posteriormente se envían a las unidades de salida. Sobre
la base de datos de entrada, puede realizar operaciones y
resolución de problemas en las más diversas áreas del quehacer
humano (administrativas, científicas, de diseño, ingeniería,
medicina, comunicaciones, música, etc.), incluso muchas
cuestiones que directamente no serían resolubles o posibles sin
su intervención. Un ordenador está formado físicamente por
numerosos circuitos integrados y muchos componentes de
apoyo, extensión y accesorios, que en conjunto pueden ejecutar
tareas diversas con suma rapidez y bajo el control de un
programa (software).
3. ¿CÓMO ESTÁ CONFORMADA UNA
COMPUTADORA?
Dos partes esenciales la constituyen, el hardware (hard = duro) que es su
estructura física (circuitos electrónicos, cables, gabinete, teclado, etc.), y
el software que es su parte intangible (programas, datos, información,
señales digitales para uso interno, etc.).
Desde el punto de vista funcional es una máquina que posee, al menos,
una unidad central de procesamiento, una memoria principal y algún
periférico o dispositivo de entrada y otro de salida. Los dispositivos de
entrada permiten el ingreso de datos, la CPU se encarga de su
procesamiento (operaciones aritmético-lógicas) y los dispositivos de
salida los comunican a otros medios. Es así, que la computadora recibe
datos, los procesa y emite la información resultante, la que luego puede
ser interpretada, almacenada, transmitida a otra máquina o dispositivo o
sencillamente impresa; todo ello a criterio de un operador o usuario y
bajo el control de un programa.
4. PRIMEROS COMPUTADORES
DIGITALES
• La primera computadora fue la máquina
analítica creada por Charles Babbage,
profesor matemático de la Universidad de
Cambridge e Ingeniero Ingles en el siglo XIX.
En 1823 el gobierno Británico lo apoyo para
crear el proyecto de una máquina de
diferencias, un dispositivo mecánico para
efectuar sumas repetidas. La idea que tuvo
Charles Babbage sobre un computador nació
debido a que la elaboración de las tablas
matemáticas era un proceso tedioso y
propenso a errores. Las características de
está maquina incluye una memoria que puede
almacenar hasta 1000 números de hasta 50 dígitos cada uno. Las operaciones a
ejecutar por la unidad aritmética son almacenados en una tarjeta perforadora. Se
estima que la maquina tardaría un segundo en realizar una suma y un minuto en una
multiplicación.
5. • La maquina de Hollerith. En la década de 1880 , la oficina del Censo de los
Estados Unidos , deseaba agilizar el
proceso del censo de 1890. Para llevar a
cabo esta labor , se contrato a Herman
Hollerith, un experto en estadística para que
diseñara alguna técnica que pudiera acelerar
el levantamiento y análisis de los datos
obtenidos en el censo. Entre muchas cosas,
Hollerith propuso la utilización de tarjetas
en las que se perforarían los datos , según
un formato prestablecido. una vez
perforadas las tarjetas , estas serian
tabuladas y clasificadas por maquinas
especiales. La idea de las tarjetas perforadas
no fue original de Hollerith. Él se baso en el
trabajo hecho en el telar de Joseph Jacquard
que ingenio un sistema donde la trama de un
diseño de una tela así como la información necesaria para realizar su confección
era almacenada en tarjetas perforadas. El telar realizaba el diseño leyendo la
información contenida en las tarjetas. De esta forma , se podían obtener varios
diseños , cambiando solamente las tarjetas.
6. • En 1944 se construyó en la Universidad de Harvard, La Mark I,
diseñada por un equipo encabezado por Howard H. Aiken. Este
computador tomaba seis segundos para efectuar una multiplicación y
doce para una división. Computadora basada en rieles (tenía aprox.
3000), con 800 kilómetros de cable, con dimensiones de 17 metros de
largo, 3 metros de alto y 1 de profundidad. Al Mark I se le hicieron
mejoras sucesivas, obteniendo así el Mark II, Mark III y Mark IV.
7. • En 1947 se construyó en la Universidad de Pennsylvania La ENIAC
(Electronic Numerical Integrator And Calculator) que fue la primera
computadora electrónica que
funcionaba con tubos al vacío, el
equipo de diseño lo encabezaron
los ingenieros John Mauchly y
John Eckert. Este computador
superaba ampliamente al Mark I,
ya que llegó a ser 1500 veces más
potente. En el diseño de este
computador fueron incluidas
nuevas técnicas de la electrónica
que permitían minimizar el uso
de partes mecánicas. Esto trajo
como consecuencia un incremento
Significativo en la velocidad de
procesamiento. Así , podía efectuar 5000 sumas o 500 multiplicaciones en un
segundo y permitía el uso de aplicaciones científicas en astronomía ,
meteorología, etc.
8. • La EDVAC (Electronic Discrete Variable Automatic Computer), construida en
La Universidad de Manchester, en Connecticut (EE.UU), en 1949 fue el primer
equipo con capacidad de
almacenamiento de
memoria e hizo desechar
a los otros equipos que
tenían que ser intercambios
o reconfigurados cada
vez que se usaban.
Tenía aproximadamente
cuatro mil bulbos y usaba
un tipo de memoria
basado en tubos llenos de
mercurio por donde
circulaban señales eléctricas sujetas a retardos. EDCAV pesaba aproximadamente
7850 kg y tenía una superficie de 150 m2.
En realidad EDVAC fue la primera verdadera computadora electrónica digital de
la historia, tal como se le concibe en estos tiempos y a partir de ella se empezaron
a fabricar arquitecturas más completas.
9. PRIMEROS COMPUTADORES
COMERCIALES
• La UNIVAC I: fue la primera computadora comercial fabricada en Estados Unidos,
entregada el 31 de marzo de 1951 a la oficina del censo. Fue diseñada principalmente por
J. Presper Eckert y John William Mauchly, autores de la primera computadora electrónica
estadounidense, la ENIAC.
Durante los años previos a la
aparición de sus sucesoras, la
máquina fue simplemente
conocida como "UNIVAC". Se
donó finalmente a la universidad
de Harvard y Pensilvania.
La Z3 de 1941 fue el primer
computador operativo, los
posteriores fueron proyectos
militares como el ENIAC de
1946 u ordenadores de uso específico, mientras que el UNIVAC I compitió por ser el
primer ordenador de uso general vendido comercialmente, pero perdió por un par de
meses ante el británico Ferranti Mark 1 vendido en febrero de 1951.
10. La IBM 701: 1953 brainiak. Para introducir los datos, estos equipos empleaban tarjetas
perforadas, que habían sido inventadas en los años de la revolución industrial (finales del
siglo XVIII) por el francés Joseph Marie Jacquard y perfeccionadas por el estadounidense
Herman Hollerith en 1890.
La IBM 701 fue la primera de
una larga serie de
computadoras de esta
compañía, que luego se
convertiría en la número uno,
por su volumen de ventas.
IBM 701, conocido como la
"calculadora de Defensa"
mientras era desarrollado, fue
anunciado al público el 29 de
abril de 1952 y era la primera
computadora científica comercial de IBM.1 Sus hermanos en la computación de oficina
eran el IBM 702 y el IBM 650. Durante los cuatro años de producción se vendieron 20
unidades.
1954 - IBM continuó con otros modelos, que incorporaban un mecanismo de
almacenamiento masivo llamado tambor magnético, que con los años evolucionaría y se
convertiría en el disco magnético.
11. La Z22 fue el séptimo modelo de computador que desarrolló Konrad Zuse (los
primeros seis fueron las computadoras Z1, Z2, Z3, Z4, Z5 y Z11, respectivamente).
El mayor salto entre la Z11 y la Z22
fue el uso de tubos de vacío, a
diferencia de los modelos anteriores
que usaban dispositivos
electromecánicos. Fue una
computadora comercial, y su diseño
finalizó en 1955. Las primeras
máquinas se vendieron a Berlín y a
Aquisgrán.
Se dice que la Z22 fue la primera
computadora con memoria de
núcleos magnéticos. Pero las
memorias magnéticas ya trabajaban en modelos militares. La computadora
Whirlwind usaba memoria de núcleos magnéticos en 1953.
La Universidad de Ciencias Aplicadas de Karlsruhe (Fachhochschule Karlsruhe)
tiene una Z22 operativa.
12. LA INVENCIÓN DEL CIRCUITO
INTEGRADO
La idea de integrar circuitos electrónicos en un solo dispositivo nació cuando el físico
alemán e ingeniero Werner Jacobi Erfinder desarrolló y patentó el primer amplificador
de transistor integrado conocido en 1949 y el ingeniero británico de radio Geoffrey
Dummer propuso la integración de una variedad de componentes electrónicos
estándares en un cristal monolítico semiconductor en
1952. Un año después, Harwick Johnson hizo una patente
para el prototipo de un circuito integrado (CI).
Tales ideas no pudieron ser implementadas
en la industria de 1950, pero un
hallazgo ocurrió en los últimos
años de esa década. En 1958, 3
personas de 3 compañías de los
Estados Unidos de Norteamérica
resolvieron 3 problemas fundamentales que
impedían la producción de circuitos integrados.
Jack Kilby de Texas Instruments patentó el principio de integración, creó el primer
prototipo de CI y los comercializó. Kurt Lehovec de Sprague Electric Company
inventó una manera de aislar eléctricamente los componentes en un cristal
semiconductor.
13. Robert Noyce de Fairchild Semiconductor inventó una manera de conectar los
componentes de un CI (metalización de aluminio) y propuso una versión
mejorada de la asolación basada en la tecnología planar de Jean Hoerni. El 27 de
septiembre de 1960, usando las ideas de Noyce y Hoerni, un grupo de Jay Last en
Fairchild Semiconductor creo el primer CI
semiconductor operacional.
Texas Instruments, que había
mantenido la patente
para la invención de
Kilby, comenzó una
guerra de patentes, que
fue arreglada en 1966 por
el acuerdo de una licencia
cruzada. No hay consenso
sobre quien inventó el CI. La prensa Americana de 1960 nombró a 4 personas:
Kilby, Lehovec, Noyce y Hoerni; en 1970 la lista fue acortada a Kilby y Noyce, y
después a Kilby, quien fue honrado en el 2000 con el Premio Nobel de Física “por
su participación en la invención del circuito integrado”. En los 2000, los
historiadores Leslie Berlin, Bo Lojek y Arjun Saxena re-instauraron la idea de
múltiples inventores del CI y revisaron la contribución de Kilby.
14. EL NACIMIENTO DE SILICÓN
VALLEY
Los primeros transistores fueron hechos de germanio. A mediados de 1950 fue
reemplazado por silicón, el cual permitía la operación a altas temperaturas. En
1954, Gordon Kidd Teal de Texas Instruments produjo el primer
transistor de silicón, comercializado en 1955. También en 1954,
Fuller y Dittsenberger publicaron un estudio fundamental en la
difusión del silicón y Schockley sugirió el uso de tecnología
para formar uniones p-n con un
grado dado de impuridad en la
concentración. En 1955 Carl
Frosch de Bell Labs desarrolló la
oxidación húmeda del silicón
y en los dos próximos años,
Frosh, Moll Fuller y
Holonyak lo llevaron a la
producción en masa. Este descubrimiento accidental reveló la segunda ventaja
fundamental del silicón sobre el germanio; contrario a los óxidos de germanio, el
silicón “húmedo” es físicamente fuerte y un aislante eléctrico químicamente inerte.
15. El primero de diciembre de 1957, Jean Hoerni propuso una tecnología planar de
transistores bipolares. En este proceso, la uniones p-n eran cubiertas por una capa
protectora, que debería
significativamente mejorar su
fiabilidad. Sin embargo en 1957,
esta propuesta fue considerada
técnicamente imposible. La
formación de emisores de un
transistor n-p-n requería la difusión
del fósfor y el trabajo de Frosch
sugería que el SiO2 no bloqueaba
tal difusión. En marzo de 1959,
Chi-Tang Sah, un ex colega de
Hoerni, le mostró a él y a Noyce un
error en las conclusiones de Frosch.
Frosch usó capas de óxido demasiado delgadas, mientras que los experimentos de
1957-1858 mostraron que una capa gruesa de óxido puede detener la difusión del
fósforo. Armado con este conocimiento, el 12 de marzo de 1959 Hoerni hizo el primer
prototipo de un transistor planar; y el primero de mayo de 1959 llenó una aplicación de
patente para la invención un proceso planar. En abril de 1960, Fairchild lanzó el
transistor planar 2N1613, y en octubre de 1960 abandonó por completo la tecnología
del transistor mesa. A mediados de 1960, el proceso planar se había convertido en la
tecnología principal para producir transistores y circuitos integrados monolíticos.
16. MINICOMPUTADORES
Minicomputadora: Actualmente más conocidos como servidores, la conjunción
con terminales tontos sin capacidad de cálculo propia.
El declive tuvo lugar debido al menor coste del soporte físico basado en
microprocesadores y el deseo de los
usuarios finales de depender menos
de los inflexibles terminales tontos,
con el resultado de que los
minicomputadoras y los falsos
terminales fueron remplazados por
computadoras personales
interconectados entre sí y con un
servidor.El cambio fue facilitado no
solo por el microprocesador, sino
también por el desarrollo de varias versiones de Unix multiplataforma (con
microprocesadores Intel incluidos) como Solaris, Linux y FreeBSD. La serie de
sistemas operativos Microsoft Windows, a partir de Windows NT, también incluye
versiones de servidor que soportan multitareas y otras funciones para servidores.
17. SUPERCOMPUTADORES
Supercomputadora o Superordenador es una computadora con capacidades de cálculo muy superiores
a las comúnmente disponibles de las máquinas de escritorio de la misma época en que fue construida.
Hoy en día el diseño de supercomputadoras se sustenta en 4
importantes tecnologías:
• La tecnología de registros vectoriales, creada por Seymour Cray,
considerado el padre de la Supercomputación, quien inventó y
patentó diversas tecnologías que condujeron a la creación de
máquinas de computación ultra-rápidas. Esta tecnología permite la
ejecución de innumerables operaciones aritméticas en paralelo.
• El sistema conocido como M.P.P. por las siglas de Massively
Parallel Processors o Procesadores Masivamente Paralelos, que
consiste en la utilización de cientos y a veces miles de
microprocesadores estrechamente coordinados.
• La tecnología de computación distribuida: los clusters de
computadoras de uso general y relativo bajo costo, interconectados
por redes locales de baja latencia y el gran ancho de banda.
• Cuasi-Supercómputo: Recientemente, con la popularización
de internet, han surgido proyectos de computación distribuida en los que software especiales
aprovechan el tiempo ocioso de miles de ordenadores personales para realizar grandes tareas por un
bajo costo. A diferencia de las tres últimas categorías, el software que corre en estas plataformas debe
ser capaz de dividir las tareas en bloques de cálculo independientes que no se ensamblaran ni
comunicarán por varias horas.
18. LA REVOLUCIÓN DE LAS
MICROPROCESADORES
Durante 1995 el mercado de los microcomputadores en Colombia alcanzará con facilidad la nada
despreciable suma de los US$300 millones. Cuánto de este mercado corresponde a hogares y cuánto a
empresas es una pregunta que queda abierta.
En Estados Unidos, donde sí existen estadís-
ticas al respecto, se supone que a mediados
de 1996 el mercado de computadores para el
hogar alcanzará y superara el destinado a
negocios. El crecimiento de las ventas de
computadoras personales para empresas
crecerá durante el resto de este siglo en un
10% cada ano, mientras que las ventas de
computadores para el hogar lo harán a un
ritmo del 20%. Hoy en día mas del 40% de
todos los PC vendidos en Estados Unidos
van a los hogares. A nivel mundial se estima
que el 65% de todos los PC son vendidos para uso en los hogares
Cualquiera que sea el tipo de PC que vendan, los fabricantes se realidad son los consumidores indivi-
duales y no las empresas los que están dictando la evolución de los PC actualmente, y el caso de la
multimedia es muy disiente. Se solía pensar que el computador para el hogar era el de más baja gama
que se estuviera produciendo; hoy en día prácticamente se puede asegurar que lo contrario es lo
verdadero.
19. El caso del procesador Pentium es revelador hay muy pocas aplicaciones de negocios chic
aprovechan plenamente la velocidad de este chip y por lo tanto los compradores
corporativos no se han volcado en masa a hacer el cambio de microprocesador. Pero en
cambio los consumidores individuales están devorando Pentium, especialmente por las
aplicaciones de multimedia.
Los distribuidores afirman que el 25% de las
ventas de computadores para el hogar
contienen microprocesadores Pentium
mientras que solo el 10"o de los PC, que
van para negocios contienen este chip. Lo
mismo sucede en el mundo del Mac, donde
el 30% de Apples PowerMac están yendo a
los hogares. Los consumidores están
preocupándose mucho más por la
obsolescencia de los productos que por el
precio.
Esta última idea no es compartida por
Compaq, actualmente el fabricante que más
PC vende. Compaq no está empujando el
Pentium en el mercado de consumo, por ahora. La compañía ofrecerá Presarios con
procesador Pentium probablemente en algún momento de este primer semestre. Por ahora
Compaq argumenta que las máquinas más baratas, basadas en el procesador 486 son más
convenientes para el consumidor por su relación costo/beneficio. "Los consumidores no
están pidiendo Pentiums; más bien están siendo convencidos de que lo necesitan", dice
Gian Carlo Bisone, vicepresidente de mercadeo de Compaq.
20. Es de notar que Getaway 2000, que este año hizo su entrada a los cinco grandes productores de
los PC, emplea una estrategia totalmente contraria a la de Compaq, y se ha destacado por ser el
primero en introducir la tecnología de punta en él mundo de los PC, a precios realmente
asombrosos. ¿Quién tiene la razón? Sólo el tiempo lo dirá.
Sin embargo, es una buena política no subestimar la
sofisticación del consumidor de hoy.
Un mercado de estas magnitudes exige compradores
entendidos en lo que están comprando, pero a veces se
percibe que éste no es todavía el caso colombiano.
Frecuentemente se oye la pregunta sobre cuál marca es la
mejor. Esta sería una pregunta válida si todos los computa-
dores que hay en el mercado ofrecieran desempeños similares.
Cuando preguntamos por un carro queremos saber cuántos
centímetros cúbicos tiene el motor y si la dirección es
hidráulica o no. Cuando adquirimos un computador se
deberían hacer las preguntas equivalentes. La tecnología está
variando a un ritmo marcador y una compra informada ayuda a proteger la inversión realizada
por el mayor tiempo posible. La marca es cada vez más una cuestión de gusto personal.
En los cuadros se pueden ver las características que requiere cumplir un buen computador para
instalarlo en el hogar, qué ofrecen los mayores fabricantes y cuáles son las marcas más vendidas
a nivel mundial.
21. HISTORIA DE LAS
TELECOMUNICACIONES
Aunque las telecomunicaciones como estudio unificado de las comunicaciones a distancia es
una idea reciente, siempre han existido medios de comunicación que también son estudiados
por esta disciplina. A lo largo de la historia han existido diferentes situaciones en las que ha
sido necesaria una comunicación a
distancia, como en la guerra o en el
comercio. Sin embargo, la base acadé-
mica para el estudio de estos medios,
como la teoría de la información,
datan de mediados del siglo xx.
Conforme las distintas civilizaciones
empezaron a extenderse por territorios
cada vez mayores fue necesario un
sistema organizado de comunicaciones
que permitiese el control efectivo de
esos territorios. Es más que probable que el método de telecomunicaciones más antiguo sea el
realizado con mensajeros, personas que recorrían largas distancias con sus mensajes. Lo que sí
que sabemos seguro es que ya las primeras civilizaciones como la sumeria, la persa, la egipcia
o la romana implementaron diversos sistemas de correo postal a lo largo de sus respectivos
territorios.
22. HISTORIA DEL INTERNET
Internet se inició en torno al año 1969, cuando el Departamento de Defensa de los EE.UU
desarrolló ARPANET, una red de ordenadores creada
durante la Guerra Fría cuyo objetivo era eliminar la
dependencia de un Ordenador Central, y así hacer
mucho menos vulnerables las Comunicaciones
militares norteamericanas.
Tanto el protocolo de Internet como el de Control
de Transmisión fueron desarrollados a partir de 1973,
también por el departamento de Defensa
norteamericano.
Cuando en los años 1980 la red dejó de tener interés
militar, pasó a otras agencias que ven en ella interés
científico. En Europa las redes aparecieron en los años 1980, vinculadas siempre a entornos
académicos, universitarios. En 1989 se desarrolló el World Wide Web (www) para el Consejo
Europeo de Investigación Nuclear. En España no fue hasta 1985 cuando el Ministerio de
Educación y Ciencia elaboró el proyecto IRIS para conectar entre sí todas las universidades
españolas.
23. Las principales
características
“positivas” de
Internet es que
ofrece informa-
ción actualizada,
inmediatez a la
hora de publicar
información, una
información
personalizada,
información
interactiva e
información donde no hay límites ni de espacio ni de tiempo.
Pero para navegar por la red de redes, por internet, hay que tener en cuenta también otras
muchas cosas, o estar al menos al tanto de ellas para no caer en las muchas trampas que
están tendidas por la red.
24. TELÉFONOS INTELIGENTES Y REDES
SOCIALES
Desde relojes inteligentes controlados a través de teléfonos
hasta lentes de realidad aumentada, será lo que viene este
año en móviles, los impulsores de nuevas tecnologías.
La combinación explosiva entre dispositivos móviles y redes
sociales protagonizan una nueva era en la que la conexión
virtual está cada vez más al mando de nuestros hábitos y
comportamientos.
Estas son algunas de las transformaciones que los teléfonos
inteligentes, de la mano de redes como Facebook o Twitter,
nos traerán en 2013, según el experto en estrategia digital
Nic Newman.
25. 1. La billetera móvil
Las consecuencias de perder el celular serán más graves que nunca.
Las tarjetas bancarias, de fidelidad, de
embarque y de viaje, saldrán de nuestros
bolsillos y se integrarán a los teléfonos
inteligentes.
Por un lado, se trata de un punto a favor de
la comodidad y de una mayor transparencia.
Por otra parte, las consecuencias de perder
el celular serán más graves que nunca, lo
cual no es menor si se tiene en cuenta que el
robo de teléfonos inteligentes está en aumento.
Podemos esperar una nueva ola de aplicaciones sofisticadas capaces de localizar
el teléfono incluso cuando está en silencio, junto con opciones al estilo James
Bond para destruir el dispositivo y proteger sus datos, contraseñas e identidad.
26. 2. Celulares inundados de publicidad
Los consumidores pasan 10% de su tiempo
en el celular, pero solo 1% de la publicidad
les llega a través de ellos. Esta tendencia
cambiará en 2013, con grandes
repercusiones para el usuario.
Se aplicarán nuevos formatos publicitarios
en sitios web móviles y redes sociales que
pueden resultar sumamente invasivos,
principalmente los relacionados con
promociones locales y mensajes patrocinados.
Es posible que se dé algún tipo de reacción en contra de esta actividad comercial
en lo que se considera un espacio personal, poniendo el debate sobre la
privacidad y la venta de datos personales sobre la mesa. Se originará una nueva
clase de "bloqueadores" de publicidad móvil y al menos una red social ofrecerá
un servicio de primera calidad sin publicidad este año.
27. 3. Celebridades que buscan "amigos"
Cada vez son más las celebridades que hacen uso de las redes sociales y
los celulares para comunicarse
con sus fans, y se prevé que la
tendencia continúe y se
expanda en 2013,con el uso de
mensajes en redes, aplicaciones
móviles y textos de alerta.
En lugar de que los fans
acosen a las celebridades, estos
irán en busca de sus seguidores.
Los medios de comunicación
ya están reclutando estrellas
para que envíen mensajes antes, durante y después de los programas que
protagonizan para ofrecer a los fans una experiencia multidimensional.
28. 4. El megáfono del chisme
El uso masivo de celulares inteligentes y de redes sociales ha aumentado la velocidad con
que las noticias - tanto las
serias y fundamentadas como los
Chismes maliciosos - pueden
propagarse por todo el mundo.
Es posible que se planteen
medidas y sanciones legales
-probablemente con pocos
resultados- para tener un mayor
control sobre lo que circula
en internet y sobre todo, para
concientizar a la gente de que lo que
se dice y hace en las redes sociales no se
escapa de la ley.
Se prevé que se hagan seguimientos a cuentas de alto perfil en Twitter y Facebook, y que se
implementen nuevos programas educativos en el ámbito escolar y profesional relacionados
al uso de redes sociales.
29. 5. Noticias en redes sociales y celulares
El consumo de información en teléfonos inteligentes está cambiando el tipo de noticias
que leemos.
Alrededor de un tercio de todo el tráfico de sitios de
noticias importantes como la BBC proviene de los
teléfonos inteligentes, y esta tendencia está
empezando a cambiar el tipo de noticias que
estamos consumiendo y la velocidad a la que
lo hacemos.
Los blogs en vivo -actualizaciones cortas que
incluyen lo que se habla en las redes sociales-
son cada vez más populares para las noticias y el
deporte. Y los usuarios, en especial los más
jóvenes, tienden a ignorar los sitios tradicionales de noticias y optan por informarse
directamente desde enlaces en sus cuentas de Twitter o Facebook.
Una nueva tendencia que podría aumentar en 2013 es el crecimiento de plataformas
diseñadas para teléfonos inteligentes, que presenta las noticias en un estilo más informal a
través de videos cortos.
30. 6. Adicción digital
Cada vez es más común revisar los resultados de algún partido de fútbol durante la cena,
conversar con algún amigo mientras
se habla con otros en el móvil o compartir
alguna broma por Facebook con amigos de
todas partes del mundo.
Cada vez somos más los adictos a la
conexión en tiempo real y el arte de la
conversación parece cosa del siglo pasado.
Este año, los fabricantes de celulares
encontrarán nuevas formas - zumbidos,
temblores o vibraciones - para interrumpir
nuestros pensamientos y sumergirnos en la red.
Esto significa que crecerá la demanda de retiros rurales o tratamientos que nos enseñen de
nuevo la magia de conversar sin interrupciones o distracciones: clínicas que traten la
adicción digital.
31. 7. Accesorios controlados por el móvil
Nuestros teléfonos empezarán a controlar lo que vemos y lo que llevamos puesto.
Este año, nuestros teléfonos empezarán a controlar
lo que vemos y lo que llevamos puesto. Las
Google Glasses y Vuzix (lentes de realidad
aumentada)saldrán al mercado y nos permitirán
interactuar con la red a través de
nuestros ojos.
Ya ni siquiera será necesario mirar por
debajo de la mesa para saber los
resultados del fútbol.
Se prevé que el reconocimiento facial, sincronizado con Facebook o LinkedIn,
produzca biografías en cuestión de instantes, evitándonos muchos momentos
vergonzosos o ayudándonos a preparar un par de líneas para presentarnos con
algún desconocido.
32. Y para los más extravagantes, habrá prendas de vestir con pantallas
electrónicas implantadas que proyecten las últimas actualizaciones de las redes
sociales sobre la tela.
Las redes sociales y los teléfonos inteligentes
estarán en el corazón de las innovaciones digitales
este año.
Y, sin embargo, la mayoría de las empresas
continúan subestimando la velocidad y el impacto
de estos cambios. Siguen teniendo como referencia
el uso de computadores, tomando el riesgo de que sus productos se vuelvan
irrelevantes dentro de la nueva era de inteligencia digital.
No son los únicos. Las instituciones y gobiernos también se están quedando
atrás, sobre todo porque el uso del celular y de las redes sociales choca con las
jerarquías tradicionales y con la toma de decisiones.
Quienes quieran adaptarse a las nuevas tendencias tecnológicas de 2013
tendrán que tener una mentalidad abierta y flexible.