SlideShare una empresa de Scribd logo
1 de 14
ACTIVIDAD NÚMERO 2. INFORMATCA 3




         PRESENTADO A.



       NATALIA MARTINEZ




              POR.



      BENICIO CUESTA DÍAZ
1.DEFINA QUE ES WEB 2.0           Y WEB 3.0, REALICE UN CUADRO
 COMPARATIVO.

      ¿QUÉ ES WEB 2.0?

La Web 2.0 es la transición que se ha dado de aplicaciones tradicionales
hacia aplicaciones que funcionan a través dela web enfocada al usuario
final. Se trata de aplicaciones que generen colaboración y de servicios que
remplacen las aplicaciones de escritorio.

Es una etapa que ha definido nuevos proyectos en Internet y está
preocupándose por brindar mejores soluciones para el usuario final.
Muchos aseguran que hemos reinventado lo que era el Internet, otros
hablan de burbujas e inversiones, pero la realidad es que la evolución
natural del medio realmente ha propuesto cosas más interesantes como
lo analizamos diariamente en las notas de Actualidad.

Y es que cuando el web inició, nos encontrábamos en un entorno estático,
con páginas en HTML que sufrían pocas actualizaciones y no tenían
interacción con el usuario.

Pero para entender de donde viene el término de Web 2.0 tenemos que
remontarnos al momento en que Dale Dougherty de O’Reilly Media utilizó
este término en una conferencia en la que compartió una lluvia de ideas
junto a Craig Cline de MediaLive. En dicho evento se hablaba del
renacimiento y evolución de la web.

Constantemente estaban surgiendo nuevas aplicaciones y sitios con
sorprendentes funcionalidades. Y así se dio la pauta para la Web 2.0
conferencia que arranca en el 2004 y hoy en día se realiza anualmente en
San Francisco, con eventos adicionales utilizando la marca en otros países.
LA WEB 2.0 CON EJEMPLOS

Entender la evolución que ha llegado con la Web 2.0 puede realizarse con
ejemplos, con proyectos. Podemos comparar servicios web que marcan
claramente la evolución hacia el Web 2.0 con una nueva forma de hacer
las cosas:

      Web 1.0 > Web 2.0
      Doubleclick –>Google AdSense (Servicios Publicidad)
      Ofoto –>Flickr (Comunidades fotográficas)
      Akamai –>BitTorrent (Distribución de contenidos)
      mp3.com –>Napster (Descargas de música)
      Britannica Online –>Wikipedia (Enciclopedias)
      Sitios personales –>Blogs (Páginas personales)
      Especulación con dominios –>Optimización en motores de
      búsqueda SEO
      Páginas vistas –> Costo por click
      CMSs –>Wikis (Administradores de contenidos)
      Categorías/Directorios –>Tags




¿QUÉ TECNOLOGÍAS APOYAN A LA WEB 2.0?

El Web 2.0 no significa precisamente que existe una receta para que todas
nuestras aplicaciones web entren en este esquema. Sin embargo, existen
varias tecnologías que están utilizándose actualmente y que deberíamos
de examinar con más cuidado en busca de seguir evolucionando junto al
web.
TECNOLOGÍAS QUE DAN VIDA A UN PROYECTO WEB 2.0:

      Transformar software de escritorio hacia la plataforma del web.
      Respeto a los estándares como el XHTML.
      Separación de contenido del diseño con uso de hojas de estilo.
      Sindicación de contenidos.
      Ajax (javascriptascincrónico y xml).
      Uso de Flash, Flex o Lazlo.
      Uso de Ruby onRails para programar páginas dinámicas.
      Utilización de redes sociales al manejar usuarios y comunidades.



      Dar control total a los usuarios en el manejo de su información.
      Proveer APis o XML para que las aplicaciones puedan ser
      manipuladas por otros.
      Facilitar el posicionamiento con URL sencillos.



¿QUÉ ES LA WEB 3.0?

Si bien, en general, se asocia el término al de Web Semántica, acuñado
por Tim Berners-Lee, cabe acotar, valga la paradoja, que no existe total
consenso acerca de lo que significa la Web 3.0. Aunque se coincide en que
esta etapa añadirá significado a la web, no hay acuerdo sobre cuales son
los caminos más apropiados para su desarrollo.

José Antonio del Moral, director general de la consultora Alianzo, en su
artículo sobre Web 3.0 ¿futura realidad o ficción?, califica al término Web
3.0 de ‘abstracto’. Por su parte, Salvador Pérez Crespo de Telefónica de
España, considera que la Web 3.0 será una revolución si se logra una
combinación efectiva entre la inclusión de contenido semántico en las
páginas web y el uso de inteligencia artificial que saque partido de ella.

No obstante, dado que los avances de esta disciplina son demasiado
lentos y dificultosos, cree que la solución podría estar en la combinación
de las técnicas de inteligencia artificial con el acceso a la capacidad
humana de realizar tareas extremadamente complejas para un ordenador.
Como lo está haciendo: MechanicalTurk de Amazon y Google
ImageLabeler.
En cualquier caso, el aumento de la interactividad y de la movilidad son
dos factores que muchos señalan como decisivos en esta nueva etapa de
la web.




¿ES LA WEB SEMÁNTICA SINÓNIMO DE WEB 3.0?

De lo dicho anteriormente se desprende que no, aunque muchas veces
estos términos sean empleados como tales. Quizás la principal diferencia
sea que la Web 3.0 se concibe como un estadío a ser alcanzado en mayor
o menor plazo, mientras que la Web Semántica es un proceso evolutivo en
construcción permanente.

En tal sentido, como señala Bernés-Lee, ya estamos inmersos en ella. Es
de suponer que, tal como es concebida, trascenderá tanto el concepto de
Web 3.0, como el de sus sucesoras.

IDEAS EN TORNO A LA DEFINICIÓN DE LA WEB 3.0

Básicamente, tienen que ver con los avances y proyectos en curso que
tienden a una cada vez mayor y más eficiente incorporación de la web a la
cotidianidad. Se habla así, de conceptos tales como: Web 3D, Web
centrada en multimedia y Web permanente.

Por otra parte, íntimamente relacionados con la Web Semántica surgen
los microformatos, que como dice Pérez Crespo, son un enfoque más
pragmático de ésta, e intentan tener utilidad a más corto plazo.



¿QUÉ ES LA WEB SEMÁNTICA?

Nadie mejor que Tim Berners-Lee, el creador de la World Wide Web, para
dar respuesta a este interrogante. La denominación de Web Semántica se
remonta al año 2001, cuando presentó en Scientific American el ya
famoso caso de Lucy.

Sin embargo, en una entrevista publicada por BusinessWeek, en abril de
este año, señala que quizás debería haberla llamado Web de los datos,
dado que la palabra semántica es utilizada para significar diferentes cosas.
¿En qué consiste la Web de los datos y para qué puede ser utilizada?

Básicamente, la idea se refiere a una web capaz de interpretar e
interconectar un número mayor de datos, lo que permitiría un avance
importante en el campo del conocimiento.

En tal sentido, Berners-Lee destaca lo que esta transformación traería
aparejada en el campo de la investigación genética y el tratamiento
farmacológico de enfermedades hasta ahora incurables. Diseñada
correctamente, la Web Semántica puede asistir a la evolución del
conocimiento humano en su totalidad.




               Cuadro comparativo entre web 2.0 y web 3.0



                                     Web 2.0

1. un software de escritorio tras formado en una aplicación web

2. web que respeta los estándares del XHTML.

3. separación del con tenido del diseño con uso de hojas de estilo.

4. permite la sindicación de contenido.

5. da control total a los usuarios
WEB 3.0




. Aplicación web con mucho ajax


2. Podrán trabajar todas juntas


3. Serán relativa mente pequeña.


4. Gestionan datos que están a alto nivel


5. Son más rápidas y personalizada


6. Se pueden distribuir por correo electrónico y redes sociales.




2LAS CINCO GENERACIONES DE COMPUTADORES.




    *PRIMERA GENERACION.

Las computadoras de la primera Generación emplearon bulbos para
procesar información.


La programación se realizaba a través del lenguaje de máquina. Las
memorias estaban construidas con finos tubos de mercurio liquido y
tambores magnéticos. Los operadores ingresaban los datos y programas
en código especial por medio de tarjetas perforadas. El almacenamiento
interno se lograba con un tambor que giraba rápidamente, sobre el cual
un dispositivo de lectura/escritura colocaba marcas magnéticas.
Estos computadores utilizaban la válvula de vacío. Por lo que eran equipos
sumamente grandes, pesados y generaban mucho calor.
La Primera Generación se inicia con la instalación comercial del UNIVAC
construida por Eckert y Mauchly. El procesador de la UNIVAC pesaba 30
toneladas y requería el espacio completo de un salón de 20 por 40 pies.




    *SEGUNDA GENERACION.




El Transistor Compatibilidad Limitada sustituye la válvula de vacío utilizada
en la primera generación. Los computadores de la segunda generación
erán más rápidas, más pequeñas y con menores necesidades de
ventilación. Estas computadoras también utilizaban redes de núcleos
magnéticos en lugar de tambores giratorios para el almacenamiento
primario. Estos núcleos contenían pequeños anillos de material
magnético, enlazados entre sí, en los cuales podían almacenarse datos e
instrucciones.
Los programas de computadoras también mejoraron. COBOL desarrollado
durante la 1era generación estaba ya disponible comercialmente. Los
programas escritos para una computadora podían transferirse a otra con
un mínimo esfuerzo. El escribir un programa ya no requería entender
plenamente el hardware de la computación.

    *TERCERA GENERACION.


Circuitos Integrados, Compatibilidad con Equipo Mayor,
Multiprogramación, Minicomputadora
Las computadoras de la tercera generación emergieron con el desarrollo
de los circuitos integrados (pastillas de silicio) en las cuales se colocan
miles de componentes electrónicos, en una integración en miniatura. Las
computadoras nuevamente se hicieron más pequeñas, más rápidas,
desprendían menos calor y eran energéticamente más eficientes.

Antes del advenimiento de los circuitos integrados, las computadoras
estaban diseñadas para aplicaciones matemáticas o de negocios, pero no
para las dos cosas. Los circuitos integrados permitieron a los fabricantes
de computadoras incrementar la flexibilidad de los programas, y
estandarizar sus modelos.

La IBM 360 una de las primeras computadoras comerciales que usó
circuitos integrados, podía realizar tanto análisis numéricos como
administración ó procesamiento de archivos. Los clientes podían escalar
sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr
sus programas actuales. Las computadoras trabajaban a tal velocidad que
proporcionaban la capacidad de correr más de un programa de manera
simultánea (multiprogramación).




CUARTA GENERACIÓN


Microprocesador, Chips de memoria, Micro miniaturización
Dos mejoras en la tecnología de las computadoras marcan el inicio de la
cuarta generación: el remplazo de las memorias con núcleos magnéticos,
por las de chips de silicio y la colocación de Muchos más componentes en
un Chip: producto de la micro miniaturización de los circuitos electrónicos.
El tamaño reducido del microprocesadory de chips hizo posible la creación
de las computadoras personales (PC)
En 1971, intelCorporation, que era una pequeña compañía fabricante de
semiconductores ubicada en Silicon Valley, presenta el primer
microprocesador o Chip de 4 bits, que en un espacio de aproximadamente
4 x 5 mm contenía 2 250 transistores. Este primer microprocesador que se
muestra en la figura 1.14, fue bautizado como el 4004.

Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de
San Francisco, que por su gran producción de silicio, a partir de 1960 se
convierte en una zona totalmente industrializada donde se asienta una
gran cantidad de empresas fabricantes de semiconductores y
microprocesadores. Actualmente es conocida en todo el mundo como la
región más importante para las industrias relativas a la computación:
creación de programas y fabricación de componentes.

Actualmente ha surgido una enorme cantidad de fabricantes de
microcomputadoras o computadoras personales, que utilizando diferentes
estructuras o arquitecturas se pelean literalmente por el mercado de la
computación, el cual ha llegado a crecer tanto que es uno de los más
grandes a nivel mundial; sobre todo, a partir de 1990, cuando se logran
sorprendentes avances en Internet.

Esta generación de computadoras se caracterizó por grandes avances
tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las
primeras microcomputadoras, entre las cuales, las más famosas fueron las
fabricadas por Apple Computer, Radio Shack y CommodoreBusíness
Machines. IBM se integra al mercado de las microcomputadoras con su
Personal Computer (figura 1.15), de donde les ha quedado como sinónimo
el nombre de PC, y lo más importante; se incluye un sistema operativo
estandarizado, el MS- DOS (MicroSoft Disk OperatingSystem).



QUINTA GENERACIÓN Y LA INTELIGENCIA ARTIFICIAL


Cada vez se hace más difícil la identificación de las generaciones de
computadoras, porque los grandes avances y nuevos descubrimientos ya
no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes
consideran que la cuarta y quinta generación han terminado, y las ubican
entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos
consideran que la sexta generación está en desarrollo desde 1990 hasta la
fecha.

Siguiendo la pista a los acontecimientos tecnológicos en materia de
computación e informática, podemos puntualizar algunas fechas y
características de lo que podría ser la quinta generación de computadoras.
Con base en los grandes acontecimientos tecnológicos en materia de
microelectrónica y computación (software) como CADI CAM, CAE, CASE,
inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos,
algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la
década de los años ochenta se establecieron las bases de lo que se puede
conocer       como          quinta    generación      de      computadoras.
Hay que mencionar dos grandes avances tecnológicos, que sirvan como
parámetro para el inicio de dicha generación: la creación en 1982 de la
primera supercomputadora con capacidad de proceso paralelo, diseñada
por SeymouyCray, quien ya experimentaba desde 1968 con
supercomputadoras, y que funda en 1976 la CrayResearch Inc.; y el
anuncio por parte del gobierno japonés del proyecto “quinta generación”,
que según se estableció en el acuerdo con seis de las más grandes
empresas japonesas de computación, debería terminar en 1992.

El proceso paralelo es aquél que se lleva a cabo en computadoras que
tienen la capacidad de trabajar simultáneamente con varios
microprocesadores. Aunque en teoría el trabajo con varios
microprocesadores debería ser mucho más rápido, es necesario llevar a
cabo una programación especial que permita asignar diferentes tareas de
un mismo proceso a los diversos microprocesadores que intervienen.
También se debe adecuar la memoria para que pueda atender los
requerimientos de los procesadores al mismo tiempo. Para solucionar este
problema se tuvieron que diseñar módulos de memoria compartida
capaces de asignar áreas de caché para cada procesador.

Según este proyecto, al que se sumaron los países tecnológicamente más
avanzados para no quedar atrás de Japón, la característica principal sería
la aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las
computadoras de esta generación contienen una gran cantidad de
microprocesadores trabajando en paralelo y pueden reconocer voz e
imágenes. También tienen la capacidad de comunicarse con un lenguaje
natural e irán adquiriendo la habilidad para tomar decisiones con base en
procesos de aprendizaje fundamentados en sistemas expertos e
inteligencia artificial.

El almacenamiento de información se realiza en dispositivos magneto
ópticos con capacidades de decenas de Gigabytes; se establece el DVD
(Digital VideoDisk o Digital Versatile Disk) como estándar para el
almacenamiento de video y sonido; la capacidad de almacenamiento de
datos crece de manera exponencial posibilitando guardar más información
en una de estas unidades, que toda la que había en la Biblioteca de
Alejandría. Los componentes de los microprocesadores actuales utilizan
tecnologías de alta y ultra integración, denominadas VLSI (VeryLargeSca/e
Integration)    y      ULSI     (Ultra     Lar-   ge    ScaleIntegration).
Sin embargo, independientemente de estos “milagros” de la tecnología
moderna, no se distingue la brecha donde finaliza la quinta y comienza la
sexta generación. Personalmente, no hemos visto la realización cabal de lo
expuesto en el proyecto japonés debido al fracaso, quizás momentáneo,
de la inteligencia artificial.

El único pronóstico que se ha venido realizando sin interrupciones en el
transcurso de esta generación, es la conectividad entre computadoras,
que a partir de 1994, con el advenimiento de la red Internet y del World
Wide Web, ha adquirido una importancia vital en las grandes, medianas y
pequeñas empresas y, entre los usuarios particulares de computadoras.

El propósito de la Inteligencia Artificial es equipar a las Computadoras con
“Inteligencia Humana” y con la capacidad de razonar para encontrar
soluciones. Otro factor fundamental del diseño, la capacidad de la
Computadora para reconocer patrones y secuencias de procesamiento
que haya encontrado previamente, (programación Heurística) que permita
a la Computadora recordar resultados previos e incluirlos en el
procesamiento, en esencia, la Computadora aprenderá a partir de sus
propias experiencias usará sus Datos originales para obtener la respuesta
por medio del razonamiento y conservará esos resultados para posteriores
tareas de procesamiento y toma de decisiones.




                             Qué es Internet?



Podemos definir a Internet como una "red de redes", es decir, una red que
no sólo interconecta computadoras, sino que interconecta redes de
computadoras entre sí.
Una red de computadoras es un conjunto de máquinas que se comunican
a través de algún medio (cable coaxial, fibra óptica, radiofrecuencia, líneas
telefónicas, etc.) con el objeto de compartir recursos.

De esta manera, Internet sirve de enlace entre redes más pequeñas y
permite ampliar su cobertura al hacerlas parte de una "red global". Esta
red global tiene la característica de que utiliza un lenguaje común que
garantiza la intercomunicación de los diferentes participantes; este
lenguaje común o protocolo (un protocolo es el lenguaje que utilizan las
computadoras al compartir recursos) se conoce como TCP/IP.

Así pues, Internet es la "red de redes" que utiliza TCP/IP como su
protocolo de comunicación.

Internet es un acrónimo de INTERconectedNETworks (Redes
interconectadas).




                      Qué es la inteligencia artificial

La inteligencia artificial es considerada una rama de la computación y
relaciona un fenómeno natural con una analogía artificial a través de
programas de computador. La inteligencia artificial puede ser tomada
como ciencia si se enfoca hacia la elaboración de programas basados en
comparaciones con la eficiencia del hombre, contribuyendo a un mayor
entendimiento del conocimiento humano.

                                Que es ovo

OoVoo es un programa gratuito para realizar videoconferencias. Entre sus
novedades está la posibilidad de realizar una videoconferencia hasta con
5 personas simultáneamente y el envío de video mensajes.Tiene una
interfaz 3D muy futurista y promete buena calidad de video y audio,
aunque como todo, esto dependerá en última instancia de la velocidad de
nuestra conexión a Internet. También podemos enviar ficheros y
mensajes de texto mientras mantenemos una conversación, mandar
video mensajes a personas que no tiene

Que es un sistema operativo

Es uncomjunto de programas que gestionan los recursos del hadware y se
ejecutan en modo privilegiado, el cual es usado por los usuarios.

Entre ellos mocionamos cinco que son:

1. Windows vista

2. Windows xp.

3. Windows 7

4 .Linux

5. Windows 98.etc

Que es un antivirus:

Es una herramienta que sirve para de tetar y eliminar virus informático y
se crearon aproximada mente desde 1980 algunos de ellos son los
siguientes:

1. avira

2 nord32

3. avast

4. macafee

5. panda

Más contenido relacionado

La actualidad más candente

La actualidad más candente (12)

DefinicióN Web 2.0
DefinicióN Web 2.0DefinicióN Web 2.0
DefinicióN Web 2.0
 
Actividad unidad 4
Actividad unidad 4Actividad unidad 4
Actividad unidad 4
 
Las herramientas web 2.0
Las herramientas web 2.0Las herramientas web 2.0
Las herramientas web 2.0
 
Web 2.0
Web 2.0Web 2.0
Web 2.0
 
Entienda La Web 2
Entienda La Web 2Entienda La Web 2
Entienda La Web 2
 
Análisis de lecturas sobre el Internet de las Cosas
Análisis de lecturas sobre el Internet de las CosasAnálisis de lecturas sobre el Internet de las Cosas
Análisis de lecturas sobre el Internet de las Cosas
 
cuestionario tics
cuestionario ticscuestionario tics
cuestionario tics
 
Aura taller informatica
Aura taller informaticaAura taller informatica
Aura taller informatica
 
Entienda La Web 2
Entienda La Web 2Entienda La Web 2
Entienda La Web 2
 
Web 2.0 y web 3.0
Web 2.0 y web 3.0Web 2.0 y web 3.0
Web 2.0 y web 3.0
 
1 Web 2
1 Web 21 Web 2
1 Web 2
 
evolucion de la web
evolucion de la webevolucion de la web
evolucion de la web
 

Similar a Actividad 2 clace

Similar a Actividad 2 clace (20)

CARACTERISTICAS DE WWW
CARACTERISTICAS DE WWWCARACTERISTICAS DE WWW
CARACTERISTICAS DE WWW
 
definición de la web
definición de la webdefinición de la web
definición de la web
 
WORD WWW
WORD WWWWORD WWW
WORD WWW
 
Holaaaaa wil
Holaaaaa wilHolaaaaa wil
Holaaaaa wil
 
Web 2.0
Web 2.0Web 2.0
Web 2.0
 
web 2.0
web 2.0web 2.0
web 2.0
 
web 2.0
web 2.0web 2.0
web 2.0
 
Web 2.0
Web 2.0Web 2.0
Web 2.0
 
Holaaaaa wil
Holaaaaa wilHolaaaaa wil
Holaaaaa wil
 
Holaaaaa wil
Holaaaaa wilHolaaaaa wil
Holaaaaa wil
 
PresentacióN1
PresentacióN1PresentacióN1
PresentacióN1
 
PresentacióN1
PresentacióN1PresentacióN1
PresentacióN1
 
Presentacion de lady jumbo
Presentacion de lady jumboPresentacion de lady jumbo
Presentacion de lady jumbo
 
Web20servicios
Web20serviciosWeb20servicios
Web20servicios
 
PresentacióN1
PresentacióN1PresentacióN1
PresentacióN1
 
PresentacióN1
PresentacióN1PresentacióN1
PresentacióN1
 
Comparaciones Web 2.0 3.0
Comparaciones Web 2.0 3.0Comparaciones Web 2.0 3.0
Comparaciones Web 2.0 3.0
 
definicion de la WEB 2.0
definicion de la WEB 2.0 definicion de la WEB 2.0
definicion de la WEB 2.0
 
Web 2
Web 2Web 2
Web 2
 
Tema
TemaTema
Tema
 

Actividad 2 clace

  • 1. ACTIVIDAD NÚMERO 2. INFORMATCA 3 PRESENTADO A. NATALIA MARTINEZ POR. BENICIO CUESTA DÍAZ
  • 2. 1.DEFINA QUE ES WEB 2.0 Y WEB 3.0, REALICE UN CUADRO COMPARATIVO. ¿QUÉ ES WEB 2.0? La Web 2.0 es la transición que se ha dado de aplicaciones tradicionales hacia aplicaciones que funcionan a través dela web enfocada al usuario final. Se trata de aplicaciones que generen colaboración y de servicios que remplacen las aplicaciones de escritorio. Es una etapa que ha definido nuevos proyectos en Internet y está preocupándose por brindar mejores soluciones para el usuario final. Muchos aseguran que hemos reinventado lo que era el Internet, otros hablan de burbujas e inversiones, pero la realidad es que la evolución natural del medio realmente ha propuesto cosas más interesantes como lo analizamos diariamente en las notas de Actualidad. Y es que cuando el web inició, nos encontrábamos en un entorno estático, con páginas en HTML que sufrían pocas actualizaciones y no tenían interacción con el usuario. Pero para entender de donde viene el término de Web 2.0 tenemos que remontarnos al momento en que Dale Dougherty de O’Reilly Media utilizó este término en una conferencia en la que compartió una lluvia de ideas junto a Craig Cline de MediaLive. En dicho evento se hablaba del renacimiento y evolución de la web. Constantemente estaban surgiendo nuevas aplicaciones y sitios con sorprendentes funcionalidades. Y así se dio la pauta para la Web 2.0 conferencia que arranca en el 2004 y hoy en día se realiza anualmente en San Francisco, con eventos adicionales utilizando la marca en otros países.
  • 3. LA WEB 2.0 CON EJEMPLOS Entender la evolución que ha llegado con la Web 2.0 puede realizarse con ejemplos, con proyectos. Podemos comparar servicios web que marcan claramente la evolución hacia el Web 2.0 con una nueva forma de hacer las cosas: Web 1.0 > Web 2.0 Doubleclick –>Google AdSense (Servicios Publicidad) Ofoto –>Flickr (Comunidades fotográficas) Akamai –>BitTorrent (Distribución de contenidos) mp3.com –>Napster (Descargas de música) Britannica Online –>Wikipedia (Enciclopedias) Sitios personales –>Blogs (Páginas personales) Especulación con dominios –>Optimización en motores de búsqueda SEO Páginas vistas –> Costo por click CMSs –>Wikis (Administradores de contenidos) Categorías/Directorios –>Tags ¿QUÉ TECNOLOGÍAS APOYAN A LA WEB 2.0? El Web 2.0 no significa precisamente que existe una receta para que todas nuestras aplicaciones web entren en este esquema. Sin embargo, existen varias tecnologías que están utilizándose actualmente y que deberíamos de examinar con más cuidado en busca de seguir evolucionando junto al web.
  • 4. TECNOLOGÍAS QUE DAN VIDA A UN PROYECTO WEB 2.0: Transformar software de escritorio hacia la plataforma del web. Respeto a los estándares como el XHTML. Separación de contenido del diseño con uso de hojas de estilo. Sindicación de contenidos. Ajax (javascriptascincrónico y xml). Uso de Flash, Flex o Lazlo. Uso de Ruby onRails para programar páginas dinámicas. Utilización de redes sociales al manejar usuarios y comunidades. Dar control total a los usuarios en el manejo de su información. Proveer APis o XML para que las aplicaciones puedan ser manipuladas por otros. Facilitar el posicionamiento con URL sencillos. ¿QUÉ ES LA WEB 3.0? Si bien, en general, se asocia el término al de Web Semántica, acuñado por Tim Berners-Lee, cabe acotar, valga la paradoja, que no existe total consenso acerca de lo que significa la Web 3.0. Aunque se coincide en que esta etapa añadirá significado a la web, no hay acuerdo sobre cuales son los caminos más apropiados para su desarrollo. José Antonio del Moral, director general de la consultora Alianzo, en su artículo sobre Web 3.0 ¿futura realidad o ficción?, califica al término Web 3.0 de ‘abstracto’. Por su parte, Salvador Pérez Crespo de Telefónica de España, considera que la Web 3.0 será una revolución si se logra una combinación efectiva entre la inclusión de contenido semántico en las páginas web y el uso de inteligencia artificial que saque partido de ella. No obstante, dado que los avances de esta disciplina son demasiado lentos y dificultosos, cree que la solución podría estar en la combinación de las técnicas de inteligencia artificial con el acceso a la capacidad humana de realizar tareas extremadamente complejas para un ordenador. Como lo está haciendo: MechanicalTurk de Amazon y Google ImageLabeler.
  • 5. En cualquier caso, el aumento de la interactividad y de la movilidad son dos factores que muchos señalan como decisivos en esta nueva etapa de la web. ¿ES LA WEB SEMÁNTICA SINÓNIMO DE WEB 3.0? De lo dicho anteriormente se desprende que no, aunque muchas veces estos términos sean empleados como tales. Quizás la principal diferencia sea que la Web 3.0 se concibe como un estadío a ser alcanzado en mayor o menor plazo, mientras que la Web Semántica es un proceso evolutivo en construcción permanente. En tal sentido, como señala Bernés-Lee, ya estamos inmersos en ella. Es de suponer que, tal como es concebida, trascenderá tanto el concepto de Web 3.0, como el de sus sucesoras. IDEAS EN TORNO A LA DEFINICIÓN DE LA WEB 3.0 Básicamente, tienen que ver con los avances y proyectos en curso que tienden a una cada vez mayor y más eficiente incorporación de la web a la cotidianidad. Se habla así, de conceptos tales como: Web 3D, Web centrada en multimedia y Web permanente. Por otra parte, íntimamente relacionados con la Web Semántica surgen los microformatos, que como dice Pérez Crespo, son un enfoque más pragmático de ésta, e intentan tener utilidad a más corto plazo. ¿QUÉ ES LA WEB SEMÁNTICA? Nadie mejor que Tim Berners-Lee, el creador de la World Wide Web, para dar respuesta a este interrogante. La denominación de Web Semántica se remonta al año 2001, cuando presentó en Scientific American el ya famoso caso de Lucy. Sin embargo, en una entrevista publicada por BusinessWeek, en abril de este año, señala que quizás debería haberla llamado Web de los datos, dado que la palabra semántica es utilizada para significar diferentes cosas.
  • 6. ¿En qué consiste la Web de los datos y para qué puede ser utilizada? Básicamente, la idea se refiere a una web capaz de interpretar e interconectar un número mayor de datos, lo que permitiría un avance importante en el campo del conocimiento. En tal sentido, Berners-Lee destaca lo que esta transformación traería aparejada en el campo de la investigación genética y el tratamiento farmacológico de enfermedades hasta ahora incurables. Diseñada correctamente, la Web Semántica puede asistir a la evolución del conocimiento humano en su totalidad. Cuadro comparativo entre web 2.0 y web 3.0 Web 2.0 1. un software de escritorio tras formado en una aplicación web 2. web que respeta los estándares del XHTML. 3. separación del con tenido del diseño con uso de hojas de estilo. 4. permite la sindicación de contenido. 5. da control total a los usuarios
  • 7. WEB 3.0 . Aplicación web con mucho ajax 2. Podrán trabajar todas juntas 3. Serán relativa mente pequeña. 4. Gestionan datos que están a alto nivel 5. Son más rápidas y personalizada 6. Se pueden distribuir por correo electrónico y redes sociales. 2LAS CINCO GENERACIONES DE COMPUTADORES. *PRIMERA GENERACION. Las computadoras de la primera Generación emplearon bulbos para procesar información. La programación se realizaba a través del lenguaje de máquina. Las memorias estaban construidas con finos tubos de mercurio liquido y
  • 8. tambores magnéticos. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Estos computadores utilizaban la válvula de vacío. Por lo que eran equipos sumamente grandes, pesados y generaban mucho calor. La Primera Generación se inicia con la instalación comercial del UNIVAC construida por Eckert y Mauchly. El procesador de la UNIVAC pesaba 30 toneladas y requería el espacio completo de un salón de 20 por 40 pies. *SEGUNDA GENERACION. El Transistor Compatibilidad Limitada sustituye la válvula de vacío utilizada en la primera generación. Los computadores de la segunda generación erán más rápidas, más pequeñas y con menores necesidades de ventilación. Estas computadoras también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones. Los programas de computadoras también mejoraron. COBOL desarrollado durante la 1era generación estaba ya disponible comercialmente. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. El escribir un programa ya no requería entender plenamente el hardware de la computación. *TERCERA GENERACION. Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación, Minicomputadora Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan
  • 9. miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes. Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos. La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos. Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación). CUARTA GENERACIÓN Microprocesador, Chips de memoria, Micro miniaturización Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el remplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la micro miniaturización de los circuitos electrónicos. El tamaño reducido del microprocesadory de chips hizo posible la creación de las computadoras personales (PC) En 1971, intelCorporation, que era una pequeña compañía fabricante de semiconductores ubicada en Silicon Valley, presenta el primer microprocesador o Chip de 4 bits, que en un espacio de aproximadamente 4 x 5 mm contenía 2 250 transistores. Este primer microprocesador que se muestra en la figura 1.14, fue bautizado como el 4004. Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de San Francisco, que por su gran producción de silicio, a partir de 1960 se convierte en una zona totalmente industrializada donde se asienta una gran cantidad de empresas fabricantes de semiconductores y
  • 10. microprocesadores. Actualmente es conocida en todo el mundo como la región más importante para las industrias relativas a la computación: creación de programas y fabricación de componentes. Actualmente ha surgido una enorme cantidad de fabricantes de microcomputadoras o computadoras personales, que utilizando diferentes estructuras o arquitecturas se pelean literalmente por el mercado de la computación, el cual ha llegado a crecer tanto que es uno de los más grandes a nivel mundial; sobre todo, a partir de 1990, cuando se logran sorprendentes avances en Internet. Esta generación de computadoras se caracterizó por grandes avances tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las primeras microcomputadoras, entre las cuales, las más famosas fueron las fabricadas por Apple Computer, Radio Shack y CommodoreBusíness Machines. IBM se integra al mercado de las microcomputadoras con su Personal Computer (figura 1.15), de donde les ha quedado como sinónimo el nombre de PC, y lo más importante; se incluye un sistema operativo estandarizado, el MS- DOS (MicroSoft Disk OperatingSystem). QUINTA GENERACIÓN Y LA INTELIGENCIA ARTIFICIAL Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la cuarta y quinta generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha. Siguiendo la pista a los acontecimientos tecnológicos en materia de computación e informática, podemos puntualizar algunas fechas y características de lo que podría ser la quinta generación de computadoras. Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación (software) como CADI CAM, CAE, CASE, inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la década de los años ochenta se establecieron las bases de lo que se puede conocer como quinta generación de computadoras.
  • 11. Hay que mencionar dos grandes avances tecnológicos, que sirvan como parámetro para el inicio de dicha generación: la creación en 1982 de la primera supercomputadora con capacidad de proceso paralelo, diseñada por SeymouyCray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda en 1976 la CrayResearch Inc.; y el anuncio por parte del gobierno japonés del proyecto “quinta generación”, que según se estableció en el acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar en 1992. El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la capacidad de trabajar simultáneamente con varios microprocesadores. Aunque en teoría el trabajo con varios microprocesadores debería ser mucho más rápido, es necesario llevar a cabo una programación especial que permita asignar diferentes tareas de un mismo proceso a los diversos microprocesadores que intervienen. También se debe adecuar la memoria para que pueda atender los requerimientos de los procesadores al mismo tiempo. Para solucionar este problema se tuvieron que diseñar módulos de memoria compartida capaces de asignar áreas de caché para cada procesador. Según este proyecto, al que se sumaron los países tecnológicamente más avanzados para no quedar atrás de Japón, la característica principal sería la aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes. También tienen la capacidad de comunicarse con un lenguaje natural e irán adquiriendo la habilidad para tomar decisiones con base en procesos de aprendizaje fundamentados en sistemas expertos e inteligencia artificial. El almacenamiento de información se realiza en dispositivos magneto ópticos con capacidades de decenas de Gigabytes; se establece el DVD (Digital VideoDisk o Digital Versatile Disk) como estándar para el almacenamiento de video y sonido; la capacidad de almacenamiento de datos crece de manera exponencial posibilitando guardar más información en una de estas unidades, que toda la que había en la Biblioteca de Alejandría. Los componentes de los microprocesadores actuales utilizan tecnologías de alta y ultra integración, denominadas VLSI (VeryLargeSca/e Integration) y ULSI (Ultra Lar- ge ScaleIntegration). Sin embargo, independientemente de estos “milagros” de la tecnología moderna, no se distingue la brecha donde finaliza la quinta y comienza la
  • 12. sexta generación. Personalmente, no hemos visto la realización cabal de lo expuesto en el proyecto japonés debido al fracaso, quizás momentáneo, de la inteligencia artificial. El único pronóstico que se ha venido realizando sin interrupciones en el transcurso de esta generación, es la conectividad entre computadoras, que a partir de 1994, con el advenimiento de la red Internet y del World Wide Web, ha adquirido una importancia vital en las grandes, medianas y pequeñas empresas y, entre los usuarios particulares de computadoras. El propósito de la Inteligencia Artificial es equipar a las Computadoras con “Inteligencia Humana” y con la capacidad de razonar para encontrar soluciones. Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones. Qué es Internet? Podemos definir a Internet como una "red de redes", es decir, una red que no sólo interconecta computadoras, sino que interconecta redes de computadoras entre sí. Una red de computadoras es un conjunto de máquinas que se comunican a través de algún medio (cable coaxial, fibra óptica, radiofrecuencia, líneas telefónicas, etc.) con el objeto de compartir recursos. De esta manera, Internet sirve de enlace entre redes más pequeñas y permite ampliar su cobertura al hacerlas parte de una "red global". Esta red global tiene la característica de que utiliza un lenguaje común que
  • 13. garantiza la intercomunicación de los diferentes participantes; este lenguaje común o protocolo (un protocolo es el lenguaje que utilizan las computadoras al compartir recursos) se conoce como TCP/IP. Así pues, Internet es la "red de redes" que utiliza TCP/IP como su protocolo de comunicación. Internet es un acrónimo de INTERconectedNETworks (Redes interconectadas). Qué es la inteligencia artificial La inteligencia artificial es considerada una rama de la computación y relaciona un fenómeno natural con una analogía artificial a través de programas de computador. La inteligencia artificial puede ser tomada como ciencia si se enfoca hacia la elaboración de programas basados en comparaciones con la eficiencia del hombre, contribuyendo a un mayor entendimiento del conocimiento humano. Que es ovo OoVoo es un programa gratuito para realizar videoconferencias. Entre sus novedades está la posibilidad de realizar una videoconferencia hasta con 5 personas simultáneamente y el envío de video mensajes.Tiene una interfaz 3D muy futurista y promete buena calidad de video y audio, aunque como todo, esto dependerá en última instancia de la velocidad de nuestra conexión a Internet. También podemos enviar ficheros y
  • 14. mensajes de texto mientras mantenemos una conversación, mandar video mensajes a personas que no tiene Que es un sistema operativo Es uncomjunto de programas que gestionan los recursos del hadware y se ejecutan en modo privilegiado, el cual es usado por los usuarios. Entre ellos mocionamos cinco que son: 1. Windows vista 2. Windows xp. 3. Windows 7 4 .Linux 5. Windows 98.etc Que es un antivirus: Es una herramienta que sirve para de tetar y eliminar virus informático y se crearon aproximada mente desde 1980 algunos de ellos son los siguientes: 1. avira 2 nord32 3. avast 4. macafee 5. panda