Alberto Serrano Martín
1º Periodismo y CC. Audiovisual
Grupo 53
ÍNDICE




  1. EMPEZANDO CON BUEN PIE------------------------------------ III-IV

  2. ¿WEB 2.0? Clickeo, luego existo---...
EMPEZANDO CON BUEN PIE

        Si realizamos un sondeo en toda España, es bastante probable que un elevado
porcentaje de ...
http://www.microsoft.com/spain/empresas/internet/web_2.mspx

       http://blog.educastur.es/files/2007/06/web2_0v02.pdf

...
¿WEB 2.0? Clickeo, luego existo

        La Web 2.0 es una nueva forma de comunicación e interacción en la red. Debido
a e...
mapa conceptual con las ideas que habían surgido en los brainstorming realizados. Uno
de los primeros principios que se es...
diaria no es nuevo, ahora es más fácil que nunca. Esta facilidad se la debemos, en gran
medida, a la tecnología RSS. Los e...
Según la policía, el luchador franco-canadiense estranguló en algún momento
del fin de semana, a su mujer y a su hijo de 7...
Audiencia Provincial de Madrid, ratificaba la sentencia. El fundamento de esta
sentencia recae en el hecho de que Vicente ...
Respecto a la separación que se hace habitualmente entre Web Semántica y Web
Social, José Antonio del Moral sostiene que e...
Se ha considerado que este surgir de los blogs y del ciudadano-periodista,
suponen una gran amenaza al periodismo más trad...
BIBLIOGRAFÍA

      http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-
      20.html?page=2

      h...
XIII
Próxima SlideShare
Cargando en…5
×

Web 2.0

451 visualizaciones

Publicado el

Trabajo universitario sobre la Web 2.0 y todo lo que ello supone, así como algunos casos ocurridos y, por último, una mirada al posible devenir de la red en la Web 3.0 y cuáles serían sus características

Publicado en: Empleo
0 comentarios
0 recomendaciones
Estadísticas
Notas
  • Sé el primero en comentar

  • Sé el primero en recomendar esto

Sin descargas
Visualizaciones
Visualizaciones totales
451
En SlideShare
0
De insertados
0
Número de insertados
6
Acciones
Compartido
0
Descargas
4
Comentarios
0
Recomendaciones
0
Insertados 0
No insertados

No hay notas en la diapositiva.

Web 2.0

  1. 1. Alberto Serrano Martín 1º Periodismo y CC. Audiovisual Grupo 53
  2. 2. ÍNDICE 1. EMPEZANDO CON BUEN PIE------------------------------------ III-IV 2. ¿WEB 2.0? Clickeo, luego existo------------------------------------V-VII 3. CUANDO EL SISTEMA FALLA ---------------------------------VII-IX a. La muerte que predijo la Wikipedia-----------------------------------VII-VIII b. La SGAE contra la Frikipedia ----------------------------VIII-IX 4. SERÁ POR NOMBRES ORIGINALES: WEB 3.0 ---------------IX-X 5. CONCLUYENDO ------------------------------------------------------X-XI 6. BIBLIOGRAFÍA---------------------------------------------------------- XII II
  3. 3. EMPEZANDO CON BUEN PIE Si realizamos un sondeo en toda España, es bastante probable que un elevado porcentaje de la población pusiese cara de póker al preguntarles por la Web 2.0. Sin embargo, esta tecnología es una realidad sin la que la mayoría de internautas no seríamos capaces de vivir. Ya nos resulta casi imposible imaginar un mundo sin Web 2.0: sin Wikipedia, sin Youtube, sin redes sociales, sin blogs, sin foros, sin actualizaciones instantáneas… en definitiva, sin chicha ni limoná. Es por eso precisamente por lo que conviene saber qué es y cómo funciona, y esto es lo que me propongo en este trabajo: analizar qué es, cómo funciona, cuáles pueden ser sus mayores defectos y cuál es su futuro, la Web 3.0. Yo tampoco fui una excepción, y también puse la misma cara de póker: no tenía ni idea de qué era la Web 2.0, ni de qué forma podía enfocarla. Sin embargo, cuando uno se encuentra con artículos tan valiosos como con los que me encontré yo, el trabajo se simplifica sensiblemente. De esta forma, y aún sin saberlo, utilizaba uno de los estandartes de esta tecnología, Google. Como un aventurero que se adentrara en el vasto nuevo mundo, introduje las palabras Web 2.0 en el buscador, y así encontré, ordenados por relevancia, el artículo de O’Reilly, de Maestros del Web y de Microsoft. Seguidamente, recordé un vídeo visto en la clase magistral sobre la Web 2.0, que me facilitó también las cosas. Y del artículo sobre la Web 2.0 de Maestros del web al artículo sobre la Web 3.0 no me separaba más que un click. La otra parte del trabajo, se la debo agradecer a todas esas horas muertas en las que encuentro cosas poco interesantes en un principio, pero que pueden resultar de gran utilidad. Así fue como tuve noticia sobre el conflicto entre la SGAE y la Frikipedia, por un lado, y del caso Chris Benoit en la Wikipedia. Para analizar y comprender el término Web 2.0, he acudido directamente a la fuente primaria, el padre de la criatura. Nadie mejor que él para explicar en qué consiste esta tecnología. El artículo, de una gran extensión, se encuentra originalmente en inglés en la siguiente dirección: http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web- 20.html?page=2 También me ha sido de gran utilidad el ya famoso vídeo “The machine is Us/ing Us”, que no tiene ningún desperdicio, y, además, es de gran utilidad para explicar qué es la Web 2.0: http://www.youtube.com/watch?v=6gmP4nk0EOE Para completar los ya consolidados conocimientos que hemos obtenido consultando los dos enlaces anteriores, podemos visitar los que se encuentran a continuación, en los que podemos observar opiniones de los usuarios, y alguna explicación más sencilla de conceptos que puede que no nos hayan resultado claros en el artículo de Tim O’Reilly, sobre todo. Los links los ofreceré de mayor a menor pertinencia: http://www.maestrosdelweb.com/editorial/web2/ III
  4. 4. http://www.microsoft.com/spain/empresas/internet/web_2.mspx http://blog.educastur.es/files/2007/06/web2_0v02.pdf http://reflexionesenelearning.blogspot.com/2008/12/resumen-del-curso-de-web- 20-de-esta.html http://comunidad.terra.es/blogs/computos/archive/2007/05/11/C_F300_mo- aprovech--una-Web-bien-posicionada-en-buscado.aspx http://groups.google.com/group/comunicaciondigital1/browse_thread/thread/ed3 7aec43821bdc3?hl=es&ie=UTF-8&oe=UTF-8&q=web+2.0 Para ver algunos de los fallos y problemas que han surgido en ciertas páginas webs que utilizan la tecnología Web 2.0 he utilizado estos enlaces, ordenados también de mayor a menor relevancia: http://www.youtube.com/watch?v=JtBdvon8wWA http://www.elmundo.es/navegante/2007/06/29/tecnologia/1183144289.html http://es.wikipedia.org/wiki/Chris_Benoit http://www.elpais.com/articulo/internet/muerte/predijo/Wikipedia/elpeputec/200 70629elpepunet_5/Tes http://blog.frikipedia.es/2007/11/08/legisdynamics/ http://www.frikipedia.es/friki/SGAE http://es.wikipedia.org/wiki/Frikipedia http://www.frikipedia.es/friki/Wikipedia Para comprender el devenir de la red en la actualidad y todo lo que supone la Web 3.0 y la Web Semántica, un artículo imprescindible, según mi punto de vista, es el publicado el 21 de agosto de 2007 en Maestros del Web. Precisamente esta página me ha resultado de gran utilidad ya que ahí he encontrado muy buenos artículos sobre la Web 2.0 y esta Web 3.0: http://www.maestrosdelweb.com/editorial/la-web-30-anade-significado/ IV
  5. 5. ¿WEB 2.0? Clickeo, luego existo La Web 2.0 es una nueva forma de comunicación e interacción en la red. Debido a este sistema, es posible actualizar constantemente las páginas webs, así como colaborar entre todos. Muchas, si no todas, de las webs más populares hoy en día, no serían posibles sin esta tecnología. De esta forma, la Wikipedia, los blogs, los motores de búsqueda, las descargas de música… no se podrían concebir sin este sistema. En definitiva, la Web 2.0 somos todos nosotros, su objetivo es el usuario final, enlazar no archivos y páginas, sino usuarios. Usuarios que comparten informaciones, archivos, documentos, etc. La historia de la Web 2.0 se remonta a 2001, cuando se produjo un auténtico colapso de las webs HTML o .com. La mayoría de la gente lo consideraba como una burbuja que había estallado y no sabían ni qué hacer, ni cuál sería el futuro inmediato de la red. Esta burbuja se produjo porque la tecnología HTML funcionaba definiendo la estructura de los documentos de la web, referido más bien a párrafos. A medida que HTML se expandía, más documentos eran añadidos para definir su forma. En HTML, forma y contenido resultaban inseparables. La tecnología XML fue diseñada precisamente para esta labor, separar forma y contenido. De este modo, los datos—no solo texto, sino también videos, fotografías y otros archivos—, podían exportarse, descargarse e intercambiarse independientemente de su forma de una manera fácil y accesible a todos los usuarios. La pregunta sobre quién organizará todos estos contenidos es fácil de responder, tú, yo, nosotros, los motores de búsqueda: nosotros somos la web al enseñar a la máquina ideas, criterios… En una sesión de brainstorming con MediaLive, a Tim O’Reilly se le ocurrió el término Web 2.0 para designar algunas de las características que hicieron que ciertas páginas sobrevivieran mientras que otras no. Dale Dougherty y O’Reilly se dieron cuenta de que Internet era más importante cada vez, a diferencia de lo que sugería el pánico y la histeria colectiva del momento. Este renacer de la web se materializaba en las múltiples aplicaciones que surgían cada día. Y así es como, en una Conferencia en San Francisco, nació oficialmente la Web 2.0 en 2004. Desde que se originó la idea hasta que se presentó en la Conferencia antes mencionada, su uso se estandarizó, pese a que su significado era desconocido. Definir la Web 2.0 no era tarea sencilla, y por eso, sus creadores ofrecieron más bien ejemplos de lo que sería la Web 2.0 y en qué se diferenciaba de la Web 1.0. La primera lista que idearon en una de sus tormentas de ideas, ya tan conocida, la podemos ver a pie de página1. El siguiente paso que dieron a la hora de definir la web 2.0 fue realizar un 1 Web 1.0 Web 2.0 Doubeclick Google AdSense Ofoto Flickr Akamai BitTorrent Mp3.com Napster Britannica Online Wikipedia Personal Websites Blogging Evite upcoming.org and EVDB Domain name speculation Search engine optimization Page views Coster per click Screen scraping Web services Publishing Participation Content management systems Wikis Directories (taxonomy) Tagging (“folksonomy”) Stickiness Syndication V
  6. 6. mapa conceptual con las ideas que habían surgido en los brainstorming realizados. Uno de los primeros principios que se establecieron, fue la Web como una plataforma. Toda operación realizada en la red era, en realidad, una colaboración entre dos sites, en las que se encontraban vínculos que llevaban al lector a otra página diferente. Esa era la forma en que Akamai funcionaba, como una plataforma. El mapa conceptual mencionado es el siguiente: Una de las principales diferencias se establecía entre el todopoderoso Google y las antiguas Netscape. Netscape operaba en el antiguo paradigma: su buscador y, en definitiva, su estrategia estribaba en usar su poder en el mercado de buscadores para establecer un mercado de productos de servidores a un alto coste, siguiendo el ejemplo de Microsoft en el mercado de los ordenadores. En cambio, Google empezó como un servicio más que como un producto comerciable, en constante mejora de sus aplicaciones. Google no es simplemente una colección de herramientas software, es una base de datos muy especializada. De hecho, el valor del software es proporcional a la escalada y dinamismo de información que consigue. Google opera en el espacio entre el navegador, el buscador y el servidor del contenido de destino, como un intermediario entre el usuario y su experiencia online. El principal motivo del éxito de la Web 2.0 radica en los múltiples hipertextos. A medida que los usuarios añaden nueva información y nuevos sites, estos son conectados a la estructura de la web por otros usuarios que descubren el contenido y enlazan con él. Es un procedimiento similar al del cerebro humano, en el que las asociaciones se refuerzan por medio de la repetición o la intensidad. Las conexiones de la web crecen como un producto de la actividad colectiva de todos los usuarios. Algunas de las webs que han presentado nuevos modelos arriesgados y que han resultado un éxito son Yahoo!, Google, eBay, Amazon, Wikipedia, del.icio.us o Flickr, entre otros. Una de las herramientas que han causado una total revolución son los blogs. Pese a que el interés por publicar en la red vivencias personales con una regularidad casi VI
  7. 7. diaria no es nuevo, ahora es más fácil que nunca. Esta facilidad se la debemos, en gran medida, a la tecnología RSS. Los estándares de sindicación de contenidos, comúnmente conocidos como feeds, nos permiten enlazar no simplemente a una página, sino suscribirnos a ella, con notificaciones cada vez que se produzcan cambios en la página. Si una parte esencial de la Web 2.0 es engarzar la inteligencia colectiva, haciendo de la red una especie de cerebro colectivo, la blogosfera sería semejante a la voz que escuchamos en nuestras cabezas. Puede que no se refiera a estructuras complejas del cerebro, el cual se muestra frecuentemente como inconsciente, sino que es el reflejo de la parte consciente. Como tal, tiene un poderoso efecto debido a que los motores de búsqueda utilizan estructuras de enlaces para predecir las páginas más útiles, como las que más visitas han obtenido. Este efecto tan poderoso también se debe a que la comunidad bloggera se presta tanta atención a sí mismos, es decir, a otros bloggeros, que su visibilidad aumenta exponencialmente, el efecto eco. Sin embargo, no se trata de una simple amplificación. Como hace Wikipedia, los blogs unen la inteligencia colectiva por filtros. Lo que James Suriowecki llama “la sabiduría de las masas” entra en acción en la medida en que son los propios bloggeros los que manifiestan su preferencia por una u otra información y marcan su valor. En este punto, los blogs ya no suponen simplemente una competición entre diferentes sites, sino entre la blogosfera y los medios tradicionales. El mundo de la Web 2.0 es también el mundo de lo que Dan Gilmor llama “Nosotros, los medios”, un mundo en el que la audiencia decide qué es importante y qué no lo es. En resumen, las páginas que integran la Web 2.0 se caracterizan, al menos, por los siguientes principios: Servicios con escala efectiva de costes; las bases de información se vuelven más ricas a medida que más usuarios las utilizan y resultan muy difíciles de replantear; se basan en la confianza en otros usuarios y en los que las desarrollan; unen la inteligencia y sabiduría colectivas; el software va más allá del nivel de un solo servidor; usan interfaces, modelos de desarrollo y modelos de negocio AND. CUANDO EL SISTEMA FALLA Sin embargo, esta gran interactividad trae consigo ciertos problemas de los que ni la todopoderosa Wikipedia se ha salvado. En muchas ocasiones, para participar en estos tipos de webs no se requiere más que proporcionar una dirección de correo electrónico, por lo cual resulta más difícil si cabe el evitar posibles infracciones cometidas por los usuarios que han enviado la aportación. La muerte que predijo la Wikipedia Uno de los mayores escándalos que ha sacudido a esta gigante enciclopedia es el caso Chris Benoit. Este afamado luchador de Pressing Catch asesinó a su mujer y a su hijo antes de suicidarse en su mansión el 25 de junio de 2007. La controversia se generó debido a que, 14 horas antes de que la policía descubriese el parricidio, se podía leer en su página de Wikipedia que “Chris Benoit fue sustituido por John Nitro para la pelea del Campeonato Mundial de ECW en Vengeance, al no encontrarse Benoit allí debido a asuntos personales, surgidos por la muerte de su mujer Nancy”. Esta primera aportación fue borrada por un administrador de la Wikipedia debido a falta de pruebas. En una segunda entrada, otro usuario, cuya dirección IP quedó registrada, decía que, “según muchas páginas de Internet sobre la lucha libre, se debió al fallecimiento de su mujer”. VII
  8. 8. Según la policía, el luchador franco-canadiense estranguló en algún momento del fin de semana, a su mujer y a su hijo de 7 años, que padecía una extraña enfermedad llamada Síndrome X frágil, dejando biblias alrededor de los cadáveres y suicidándose horas después en su sala de pesas. Los indicios sugieren que Benoit había consumido esteroides y sufriría de la “Rabia del roid”. Pero volviendo a la controversia, este último usuario expuso que todo se debía a una “increíble coincidencia y nada más”. Para más coincidencias, el post fue enviado desde Connecticut, sede central de la WWE— empresa a la que Benoit pertenecía en ese momento—, y lugar en el que se celebraba el siguiente evento de lucha libre al que el “Estrangulador canadiense” (irónico nombre para tan trágico final), faltó debido a los hechos que estaban ocurriendo ese fin de semana. La SGAE contra la Frikipedia Este conflicto se originó cuando la SGAE denunció a la Frikipedia, parodia en español de la Wikipedia, debido a intromisiones al derecho al honor y la intimidad de algunos de sus máximos exponentes, de los que se realizaban críticas desmedidas y se descargaban improperios hacia su persona. Según la Wikipedia, “La Frikipedia, también nombrada la «enciclopedia extremadamente seria» o la «enciclopedia inútil», es una parodia de la Wikipedia en español, aunque la Frikipedia argumenta que es al revés, de poco o nulo parecido con la realidad, debido a que es realmente un sitio creado para satirizar y criticar. No obstante, en ocasiones su contenido puede llegar a ser simpático e incluso cómico”. Su animadversión hacia dicha parodia queda patente a lo largo de toda la entrada. La definición de Wikipedia que hallamos en la Frikipedia, tampoco tiene ningún desperdicio, continuando con la tónica general de esta web, desenfadada, graciosa y muy absurda, con notables faltas de ortografía intencionadas: “Burda imitación de Frikipedia que intentaron hacer seria pero en la que cometieron errores tan graves como afirmar que la Tierra gira alrededor del los puticlub de hombres Sol, poner en duda que este esté hecho de chili, afirmar una estupidez tal y como es que la Luna no esta hecha de queso, decir que Windows sirve es un sistema operativo, afirmar que Hulk es verde no rosa no es el padre de Hulk Hogan y lo peor de todo, decir que Chuck Norris es un simple actor (aún se desconoce porque Chuck Norris no ha eliminado a esos blasfemos, debe estar violando a la madre de cada uno todas juntas). Suelen darse de inteligentes y crean proyectos que suelen quedarse por la mitad, hablan de webs superiores en 10 millones de años luz como Frikipedia como si fuera una web cualquiera (que insolencia por eso los wikipedistas no deverian de exsisitir). Intentan estúpidamente obtener fondos para mejorar su paja web y comprar mas furnis en habbo”. También reutilizan las características expuestas en la Wikipedia sobre su web, pero revertiéndolas en su favor, con notable dosis de ironía y sarcasmo. El acontecer de los hechos, según el blog del propio dirigente de la web, Vicente Krusher, fue el siguiente: Krusher recibe una demanda de la SGAE reclamándole 9000 euros porque alguien había tildado como “mafiosos” a esta sociedad, en la web que él dirigía, y otra persona había subido una foto de Pedro Farré, el director de la SGAE, con un parche en el ojo y un loro en el hombro. Tras ciertos intentos de Krusher por recaudar ciertas cantidades de dinero a través de donaciones que pueden realizar los usuarios de este sitio web, se presenta a un juicio que pierde. La jueza falla a favor de la SGAE, condenándole a pagar 600 euros y las costas judiciales. Sin embargó, este fallo no era en firme y podía apelarse, tal como hizo el señor Krusher. Tras la apelación, la VIII
  9. 9. Audiencia Provincial de Madrid, ratificaba la sentencia. El fundamento de esta sentencia recae en el hecho de que Vicente Krusher es el que tiene el máximo control sobre la página y, por tanto, es el responsable de los contenidos vertidos en la misma, pese a que, estrictamente, la ley dice que la responsabilidad sólo sería de los propietarios cuando éstos tuviesen conocimiento de una actividad ilícita en su web. De esta forma, el 3 de febrero de 2006, la Frikipedia se veía obligada a cerrar su web. Después de un acuerdo con la SGAE, Frikipedia abrió de nuevo el 26 de febrero, pero sin mencionar en ninguno de sus artículos a la entidad de Pedro Farré. El malestar de los propios usuarios ante “una bajada de pantalones en toda regla”, obligó a cerrar de nuevo el sitio, que volvió a abrir en modo de pruebas en junio de 2006 y, poco a poco, se fue restableciendo, hasta el fallo definitivo ya mencionado y su consiguiente apertura el 20 de octubre de 2007. Actualmente, si introducimos SGAE en el buscador de la Frikipedia, podemos leer: BLOQUEADO Este artículo está bloqueado porque algún membrillo lo usa reiteradamente para hacer spam, ataques personales, etc. Concretamente, éste está bloqueado porque ha dado problemas judiciales. Si quieres empezar un artículo aquí, contacta con un administrador o déjalo dicho en su discusión. Y si nos mola pues ya te damos acceso. SERÁ POR NOMBRES ORIGINALES: WEB 3.0 La web 3.0 todavía no se encuentra ni siquiera bien definida, aunque se sabe que esta etapa está destinada a añadir significado a la web. Uno de los pioneros en acuñar este término, José Antonio del Moral, director general de la consultora Alianzo, califica a este término como abstracto. Otros, como Salvador Pérez Crespo, consideran que la Web 3.0 será una revolución si logra una combinación efectiva entre la inclusión de contenido semántico en las páginas web y el uso de inteligencia artificial que saque partido de ella. No obstante, no debemos confundir la Web Semántica, proceso evolutivo en construcción permanente, con la Web 3.0. En palabras del creador de la World Wide Web, Tim Berners-Lee, la Web Semántica o Web de datos, “se refiere a una web capaz de interpretar e interconectar un número mayor de datos, lo que permitiría un avance importante en el campo del conocimiento”, Según Berners-Lee, la Web de datos alcanzaría su capacidad máxima cuando se convirtiese en un ambiente donde los datos pudiesen ser compartidos y procesados por las herramientas automatizadas, así como por la gente. Por otra parte, observaba que la sintaxis RDF/XML, empleada por éste, no es muy fácil de leer. La Web 3.0 se encuentra relacionada con los avances y proyectos en curso que tienden a una mayor incorporación de la red en la cotidianeidad. Eso da pie a que se hable de Web 3D, Web centrada en multimedia y Web permanente. Su implantación definitiva, tal como sucedió con la Web 1.0 y 2.0, será una cuestión de actitud del usuario, aunque actualmente precisa de una total remodelación de la web, lo cual parece imposible y su futuro pasa por adaptar los cambios a una serie de elementos preexistentes. Un punto de discordia en torno al futuro de la Web 3.0, radica en los motores de búsqueda, los cuales según Nicholas Carr, quedarían obsoletos. Otros expertos, sin embargo, discrepan en este punto, sugiriendo que los motores de búsqueda podrán evolucionar y hacerse Web semántico compatibles, en la medida en que los usuarios exijan dicha compatibilidad. IX
  10. 10. Respecto a la separación que se hace habitualmente entre Web Semántica y Web Social, José Antonio del Moral sostiene que en la Web 3.0 se produciría una unificación de las comunidades sociales, para lograr que el usuario tuviera una sola identidad en Internet. El objetivo de los agentes inteligentes o microformatos, máximos responsables de la Web 3.0, es estandarizar un conjunto de formatos en los que almacenar conocimiento básico. La Web 3D, a la que hacía referencia hace un par de párrafos, tiene que ver con la hipótesis que mi grupo defendía la semana pasada, por la cual, en un futuro, se podría dar la total integración del individuo en un mundo virtual del cual no se vea obligado a salir. Esta hipótesis nace de sitios como Second Life o There.com, una alternativa al mundo real. La web centrada en multimedia es una web enfocada en los multimedios, donde se podrán hacer búsquedas por similitud, de imágenes, música y videos, con sólo mostrar al buscador el medio de referencia. La Web permanente, omnipresente o pervasive web es una web que está en todas partes. Es un concepto, que se ha extendido a partir del paso del ordenador a los móviles. Ciertos sectores se muestran poco convencidos respecto a la imposición de la Web 3.0. Así, Ricardo Baeza-Yates, director de Yahoo! Research Barcelona, duda de que la Web Semántica pueda incluso llegar a existir, ya que sólo podría ocurrir cuando personas e instituciones usaran los mismos estándares semánticos, algo prácticamente imposible, según él. En contraposición a esta afirmación, ya ha habido algunos proyectos que anticipan la implantación de la Web Semántica. La empresa RadarNetworks busca explotar el contenido suministrado por los usuarios en las redes sociales y el proyecto KnowItAll, financiado por Google, busca obtener y agregar información de usuarios de productos. Empresas como Powerset y TextDigger han trabajado en buscadores web semánticos basados en el proyecto académico open source WordNet. El proyecto más temprano en cuanto a la construcción de agentes más inteligentes, ha sido el de BlueOrganizer de AdaptativeBlue. Para aclarar un poco más la evolución de Web 1.0 a Web 2.0 y, finalmente, Web 3.0, nos podemos servir de la siguiente aclaración, realizada por Andrés Richero: Web 1.0 - Personas conectándose a la Web; Web 2.0 - Personas conectándose a personas - redes sociales, wikis, colaboración y posibilidad de compartir; Web 3.0 - Aplicaciones web conectándose a aplicaciones web, a fin de enriquecer la experiencia de las personas. CONCLUYENDO Tras leer este trabajo, espero que el lector poco avezado en este tema pueda hacerse una idea más completa sobre la Web 2.0 y todo lo que implica. Como hemos visto, esta tecnología significa conectar gente, compartir archivos, videos, música, experiencias. También hemos visto cómo el futuro de la red se puede encaminar hacia una integración del individuo en el pseudoambiente, a través de sitios como Second Life o una hipotética Web 3D. Todo ello refuerza la teoría de nuestro querido Marshall McLuhan de que el mundo es cada vez más una aldea global, en la que todos los individuos, los mass man, se pueden intercambiar todo tipo de datos de una forma instantánea. Lo que nos conduce a la idea de que cada vez seremos más los mass man enganchados a este medio. Es decir, la disfunción narcotizante podría llegar a límites muy preocupantes, suponiendo un auténtico desafío para la sociedad. Sin embargo, resulta difícil pensar en un mundo en el que toda la gente estuviera conectada constantemente, y defender esa tesis resulta algo más que difícil X
  11. 11. Se ha considerado que este surgir de los blogs y del ciudadano-periodista, suponen una gran amenaza al periodismo más tradicional. Sin embargo, tal como sugiere O’Reilly, los blogs pueden constituirse en un complemento del periodismo impreso más que en una competencia. Además, conviene no olvidar que, aunque estos se puedan constituir como más importantes que un periódico digital, la confianza que depositen en ellos los internautas reside en su fiabilidad, por lo cual, un blog informativo debe continuar con los principios de veracidad ante la noticia y continuar con las teorías de la agenda setting y del gatekeeper, que marcan cuáles son los temas más relevantes para la sociedad. Por tanto, nos encontramos frente a una posible evolución de los periódicos, no sustitución ni desplazamiento. No hay que olvidar tampoco que todos los periódicos digitales incorporan una gran cantidad de blogs de periodistas de reconocido prestigio. Todo ello, nos podría llevar a pensar en un mega blog, que sería el periódico digital—New York Times, El País, El Mundo…—, que aglutine una infinidad de blogs de periodistas de prestigio, proporcionando una gran interactividad al lector, que podría estar en constante comunicación con las noticias, con los periodistas, con otros lectores, etc. Además, una buena idea sería proporcionar un blog conjunto a los usuarios, donde puedan expresar su opinión acerca de temas especializados o de actualidad, y así, poco a poco, labrarse un nombre en el mundo de los blogs gracias a su forma de tratar las informaciones, su fiabilidad o grado de empatía con el lector. Este modelo de negocio sería altamente beneficioso para todas las partes implicadas, veamos por qué. Por un lado, el periódico puede descubrir nuevos talentos y futuros periodistas estrella, que, además, llevarían consigo a un gran número de adeptos, que se convertirían, por ende, en visitantes de la página del periódico y haría crecer al medio. Por otro lado, los escritores y periodistas aficionados encontrarían un trampolín sin parangón en este modelo de negocio, ya que, como ocurría con la red social Tuenti—en la que los propios administradores reclutaban personal entre sus usuarios más expertos, de forma que a estos se les presentaba una oferta de trabajo sin haberla buscado—, los usuarios pueden conseguir un puesto de trabajo en algo que les gusta demostrando lo que saben hacer y que lo hacen de una forma eficiente y rentable para el medio. Por supuesto, este modelo sería difícil de sostener sin publicidad, por lo que mi propuesta sería la siguiente. Para acceder a la página principal del periódico, se necesita estar registrado, si bien el registro es totalmente gratuito. Una vez registrado, el usuario crea un perfil como si de una red social se tratara. Con toda esta información, el periódico puede realizar una segmentación del mercado muy precisa y a un bajo coste, de modo que puede adaptar la publicidad al perfil y ofrecer aquella que sea más pertinente y menos molesta a cada usuario. Este modelo de publicidad es muy parecido al que utiliza Tuenti, y ha probado ser bastante eficiente. Por supuesto, no bastaría con esa publicidad, sino que se debería seguir con tácticas como la publicidad previa a los videos u otras campañas de publicidad poco perceptibles. Sin embargo, una publicidad a la que yo, particularmente, no encuentro ningún sentido es a la de poner un anuncio grande publicitario al entrar en determinadas páginas, anuncio que puede saltarse dando a cerrar ventana, y que sólo consigue molestar al usuario. Sin duda, este replanteamiento de la web necesita también de un serio replanteamiento de los modelos de publicidad, si bien queda claro que los costes de producción tienden a reducirse, y llegar a economías de escala es más accesible que nunca. XI
  12. 12. BIBLIOGRAFÍA http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web- 20.html?page=2 http://blog.educastur.es/files/2007/06/web2_0v02.pdf http://blog.educastur.es/blog/2007/06/18/web-20-y-educacion/ (video) http://comunidad.terra.es/blogs/computos/archive/2007/05/11/C_F300_mo- aprovech--una-Web-bien-posicionada-en-buscado.aspx http://groups.google.com/group/comunicaciondigital1/browse_thread/thread/ed3 7aec43821bdc3?hl=es&ie=UTF-8&oe=UTF-8&q=web+2.0 http://www.isoco.com/?gclid=CMTSsuKZ9pgCFQsJ3wodpUd21Q http://www.youtube.com/watch?v=JtBdvon8wWA http://www.youtube.com/watch?v=6gmP4nk0EOE (web 2.0) http://www.maestrosdelweb.com/editorial/la-web-30-anade-significado/ http://www.microsoft.com/spain/empresas/internet/web_2.mspx http://www.maestrosdelweb.com/editorial/web2/ http://reflexionesenelearning.blogspot.com/2008/12/resumen-del-curso-de-web- 20-de-esta.html http://es.wikipedia.org/wiki/Chris_Benoit http://www.elpais.com/articulo/internet/muerte/predijo/Wikipedia/elpeputec/200 70629elpepunet_5/Tes http://www.elmundo.es/navegante/2007/06/29/tecnologia/1183144289.html http://blog.frikipedia.es/2007/11/08/legisdynamics/ http://www.frikipedia.es/friki/SGAE http://es.wikipedia.org/wiki/Frikipedia http://www.frikipedia.es/friki/Wikipedia CARRERA, Pilar (2008). “Teoría de la Comunicación Mediática”. Valencia: Tirant lo Blanch. 286 páginas. Serie: comunica. ISBN: 9788498762303. Depósito legal: V.3098- 2008. XII
  13. 13. XIII

×