SlideShare una empresa de Scribd logo
UNIVERSIDAD CATÓLICA DEL ECUADOR
                     Teoría de la Información y Codificación


                           Semana N° 1
                                Temas del deber:
      Certificado de haber leído las reglas del curso.
      Tres conceptos de Información.
      Cinco aspectos importantes de la biografía de Claude Elwood Shannon.
      Niveles de Información.


Bibliografía:
    http://www.mastermagazine.info/termino/5366.php
    http://definicion.de/informacion/
    http://www.promonegocios.net/mercadotecnia/definicion-informacion.html
    http://www.monografias.com/trabajos14/datos/datos.shtml
    http://www.biografiasyvidas.com/biografia/s/shannon.htm
    La Revolución de la Riqueze, Toffler Alvin y Toffler Heidi, Random House
       Mondadori, 2006, Pág. 154.
    Ing. Egas, Carlos. Apuntes de Teoría de la Información y Codificación [en
       línea] [Quito, Ecuador]: Abril 2006.




Nombres de las personas con las cuales se hizo los deberes
Ninguna.




                                                              Fecha de entrega:
                                                     Lunes 25 de Enero del 2010
                                     Luis Humberto Vásquez
CERTIFICADO DE HABER LEÍDO LAS REGLAS DEL CURSO

Yo, Luis Humberto Vásquez con C.I.: 1712132651 cerífico haber leído completamente las
reglas del curso.

Lunes 25, Enero del 2010
Quito – Ecuador




                     TRES CONCEPTOS DE INFORMACIÓN

Información.- Información es un conjunto de datos que están organizados y que tienen
un significado. De esta manera, si tomamos datos por separado no tendrían un significado
mientras que si los agrupamos en forma organizada, si.
La información es un elemento fundamental en el proceso de la comunicación, ya que
tiene un significado para quien la recibe, que la va a comprender si comparte el mismo
código que quien la envía. Esto no sólo ocurre en un proceso social sino también en los
procesos informáticos.1

Información.- Es un conjunto organizado de datos, que constituye un mensaje sobre un
cierto fenómeno o ente. La información permite resolver problemas y tomar decisiones, ya
que su uso racional es la base del conocimiento. Por lo cual la información es un
fenómeno que aporta significado o sentido a las cosas, ya que mediante códigos y
conjunto de datos, forma los modelos del pensamiento humano.2

Información.- La información es un conjunto de datos acerca de algún suceso, hecho o
fenómeno, que organizados en un contexto determinado tienen su significado, cuyo
propósito puede ser el de reducir la incertidumbre o incrementar el conocimiento acerca
de algo.3




        CINCO ASPECTOS IMPORTANTES DE LA BIOGRAFÍA DE
                  CLAUDE ELWOOD SHANNON

       En 1936 aceptó la posición de asistente de investigación en el departamento de
        ingeniería eléctrica en el Instituto de Tecnología de Massachusetts (MIT), donde
        surgió su interés hacia los circuitos de relevadores complejos.

       En 1940 le fue concedido el Premio a ingenieros americanos del Instituto
        Americano Alfred Nobel de Estados Unidos, una concesión dada cada año a una
        persona de no más de treinta años. Un cuarto de siglo más tarde H. H. Goldstine,

1
  http://www.mastermagazine.info/termino/5366.php
2
  http://definicion.de/informacion/
3
  http://www.promonegocios.net/mercadotecnia/definicion-informacion.html
en su libro "Las computadoras desde Pascal hasta Von Neumann", citó su tesis
        como una de las más importantes de la historia que ayudó a cambiar el diseño de
        circuitos digitales.

       Shannon pasó quince años en los laboratorios Bell, en donde trabajó en muchas
        áreas, siendo lo más notable todo lo referente a la teoría de la información, un
        desarrollo que fue publicado en 1948 bajo el nombre de "Una Teoría Matemática
        de la Comunicación".

       En 1950 un trabajo que describía la programación de una computadora para jugar
        al ajedrez, convirtiéndose en la base de posteriores desarrollos.

       Las publicaciones de Shannon en 1949 demostraron cómo se podía analizar dicha
        cuantificación (expresada en una magnitud que denominó bit) mediante métodos
        estrictamente matemáticos. Así, era posible medir la verosimilitud de la
        información mutilada por pérdidas de bits, distorsión de los mismos, adición de
        elementos extraños, etc., y hablar con precisión de términos antes vagos, como
        redundancia o ruido e, incluso, expresar el concepto físico de entropía como un
        proceso continuado de pérdida de información.




                            NIVELES DE LA INFORMACIÓN

Para poder comprender la naturaleza de la información es necesario representar a la
información en cinco niveles que a continuación se presentan:
                   Estadístico
                   Sintaxis
                   Semántico
                   Pragmatismo
                   Apobética4




4
 Ing. Egas, Carlos. Apuntes de Teoría de la Información y Codificación [en línea][Quito, Ecuador]: Abril
2006.

Más contenido relacionado

Similar a Deber 1 1

Historia De La Ciencia De La InformacióN
Historia De La Ciencia De La InformacióNHistoria De La Ciencia De La InformacióN
Historia De La Ciencia De La InformacióN
Mauricio Fino
 
Estadística, una ciencia en controversia
Estadística, una ciencia en controversiaEstadística, una ciencia en controversia
Estadística, una ciencia en controversia
Miguel Montaño
 
Presteora De La Comunicacion2894
Presteora De La Comunicacion2894Presteora De La Comunicacion2894
Presteora De La Comunicacion2894
Unsa
 
Introducción a la terminología de la sociedad e
Introducción a la terminología de la sociedad eIntroducción a la terminología de la sociedad e
Introducción a la terminología de la sociedad e
Megamovil
 

Similar a Deber 1 1 (20)

SERVICIOS DE INTELIGENCIA
SERVICIOS DE INTELIGENCIASERVICIOS DE INTELIGENCIA
SERVICIOS DE INTELIGENCIA
 
Ineg Ide La Soc Del Conocimiento A L
Ineg Ide La Soc Del Conocimiento A LIneg Ide La Soc Del Conocimiento A L
Ineg Ide La Soc Del Conocimiento A L
 
Historia de la informacion
Historia de la informacionHistoria de la informacion
Historia de la informacion
 
La información y su importancia en la Ciencia de la Información_Jackeline Gar...
La información y su importancia en la Ciencia de la Información_Jackeline Gar...La información y su importancia en la Ciencia de la Información_Jackeline Gar...
La información y su importancia en la Ciencia de la Información_Jackeline Gar...
 
Análisis de Información en entornos colaborativos
Análisis de Información en entornos colaborativosAnálisis de Información en entornos colaborativos
Análisis de Información en entornos colaborativos
 
Historia De La Ciencia De La InformacióN
Historia De La Ciencia De La InformacióNHistoria De La Ciencia De La InformacióN
Historia De La Ciencia De La InformacióN
 
Estadística.
Estadística.Estadística.
Estadística.
 
Estadística, una ciencia en controversia
Estadística, una ciencia en controversiaEstadística, una ciencia en controversia
Estadística, una ciencia en controversia
 
Presteora De La Comunicacion2894
Presteora De La Comunicacion2894Presteora De La Comunicacion2894
Presteora De La Comunicacion2894
 
Pres.TeoríA De La Comunicacion
Pres.TeoríA De La ComunicacionPres.TeoríA De La Comunicacion
Pres.TeoríA De La Comunicacion
 
Introducción Seguridad
Introducción SeguridadIntroducción Seguridad
Introducción Seguridad
 
GESESI-Introduccion-a-la-seguridad.pdf
GESESI-Introduccion-a-la-seguridad.pdfGESESI-Introduccion-a-la-seguridad.pdf
GESESI-Introduccion-a-la-seguridad.pdf
 
Articulo 12 3
Articulo 12 3Articulo 12 3
Articulo 12 3
 
Informacion (1)
Informacion (1)Informacion (1)
Informacion (1)
 
Introducción a la terminología de la sociedad e
Introducción a la terminología de la sociedad eIntroducción a la terminología de la sociedad e
Introducción a la terminología de la sociedad e
 
Clase 1-intro
Clase 1-introClase 1-intro
Clase 1-intro
 
Clase. Análisis de Contenido Cuantitativo
Clase. Análisis de Contenido CuantitativoClase. Análisis de Contenido Cuantitativo
Clase. Análisis de Contenido Cuantitativo
 
Historia informatica
Historia informaticaHistoria informatica
Historia informatica
 
Sociedad del-conocimiento-simposium-dwh
Sociedad del-conocimiento-simposium-dwhSociedad del-conocimiento-simposium-dwh
Sociedad del-conocimiento-simposium-dwh
 
Sociedad del conocimiento
Sociedad del conocimientoSociedad del conocimiento
Sociedad del conocimiento
 

Deber 1 1

  • 1. UNIVERSIDAD CATÓLICA DEL ECUADOR Teoría de la Información y Codificación Semana N° 1 Temas del deber: Certificado de haber leído las reglas del curso. Tres conceptos de Información. Cinco aspectos importantes de la biografía de Claude Elwood Shannon. Niveles de Información. Bibliografía:  http://www.mastermagazine.info/termino/5366.php  http://definicion.de/informacion/  http://www.promonegocios.net/mercadotecnia/definicion-informacion.html  http://www.monografias.com/trabajos14/datos/datos.shtml  http://www.biografiasyvidas.com/biografia/s/shannon.htm  La Revolución de la Riqueze, Toffler Alvin y Toffler Heidi, Random House Mondadori, 2006, Pág. 154.  Ing. Egas, Carlos. Apuntes de Teoría de la Información y Codificación [en línea] [Quito, Ecuador]: Abril 2006. Nombres de las personas con las cuales se hizo los deberes Ninguna. Fecha de entrega: Lunes 25 de Enero del 2010 Luis Humberto Vásquez
  • 2. CERTIFICADO DE HABER LEÍDO LAS REGLAS DEL CURSO Yo, Luis Humberto Vásquez con C.I.: 1712132651 cerífico haber leído completamente las reglas del curso. Lunes 25, Enero del 2010 Quito – Ecuador TRES CONCEPTOS DE INFORMACIÓN Información.- Información es un conjunto de datos que están organizados y que tienen un significado. De esta manera, si tomamos datos por separado no tendrían un significado mientras que si los agrupamos en forma organizada, si. La información es un elemento fundamental en el proceso de la comunicación, ya que tiene un significado para quien la recibe, que la va a comprender si comparte el mismo código que quien la envía. Esto no sólo ocurre en un proceso social sino también en los procesos informáticos.1 Información.- Es un conjunto organizado de datos, que constituye un mensaje sobre un cierto fenómeno o ente. La información permite resolver problemas y tomar decisiones, ya que su uso racional es la base del conocimiento. Por lo cual la información es un fenómeno que aporta significado o sentido a las cosas, ya que mediante códigos y conjunto de datos, forma los modelos del pensamiento humano.2 Información.- La información es un conjunto de datos acerca de algún suceso, hecho o fenómeno, que organizados en un contexto determinado tienen su significado, cuyo propósito puede ser el de reducir la incertidumbre o incrementar el conocimiento acerca de algo.3 CINCO ASPECTOS IMPORTANTES DE LA BIOGRAFÍA DE CLAUDE ELWOOD SHANNON  En 1936 aceptó la posición de asistente de investigación en el departamento de ingeniería eléctrica en el Instituto de Tecnología de Massachusetts (MIT), donde surgió su interés hacia los circuitos de relevadores complejos.  En 1940 le fue concedido el Premio a ingenieros americanos del Instituto Americano Alfred Nobel de Estados Unidos, una concesión dada cada año a una persona de no más de treinta años. Un cuarto de siglo más tarde H. H. Goldstine, 1 http://www.mastermagazine.info/termino/5366.php 2 http://definicion.de/informacion/ 3 http://www.promonegocios.net/mercadotecnia/definicion-informacion.html
  • 3. en su libro "Las computadoras desde Pascal hasta Von Neumann", citó su tesis como una de las más importantes de la historia que ayudó a cambiar el diseño de circuitos digitales.  Shannon pasó quince años en los laboratorios Bell, en donde trabajó en muchas áreas, siendo lo más notable todo lo referente a la teoría de la información, un desarrollo que fue publicado en 1948 bajo el nombre de "Una Teoría Matemática de la Comunicación".  En 1950 un trabajo que describía la programación de una computadora para jugar al ajedrez, convirtiéndose en la base de posteriores desarrollos.  Las publicaciones de Shannon en 1949 demostraron cómo se podía analizar dicha cuantificación (expresada en una magnitud que denominó bit) mediante métodos estrictamente matemáticos. Así, era posible medir la verosimilitud de la información mutilada por pérdidas de bits, distorsión de los mismos, adición de elementos extraños, etc., y hablar con precisión de términos antes vagos, como redundancia o ruido e, incluso, expresar el concepto físico de entropía como un proceso continuado de pérdida de información. NIVELES DE LA INFORMACIÓN Para poder comprender la naturaleza de la información es necesario representar a la información en cinco niveles que a continuación se presentan:  Estadístico  Sintaxis  Semántico  Pragmatismo  Apobética4 4 Ing. Egas, Carlos. Apuntes de Teoría de la Información y Codificación [en línea][Quito, Ecuador]: Abril 2006.