SlideShare una empresa de Scribd logo
EXPO 1
La fuente de información es todo aquello que emite mensajes.
La fuente de información, produce salidas que son del interés del receptor de la información.
El rol del diseñador de los sistemas de comunicación es asegurar que esta información se
transmita al receptor correctamente.
Dado que la salida de la fuente de información es una función variante en el tiempo
impredecible, puede modelarse mediante un proceso estocástico, y las propiedades del
proceso estocástico dependerán de la naturaleza de la fuente de información.
Los sistemas de comunicación se diseñan para transmitir información. En cualquier sistema de
comunicaciones existe una fuente de información y el propósito del sistema es transmitir la
salida de la fuente al destino
Dado que la salida de la fuente de información es una función variante en el tiempo
impredecible, puede modelarse mediante un proceso estocástico.
Las fuentes de información pueden modelarse mediante procesos estocásticos y las
propiedades del proceso estocástico dependerán de la naturaleza de la fuente de información.
El factor común en todos esos procesos es que son de banda limitada, o sea, pueden
muestrearse a la velocidad de Nyquist o por encima
El modelo más simple de fuente de información es la fuente discreta sin memoria (fds), es un
proceso estocástico de amplitud y tiempo discretos en el cual las son generadas
independientemente y con la misma distribución, una fds genera una secuencia de variables
aleatórias distribuidas idénticamente e independientemente, de forma que tomen valores en
un conjunto discreto.
Un problema de interés dentro de las comunicaciones es la representación eficiente de los
datos generados por una fuente. El proceso mediante el cual se lleva a cabo esta
representación se llama codificación de fuente y consiste en la asignación de un código a cada
símbolo de la fuente de información.
Codificación:
La codificación de la información consiste en transformarla de forma que sea más cómoda de
manejar posteriormente. Existen dos tipos básicos de codificación, la de fuente y la de canal,
que se suelen aplicar en cadena, y en ese orden
Codificación de la fuente:
Es el proceso por el cual, la salida de una fuente de información, se convierte en una
secuencia binaria. Este código se forma con una secuencia de dígitos binarios y se lo llama
palabra de código.
Tiene como objetivo comprimir la información generada por una fuente eliminando posibles
redundancias.
Hay dos grandes grupos de métodos de codificación de fuente: en los denominados «sin
pérdidas», la información generada por la fuente se conserva en su totalidad; en los llamados
«con pérdidas», se sacrifica la fidelidad estricta a la información original.
Informacion:
Puede decirse que es todo aquello que tiene asociado algún significado. Se puede añadir que
será necesario representar la información de alguna manera para poder almacenarla o
transmitirla. Decimos entonces que la información se almacena o transmite mediante
mensajes
Entropía:
Entropía es un concepto en termodinámica, mecánica estadística y teoría de la información.
Los conceptos de información y entropía están ampliamente relacionados entre sí, aunque se
tardó años en el desarrollo de la mecánica estadística y la teoría de la información para hacer
esto aparente. Esta exposición versa sobre la entropía, en la formulación que hace de ella la
Teoría de la información. Esta entropía se llama frecuentemente entropía de Shannon, en
honor a Claude E. Shannon
El concepto básico de entropía en teoría de la información tiene mucho que ver con la
incertidumbre que existe en cualquier experimento o señal aleatoria. Es también la cantidad
de "ruido" o "desorden" que contiene o libera un sistema. De esta forma, podremos hablar de
la cantidad de información que lleva una señal.
Shannon ofrece una definición de entropía que satisface las siguientes afirmaciones: (1)La
medida de información debe ser proporcional (continua). Es decir, el cambio pequeño en una
de las probabilidades de aparición de uno de los elementos de la señal debe cambiar poco la
entropía. (2) Si todos los elementos de la señal son equiprobables a la hora de aparecer,
entonces la entropía será máxima
Definición Formal de entropía: La entropía nos indica el límite teórico para la compresión de
datos. También es una medida de la información contenida en el mensaje.
Incerteza: Estado de duda en el que predomina el limite de la confianza a la creencia en la verdad
de un determinado conocimiento.
Entropía conjunta: De donde es posible concluir que la entropía conjunta es simplemente la
entropía de una variable aleatoria vectorial
Entropía condicional: Que intuitivamente es la cantidad de incertidumbre en X cuando se conoce
Y=y. El promedio ponderado de esa cantidad sobre todo y es la incertidumbre en X conocida Y.
esta cantidad se conoce como entropía condicional
Taza de entropía: La taza de entropía juega el mismo papel que la entropía pero en este caso para
fuentes de información con memoria. Es básicamente una medida de la incertidumbre por
símbolo de salida de la fuente.
Propiedades de la entropía
La entropía es no negativa, Propiedad de Partición, El valor de la entropía es o positivo o nulo(Lo
que quiere decir que una variable aleatoria discreta tiene una cota inferior (cero) y una cota
superior (el logaritmo del cardinal del rango de la variable aleatoria), y nos dan además las
condiciones para alcanzar tales cotas.), Siendo n el número de elementos de la distribución de
probabilidades de la variable aleatoria X
Propiedad de partición: La entropía será máxima, hay mayor incertidumbre del mensaje, cuando
exista una equiprobabilidad en todos los valores de la variable X. La demostración empírica es muy
fácil; no obstante la demostración matemática de este máximo no es directa.
Cotas de la entropía:
La cota inferior es el cero, valor que se alcanza solamente cuando el vector de probabilidades
tiene una única componente no nula. Es decir, cuando corresponde a un fenómeno en el cual no
existe aleatoriedad (fenómeno determinista). Esto nos permite distinguir entre aleatoriedad
(entropía no nula) y determinística (entropía nula).
La cota superior de la entropía depende del número de componentes no nulas del vector de
probabilidad. Y donde la cota superior se la alcanza solamente para una distribución de
probabilidad uniforme.
Fuentes de información:
Fuentes discretas sin memoria:
Una fuente sin memoria pude especificarse por: la lista de símbolos, la probabilidad de ocurrencia
de los símbolos, y la rata de generación de los símbolos de la fuente.
Una fuente sin memoria es un objeto capaz de producir o emitir símbolos tomados de un conjunto
de dimensión K, llamado alfabeto de la fuente.
Cada símbolo es independiente del anterior y no influirá en el futuro;
Todos los símbolos de la fuente tendrán un valor asociado de probabilidad.
Las probabilidades de cada símbolo siempre serán menores o máximo iguales a 1
La suma de todos los valores de probabilidad de todos los símbolos es igual a 1.
Fuente de memoria Nula:
Esta forma de emitir los símbolos da a la fuente el carácter discreto. Ningún símbolo emitido es
influido por emisiones anteriores ni tampoco condiciona emisiones posteriores. Esta propiedad,
expresada en términos probabilísticos, significa que todas las emisiones son estadísticamente
independientes y es la que da a la fuente la característica de sin memoria.
Ejemplos de fuentes de memoria nula son: una moneda lanzada al aire, la ruleta de un casino, el
lanzamiento de un dado
TEOREMA DE CODIFICACIÓN DE UNA FUENTE DE INFORMACIÓN
El objetivo de la codificación es obtener una representación eficiente de los símbolos del alfabeto
fuente. Para que la codificación sea eficiente es necesario tener un conocimiento de las
probabilidades de cada uno de los símbolos del alfabeto fuente.
La teoría sobre codificación de fuente se encarga de estudiar técnicas para convertir de manera
eficiente fuentes arbitrarias de información en mensajes digitales, eliminando tanta redundancia
como sea posible de la fuente de información
Fundamento: Este teorema establece un límite fundamental sobre la forma en que puede
representarse la salida de una fuente de información sin originar una probabilidad de error
grande.
Si la cantidad de información de la fuente no excede la capacidad del canal existen técnicas de
codificación tal que la información puede ser trasmitida con una probabilidad de ocurrencia de
errores arbitrariamente pequeña, a pesar de la presencia de ruido.
Teorema: Una fuente con taza de entropía H puede codificarse con un error arbitrariamente
pequeño a cualquier velocidad R (en bits/salida) siempre que R>H. Por otro lado, si R<H, la
probabilidad de error no podrá ser arbitrariamente pequeña, independientemente de la
complejidad del codificador y decodificador empleado
Formulaciones para el proceso de comprensión:
1. Compresión de datos lossles: los datos se deben reconstruir exactamente;
2. Compresión de datos lossy: asigna los pedacitos necesitados para reconstruir los datos, dentro
de un nivel especificado de la fidelidad medido por una función de la distorsión
Clases de códigos:
1. Codificacion de Fuente (Compresion de datos)
2. Codificacion de canal (Correccion de error)
3. Codificación común de la fuente y del canal

Más contenido relacionado

Destacado

Desarrollan vacuna para la trata de cáncer pulmonar
Desarrollan vacuna para la trata de cáncer pulmonarDesarrollan vacuna para la trata de cáncer pulmonar
Desarrollan vacuna para la trata de cáncer pulmonar
Joe Quispe Ccuno
 
Tam group 2013 2014 catalouge
Tam group 2013 2014 catalougeTam group 2013 2014 catalouge
Tam group 2013 2014 catalougeTamer Sherif
 
Revista virtual
Revista virtualRevista virtual
Revista virtual
alvdios
 
A2 media task 2 (1)
A2 media task 2 (1)A2 media task 2 (1)
A2 media task 2 (1)LucaR712
 
Consolidacion trabajo final_40
Consolidacion trabajo final_40Consolidacion trabajo final_40
Consolidacion trabajo final_40Jeferson Roa Mera
 
Postgres survey podcast
Postgres survey podcastPostgres survey podcast
Postgres survey podcast
inside-BigData.com
 
Email Marketing + Social Media = Great Online Synergy
Email Marketing + Social Media = Great Online SynergyEmail Marketing + Social Media = Great Online Synergy
Email Marketing + Social Media = Great Online Synergy
Michelle Bergstein-Fontanez
 
3-Year IT Strategy Update :: City of Palo Alto
3-Year IT Strategy Update :: City of Palo Alto3-Year IT Strategy Update :: City of Palo Alto
3-Year IT Strategy Update :: City of Palo AltoCity of Palo Alto
 
Marketing and your library's consortium kbh 4-2016
Marketing and your library's consortium kbh 4-2016Marketing and your library's consortium kbh 4-2016
Marketing and your library's consortium kbh 4-2016
Indiana State Library
 
Twitter Tornado
Twitter TornadoTwitter Tornado
Twitter Tornado
Miguel Guhlin
 
Mercosul
MercosulMercosul
Mercosulkyzinha
 

Destacado (12)

Desarrollan vacuna para la trata de cáncer pulmonar
Desarrollan vacuna para la trata de cáncer pulmonarDesarrollan vacuna para la trata de cáncer pulmonar
Desarrollan vacuna para la trata de cáncer pulmonar
 
Tam group 2013 2014 catalouge
Tam group 2013 2014 catalougeTam group 2013 2014 catalouge
Tam group 2013 2014 catalouge
 
Revista virtual
Revista virtualRevista virtual
Revista virtual
 
A2 media task 2 (1)
A2 media task 2 (1)A2 media task 2 (1)
A2 media task 2 (1)
 
My day Ismael Cuevas Seijas
My day Ismael Cuevas SeijasMy day Ismael Cuevas Seijas
My day Ismael Cuevas Seijas
 
Consolidacion trabajo final_40
Consolidacion trabajo final_40Consolidacion trabajo final_40
Consolidacion trabajo final_40
 
Postgres survey podcast
Postgres survey podcastPostgres survey podcast
Postgres survey podcast
 
Email Marketing + Social Media = Great Online Synergy
Email Marketing + Social Media = Great Online SynergyEmail Marketing + Social Media = Great Online Synergy
Email Marketing + Social Media = Great Online Synergy
 
3-Year IT Strategy Update :: City of Palo Alto
3-Year IT Strategy Update :: City of Palo Alto3-Year IT Strategy Update :: City of Palo Alto
3-Year IT Strategy Update :: City of Palo Alto
 
Marketing and your library's consortium kbh 4-2016
Marketing and your library's consortium kbh 4-2016Marketing and your library's consortium kbh 4-2016
Marketing and your library's consortium kbh 4-2016
 
Twitter Tornado
Twitter TornadoTwitter Tornado
Twitter Tornado
 
Mercosul
MercosulMercosul
Mercosul
 

Similar a Expo 1

Teoría de la información
Teoría de la informaciónTeoría de la información
Teoría de la informaciónEdwin Ortega
 
Lecture 4 teoría de la información
Lecture 4 teoría de la informaciónLecture 4 teoría de la información
Lecture 4 teoría de la informaciónnica2009
 
Entropia
EntropiaEntropia
Entropia
Alvaro Cedeño
 
Teoria de la informacion
Teoria de la informacion Teoria de la informacion
Teoria de la informacion
ArquimedesFarias3
 
Actividad n° 2 reforzando la entropía de la información
Actividad n° 2 reforzando la entropía de la información Actividad n° 2 reforzando la entropía de la información
Actividad n° 2 reforzando la entropía de la información
Marco Muñoz
 
Teoriadelainformacion
TeoriadelainformacionTeoriadelainformacion
Teoriadelainformacion
Elkin Rangel
 
La comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicaciónLa comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicaciónLaura Elizabeth Contreras
 
lecture4teoradelainformacin-120221112111-phpapp02.pptx
lecture4teoradelainformacin-120221112111-phpapp02.pptxlecture4teoradelainformacin-120221112111-phpapp02.pptx
lecture4teoradelainformacin-120221112111-phpapp02.pptx
ssuser8106a7
 
Actividad 1 transmision de datos
Actividad 1 transmision de datosActividad 1 transmision de datos
Actividad 1 transmision de datos
Sthefany Leon
 
6 Codificación de fuente.ppsx
6 Codificación de fuente.ppsx6 Codificación de fuente.ppsx
6 Codificación de fuente.ppsx
JoseBiafore1
 
TRANSMISION DE DATOS
TRANSMISION DE DATOSTRANSMISION DE DATOS
TRANSMISION DE DATOS
Jose Uzcategui
 
Teoria de la informacion
Teoria de la informacion Teoria de la informacion
Teoria de la informacion
CarlenisGeraldino
 
Comunicacion 22 4.19
Comunicacion 22 4.19Comunicacion 22 4.19
Comunicacion 22 4.19
PitoVictorManuel
 
Conceptos básicos de la transmisión de datos
Conceptos básicos de la transmisión de datosConceptos básicos de la transmisión de datos
Conceptos básicos de la transmisión de datos
Andres Suarez
 
Teoria de la_info
Teoria de la_infoTeoria de la_info
Teoria de la_infoG Hoyos A
 
Entropía de la información
Entropía de la informaciónEntropía de la información
Entropía de la información
Anthony Benalcazar
 

Similar a Expo 1 (20)

Teoría de la información
Teoría de la informaciónTeoría de la información
Teoría de la información
 
Lecture 4 teoría de la información
Lecture 4 teoría de la informaciónLecture 4 teoría de la información
Lecture 4 teoría de la información
 
Entropia
EntropiaEntropia
Entropia
 
Markov
MarkovMarkov
Markov
 
Tdi
TdiTdi
Tdi
 
Teoria de la informacion
Teoria de la informacion Teoria de la informacion
Teoria de la informacion
 
Actividad n° 2 reforzando la entropía de la información
Actividad n° 2 reforzando la entropía de la información Actividad n° 2 reforzando la entropía de la información
Actividad n° 2 reforzando la entropía de la información
 
Teoriadelainformacion
TeoriadelainformacionTeoriadelainformacion
Teoriadelainformacion
 
Entropia
EntropiaEntropia
Entropia
 
La comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicaciónLa comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicación
 
lecture4teoradelainformacin-120221112111-phpapp02.pptx
lecture4teoradelainformacin-120221112111-phpapp02.pptxlecture4teoradelainformacin-120221112111-phpapp02.pptx
lecture4teoradelainformacin-120221112111-phpapp02.pptx
 
Actividad 1 transmision de datos
Actividad 1 transmision de datosActividad 1 transmision de datos
Actividad 1 transmision de datos
 
6 Codificación de fuente.ppsx
6 Codificación de fuente.ppsx6 Codificación de fuente.ppsx
6 Codificación de fuente.ppsx
 
Unidad 6
Unidad 6Unidad 6
Unidad 6
 
TRANSMISION DE DATOS
TRANSMISION DE DATOSTRANSMISION DE DATOS
TRANSMISION DE DATOS
 
Teoria de la informacion
Teoria de la informacion Teoria de la informacion
Teoria de la informacion
 
Comunicacion 22 4.19
Comunicacion 22 4.19Comunicacion 22 4.19
Comunicacion 22 4.19
 
Conceptos básicos de la transmisión de datos
Conceptos básicos de la transmisión de datosConceptos básicos de la transmisión de datos
Conceptos básicos de la transmisión de datos
 
Teoria de la_info
Teoria de la_infoTeoria de la_info
Teoria de la_info
 
Entropía de la información
Entropía de la informaciónEntropía de la información
Entropía de la información
 

Más de Alexis183

Calendario vivencial
Calendario vivencialCalendario vivencial
Calendario vivencial
Alexis183
 
POWER POINT 2010
POWER POINT 2010POWER POINT 2010
POWER POINT 2010
Alexis183
 
El enemigo del amor
El enemigo del amorEl enemigo del amor
El enemigo del amor
Alexis183
 
El enemigo del amor
El enemigo del amorEl enemigo del amor
El enemigo del amor
Alexis183
 
Trabajo 1 en Clase
Trabajo 1 en ClaseTrabajo 1 en Clase
Trabajo 1 en Clase
Alexis183
 
PESTAÑA INSERTAR WORD 2010
PESTAÑA INSERTAR WORD 2010PESTAÑA INSERTAR WORD 2010
PESTAÑA INSERTAR WORD 2010
Alexis183
 
Insertar word 2010
Insertar word 2010Insertar word 2010
Insertar word 2010
Alexis183
 
Glonass
GlonassGlonass
Glonass
Alexis183
 
802.11
802.11 802.11
802.11
Alexis183
 

Más de Alexis183 (9)

Calendario vivencial
Calendario vivencialCalendario vivencial
Calendario vivencial
 
POWER POINT 2010
POWER POINT 2010POWER POINT 2010
POWER POINT 2010
 
El enemigo del amor
El enemigo del amorEl enemigo del amor
El enemigo del amor
 
El enemigo del amor
El enemigo del amorEl enemigo del amor
El enemigo del amor
 
Trabajo 1 en Clase
Trabajo 1 en ClaseTrabajo 1 en Clase
Trabajo 1 en Clase
 
PESTAÑA INSERTAR WORD 2010
PESTAÑA INSERTAR WORD 2010PESTAÑA INSERTAR WORD 2010
PESTAÑA INSERTAR WORD 2010
 
Insertar word 2010
Insertar word 2010Insertar word 2010
Insertar word 2010
 
Glonass
GlonassGlonass
Glonass
 
802.11
802.11 802.11
802.11
 

Expo 1

  • 1. EXPO 1 La fuente de información es todo aquello que emite mensajes. La fuente de información, produce salidas que son del interés del receptor de la información. El rol del diseñador de los sistemas de comunicación es asegurar que esta información se transmita al receptor correctamente. Dado que la salida de la fuente de información es una función variante en el tiempo impredecible, puede modelarse mediante un proceso estocástico, y las propiedades del proceso estocástico dependerán de la naturaleza de la fuente de información. Los sistemas de comunicación se diseñan para transmitir información. En cualquier sistema de comunicaciones existe una fuente de información y el propósito del sistema es transmitir la salida de la fuente al destino Dado que la salida de la fuente de información es una función variante en el tiempo impredecible, puede modelarse mediante un proceso estocástico. Las fuentes de información pueden modelarse mediante procesos estocásticos y las propiedades del proceso estocástico dependerán de la naturaleza de la fuente de información. El factor común en todos esos procesos es que son de banda limitada, o sea, pueden muestrearse a la velocidad de Nyquist o por encima El modelo más simple de fuente de información es la fuente discreta sin memoria (fds), es un proceso estocástico de amplitud y tiempo discretos en el cual las son generadas independientemente y con la misma distribución, una fds genera una secuencia de variables aleatórias distribuidas idénticamente e independientemente, de forma que tomen valores en un conjunto discreto. Un problema de interés dentro de las comunicaciones es la representación eficiente de los datos generados por una fuente. El proceso mediante el cual se lleva a cabo esta representación se llama codificación de fuente y consiste en la asignación de un código a cada símbolo de la fuente de información. Codificación: La codificación de la información consiste en transformarla de forma que sea más cómoda de manejar posteriormente. Existen dos tipos básicos de codificación, la de fuente y la de canal, que se suelen aplicar en cadena, y en ese orden Codificación de la fuente:
  • 2. Es el proceso por el cual, la salida de una fuente de información, se convierte en una secuencia binaria. Este código se forma con una secuencia de dígitos binarios y se lo llama palabra de código. Tiene como objetivo comprimir la información generada por una fuente eliminando posibles redundancias. Hay dos grandes grupos de métodos de codificación de fuente: en los denominados «sin pérdidas», la información generada por la fuente se conserva en su totalidad; en los llamados «con pérdidas», se sacrifica la fidelidad estricta a la información original. Informacion: Puede decirse que es todo aquello que tiene asociado algún significado. Se puede añadir que será necesario representar la información de alguna manera para poder almacenarla o transmitirla. Decimos entonces que la información se almacena o transmite mediante mensajes Entropía: Entropía es un concepto en termodinámica, mecánica estadística y teoría de la información. Los conceptos de información y entropía están ampliamente relacionados entre sí, aunque se tardó años en el desarrollo de la mecánica estadística y la teoría de la información para hacer esto aparente. Esta exposición versa sobre la entropía, en la formulación que hace de ella la Teoría de la información. Esta entropía se llama frecuentemente entropía de Shannon, en honor a Claude E. Shannon El concepto básico de entropía en teoría de la información tiene mucho que ver con la incertidumbre que existe en cualquier experimento o señal aleatoria. Es también la cantidad de "ruido" o "desorden" que contiene o libera un sistema. De esta forma, podremos hablar de la cantidad de información que lleva una señal. Shannon ofrece una definición de entropía que satisface las siguientes afirmaciones: (1)La medida de información debe ser proporcional (continua). Es decir, el cambio pequeño en una de las probabilidades de aparición de uno de los elementos de la señal debe cambiar poco la entropía. (2) Si todos los elementos de la señal son equiprobables a la hora de aparecer, entonces la entropía será máxima Definición Formal de entropía: La entropía nos indica el límite teórico para la compresión de datos. También es una medida de la información contenida en el mensaje.
  • 3. Incerteza: Estado de duda en el que predomina el limite de la confianza a la creencia en la verdad de un determinado conocimiento. Entropía conjunta: De donde es posible concluir que la entropía conjunta es simplemente la entropía de una variable aleatoria vectorial Entropía condicional: Que intuitivamente es la cantidad de incertidumbre en X cuando se conoce Y=y. El promedio ponderado de esa cantidad sobre todo y es la incertidumbre en X conocida Y. esta cantidad se conoce como entropía condicional Taza de entropía: La taza de entropía juega el mismo papel que la entropía pero en este caso para fuentes de información con memoria. Es básicamente una medida de la incertidumbre por símbolo de salida de la fuente. Propiedades de la entropía La entropía es no negativa, Propiedad de Partición, El valor de la entropía es o positivo o nulo(Lo que quiere decir que una variable aleatoria discreta tiene una cota inferior (cero) y una cota superior (el logaritmo del cardinal del rango de la variable aleatoria), y nos dan además las condiciones para alcanzar tales cotas.), Siendo n el número de elementos de la distribución de probabilidades de la variable aleatoria X Propiedad de partición: La entropía será máxima, hay mayor incertidumbre del mensaje, cuando exista una equiprobabilidad en todos los valores de la variable X. La demostración empírica es muy fácil; no obstante la demostración matemática de este máximo no es directa. Cotas de la entropía: La cota inferior es el cero, valor que se alcanza solamente cuando el vector de probabilidades tiene una única componente no nula. Es decir, cuando corresponde a un fenómeno en el cual no existe aleatoriedad (fenómeno determinista). Esto nos permite distinguir entre aleatoriedad (entropía no nula) y determinística (entropía nula). La cota superior de la entropía depende del número de componentes no nulas del vector de probabilidad. Y donde la cota superior se la alcanza solamente para una distribución de probabilidad uniforme. Fuentes de información:
  • 4. Fuentes discretas sin memoria: Una fuente sin memoria pude especificarse por: la lista de símbolos, la probabilidad de ocurrencia de los símbolos, y la rata de generación de los símbolos de la fuente. Una fuente sin memoria es un objeto capaz de producir o emitir símbolos tomados de un conjunto de dimensión K, llamado alfabeto de la fuente. Cada símbolo es independiente del anterior y no influirá en el futuro; Todos los símbolos de la fuente tendrán un valor asociado de probabilidad. Las probabilidades de cada símbolo siempre serán menores o máximo iguales a 1 La suma de todos los valores de probabilidad de todos los símbolos es igual a 1. Fuente de memoria Nula: Esta forma de emitir los símbolos da a la fuente el carácter discreto. Ningún símbolo emitido es influido por emisiones anteriores ni tampoco condiciona emisiones posteriores. Esta propiedad, expresada en términos probabilísticos, significa que todas las emisiones son estadísticamente independientes y es la que da a la fuente la característica de sin memoria. Ejemplos de fuentes de memoria nula son: una moneda lanzada al aire, la ruleta de un casino, el lanzamiento de un dado TEOREMA DE CODIFICACIÓN DE UNA FUENTE DE INFORMACIÓN El objetivo de la codificación es obtener una representación eficiente de los símbolos del alfabeto fuente. Para que la codificación sea eficiente es necesario tener un conocimiento de las probabilidades de cada uno de los símbolos del alfabeto fuente. La teoría sobre codificación de fuente se encarga de estudiar técnicas para convertir de manera eficiente fuentes arbitrarias de información en mensajes digitales, eliminando tanta redundancia como sea posible de la fuente de información Fundamento: Este teorema establece un límite fundamental sobre la forma en que puede representarse la salida de una fuente de información sin originar una probabilidad de error grande.
  • 5. Si la cantidad de información de la fuente no excede la capacidad del canal existen técnicas de codificación tal que la información puede ser trasmitida con una probabilidad de ocurrencia de errores arbitrariamente pequeña, a pesar de la presencia de ruido. Teorema: Una fuente con taza de entropía H puede codificarse con un error arbitrariamente pequeño a cualquier velocidad R (en bits/salida) siempre que R>H. Por otro lado, si R<H, la probabilidad de error no podrá ser arbitrariamente pequeña, independientemente de la complejidad del codificador y decodificador empleado Formulaciones para el proceso de comprensión: 1. Compresión de datos lossles: los datos se deben reconstruir exactamente; 2. Compresión de datos lossy: asigna los pedacitos necesitados para reconstruir los datos, dentro de un nivel especificado de la fidelidad medido por una función de la distorsión Clases de códigos: 1. Codificacion de Fuente (Compresion de datos) 2. Codificacion de canal (Correccion de error) 3. Codificación común de la fuente y del canal