SlideShare uma empresa Scribd logo
1 de 30
Teoria da Informação: Compressão e
Códigos Corretores de Erros
Orientador: Prof. Dr. José Carlos Magossi
Orientando: Diego de Souza Silva
Teoria da Informação - Diego de Souza Silva 2
Sumário
● Definição contextual
● Como medir informação
● Compressão
● Códigos Corretores de Erros
Teoria da Informação - Diego de Souza Silva 3
Introdução
● “A Mathematical Theory of Communication”,
Claude Shannon
● Modelo genérico
● Base para a disciplina
Teoria da Informação - Diego de Souza Silva 4
Informação
● Comunicação: Ação ou resultado de
comunicar(-se), de transmitir e receber
mensagens.
Teoria da Informação - Diego de Souza Silva 5
Como medir informação
● Número de possibilidades eliminadas dentre
todas as possíveis;
● Bit (base binária), nat (base neperiana) e
hartley (base decimal)
● Se uma mensagen reduz de k para k/x as
possibilidades, então esta comunica
log2 (x)
Teoria da Informação - Diego de Souza Silva 6
Entropia
● Média de informação que se pode esperar de um
transmissor;
● Seja x um fonte que pode enviar uma de quatro
mensagens: amanhã fará sol, choverá, estará
nublado ou nevará.
(2+2+2+2) bits / 4 mensagens = 2 bit/mensagem
H (x)=∑i=i
k
Pi(−log2 Pi)
Teoria da Informação - Diego de Souza Silva 7
Fontes de Informação Relacionadas
● Situações onde a resposta de uma fonte
impactam nas possibilidades de resposta de
outra;
● Jogo das moedas;
Teoria da Informação - Diego de Souza Silva 8
Compressão de Informação
● Utilizar menos recursos para armazenamento e
transmissão;
● Código de Redundância Mínima: relacionar
comprimento de código a frequência
transmissão da mensagem;
Lmed (x)=∑
i=1
N
Pi L(i)
¿
8
Teoria da Informação - Diego de Souza Silva 9
Compressão: Código Ótimo
● Gif, mpeg, mp3, Morse, Braille e zip são
exemplos de códigos que comprimem
informação
● Seja N a quantidade de mensagens que a fonte
pode enviar e D o número de símbolos do
alfabeto, código de redundância mínima para
dados N e D é aquele que representa todos as
mensagens com média mínima de símbolos
por mensagem.
Teoria da Informação - Diego de Souza Silva 10
Compressão: Restrições
● Não pode haver informações distintas com mesmo código;
● Deve ser possível identificar onde começa e onde termina
um código;
● Se uma informação tem maior probabilidade de ser
enviada, deve ter código menor;
● Deve haver ao menos dois códigos com comprimento
máximo L(N)
● Todos os códigos com comprimento L(N-1) ou seus
prefixos devem ser utilizados como código.
● Exemplo: 12341 com 123, 12, 341 e 41 códigos válidos
Teoria da Informação - Diego de Souza Silva 11
Compressão: Criação do Código
● Alfabeto binário;
● Agrupar duas mensagens menos prováveis;
● Criar mensagem composta;
● Reorganizar grupos auxiliares;
Teoria da Informação - Diego de Souza Silva 12
Compressão: Exemplo Numérico
i Código
1 0.20 2 0.40 10
2 0.18 3 0.54 000
3 0.10 3 0.30 011
4 0.10 3 0.30 110
5 0.10 3 0.30 111
6 0.06 4 0.24 0101
7 0.06 5 0.30 00100
8 0.04 5 0.20 00101
9 0.04 5 0.20 01000
10 0.04 5 0.20 01001
11 0.04 5 0.20 00110
12 0.03 6 0.18 011100
13 0.01 6 0.06 011101
Média 3.42
Pi L(i ) Pi L(i)
Teoria da Informação - Diego de Souza Silva 13
Compressão: Generalização
● Agrupamentos de D menores probabilidades
por vez;
● Primeiro agrupamente deve conter
elementos de forma que esta razão seja par.
(N−n0)
(D−1)
¿
n0
Teoria da Informação - Diego de Souza Silva 14
Códigos para Correção de Erros
● Problema: comunicação através de canal
ruidoso
● Estratégia de Solução: utilizar redundância
controlada para corrigir erros.
Teoria da Informação - Diego de Souza Silva 15
Códigos para Correção de Erros
● Teorema 11 de “A mathematical theory of
communication”
– Seja C a capacidade do canal com entropia H:
se então existe um código com erros tão
baixos quanto se desejar. Caso contrário, a
menor taxa de erros possível é
H⩽C
¿
H−C+ ε
¿
Teoria da Informação - Diego de Souza Silva 16
Códigos: Definições
● Palavra-código
● Distância de Hamming
● Distância Mínima
● Notação:
● Peso de Hamming
● Operação de Paridade
● Soma módulo-2
(n,k ,d min)
¿
Propriedade Exemplo
A soma de dois restos
equivale ao resto da soma de
dois números (para qualquer
divisor)
12237 % 7 = 1 e
4562 % 7 = 5 portanto
(12237+4562) % 7 = 5 + 1 = 6
O produto de dois restos
equivale ao resto do produto
151 % 3 = 1 e 2132 % 3 = 2
portanto
(151 * 2132) % 3 = 1 * 2 = 2
Para divisor 9, o resto da
divisão de k equivale ao resto
da divisão do número obtido
com a soma dos dígitos de k.
12313434 % 9 =
(1+2+3+1+3+4+3+4) % 9 =
21 % 9 = (2+1) % 9 = 3
O resto da divisão de um
número binário por 2 é 1 para
números de peso de hamming
ímpar e 0 caso contrário.
11011000 tem peso 4,
portanto tem resto 0
Teoria da Informação - Diego de Souza Silva 17
Códigos de blocos lineares
● Mensagem completa fragmentada em pedaços
de tamanho k;
● (n-k) bits de paridade são calculados com
paridade, uma regra por bit.
● Linearidade: o código de blocos é linear se a
soma de duas palavras-código ainda for
palavra-código válida e existe uma palavra com
pesso de hamming 0
Teoria da Informação - Diego de Souza Silva 18
Códigos de blocos lineares
● Mensagem completa fragmentada em pedaços
de tamanho k;
● (n-k) bits de paridade são calculados com
paridade, uma regra por bit.
● Linearidade: o código de blocos é linear se a
soma de duas palavras-código ainda for
palavra-código válida e existe uma palavra com
pesso de hamming 0
Teoria da Informação - Diego de Souza Silva 19
Códigos de blocos lineares
● Seja os bits da mensagem
que deve ser transmitida
● E os bits e paridade do código
da mensagem
● O código pode ser escrito como:
Onde o coeficiente tem valor 1 se o i-ésimo bit
de mensagem participa do cálculo da equação de
paridade do j-ésimo bit de redundância
m1 ,m2 , m3 ,...mk−1 ,¿
b1 ,b2 ,...bn−k−1 ,¿
bi= p0i mi+ p1i m1+ p2i m2+ …+ pk−1 mk−1
¿
pij
¿
Teoria da Informação - Diego de Souza Silva 20
Códigos de blocos lineares
● Resumindo em matrizes: b=mP¿
m=[m0 ,m1 ,m2 ,…]¿
b=[b0 ,b1 ,b2 ,…]¿
P=
[
p00 p01 ... p0,n−k−1
p10 p11 ... p1,n−k−1
p20 p21 ... p2,n−k−1
... ... ... ...
pk−1,0 pk−1,1 ... pk−1, n−k−1
]¿
Teoria da Informação - Diego de Souza Silva 21
Códigos de blocos lineares: Geradora
● Ao multiplicá-la por uma mensagem, o vetor
resultado é uma palavra código
● Dimensão k x n
● Obtida através de H =[I n−k⋮PT
]¿
Teoria da Informação - Diego de Souza Silva 22
Códigos de blocos lineares: Geradora
● Exemplo com código
● Regras:
–
(7,3,4)¿
b1=m1+ m2
¿
b2=m2+ m3
¿
b3=m1+ m3
¿
b4=m1+ m2+ m3
¿
P=
[
1 0 1 1
1 1 0 1
0 1 1 1]¿
G=
[
1 0 0 ⋮1 0 1 1
0 1 0 ⋮1 1 0 1
0 0 1 ⋮0 1 1 1]¿
Teoria da Informação - Diego de Souza Silva 23
Códigos de blocos lineares: Geradora
● Para mensagem
● Palavra código
m1=[101]¿
m1[1 0 1]×G
[
1 0 0 0 1 1 1
0 1 0 1 1 0 1
0 0 1 1 0 1 1]=c1[1 0 1 1 1 0 0]
¿
c1 [1 0 1 1 1 0 0]¿
Teoria da Informação - Diego de Souza Silva 24
Códigos de blocos: Checagem
● Permite chegar se o código é válido;
● Existe a matriz H, denominada matriz de
verificação de paridade;
●
H =[PT
⋮I n−k ]¿
Teoria da Informação - Diego de Souza Silva 25
Códigos de blocos: Checagem
● Permite chegar se o código é válido;
● Existe a matriz H, denominada matriz de
verificação de paridade;
●
H =[PT
⋮I n−k ]¿
Teoria da Informação - Diego de Souza Silva 27
Códigos de blocos: Checagem
● Sejam e
duas mensagens que foram recebidas
r 1=[1 0 1 1 1 0 0]
¿
r 2=[0 0 1 0 1 0 1]
¿
r 1 [1 0 1 1 1 0 0]×H
T
[
0 0 0 1
0 0 1 0
0 1 0 0
1 0 0 0
1 1 0 1
1 0 1 1
1 1 1 0
]=[0 0 0 0]
¿
r 2 [0 0 1 0 1 0 1]×H
T
[
0 0 0 1
0 0 1 0
0 1 0 0
1 0 0 0
1 1 0 1
1 0 1 1
1 1 1 0
]=s[0 1 1 1]
¿
Teoria da Informação - Diego de Souza Silva 28
Códigos de blocos: Decodificação
● Sendo a síndrome, o valor resultado
da checagem;
● Processo de decodificação por síndrome.
s[0 1 1 1]
¿
Teoria da Informação - Diego de Souza Silva 30
Códigos de blocos: Decodificação
Para a mensagem r recebida, computar a
síndrome
Localizar na matriz a classe cuja síndrome do
elemento com menor peso de hammng equivale
ao valor s;
A mensagem correta c pode ser obtida pela
equação c = r + e
Teoria da Informação - Diego de Souza Silva 31
Conclusão
● Teoria da informação subsidia modelos de
comunicação, digital ou não;
● Compressão da Informação: multimídia;
● Códigos Corretores de Erros: redes de
computadores;
● Estudos aplicados: linguística e psicologia
Teoria da Informação - Diego de Souza Silva 32
Referências
[1] GAPPMAIR, W. Claude E. Shannon: The 50th Anniversary of Information Theory,
Technical University of Graz. IEEE, vol 37:102-105, 1999.
[2] MILLER, G. A., What is Information Measurement. American Psychologist, vol. 8:3-11,
Jan 1953.
[3] SHANNON, C. E., A Mathematical Theory of Information. The Bell Systems Technical
Journal, Vol. 27: 379-423, 623-656, 1948.
[4] HUFFMAN, D. A., A method for the Construction of Minimum-Redudancy Codes,
Proc. IRE, Vol. 40: 1098-1101, 1952.
[5] HAYKIN, S. Communication Systems. 4th ed. John Wiley & Sons. EUA, 1994. 2001.
[6] PETERSON, W. W., Error-Correcting Codes. Scientific American, vol. 206: 96-108,
1962.
[7] VITERBI, A. J., Convolutional codes and their performances in communication
systems. IEEE Transactions on Communications, COM-19:751-772, 1971.

Mais conteúdo relacionado

Destaque

Teoria Da Informação 2010
Teoria Da Informação 2010Teoria Da Informação 2010
Teoria Da Informação 2010UNIP
 
Design de informação e de interação
Design de informação e de interaçãoDesign de informação e de interação
Design de informação e de interaçãoPaula Faria
 
Dados Informacao Conhecimento E Saber
Dados Informacao Conhecimento E SaberDados Informacao Conhecimento E Saber
Dados Informacao Conhecimento E SaberGrupoBass
 
Aula 02 - Design da Informação - História e princípios do design de informação
Aula 02 - Design da Informação - História e princípios do design de informaçãoAula 02 - Design da Informação - História e princípios do design de informação
Aula 02 - Design da Informação - História e princípios do design de informaçãoDalton Martins
 
Introdução ao estudo dos sistemas simbólicos
Introdução ao estudo dos sistemas simbólicosIntrodução ao estudo dos sistemas simbólicos
Introdução ao estudo dos sistemas simbólicosFelipe Correa de Mello
 

Destaque (9)

Teoria Da Informação 2010
Teoria Da Informação 2010Teoria Da Informação 2010
Teoria Da Informação 2010
 
Design de informação e de interação
Design de informação e de interaçãoDesign de informação e de interação
Design de informação e de interação
 
Dados Informacao Conhecimento E Saber
Dados Informacao Conhecimento E SaberDados Informacao Conhecimento E Saber
Dados Informacao Conhecimento E Saber
 
Aula 02 - Design da Informação - História e princípios do design de informação
Aula 02 - Design da Informação - História e princípios do design de informaçãoAula 02 - Design da Informação - História e princípios do design de informação
Aula 02 - Design da Informação - História e princípios do design de informação
 
ITI Slides
ITI SlidesITI Slides
ITI Slides
 
Vigotski
VigotskiVigotski
Vigotski
 
Grounded theory
Grounded theoryGrounded theory
Grounded theory
 
Introdução ao estudo dos sistemas simbólicos
Introdução ao estudo dos sistemas simbólicosIntrodução ao estudo dos sistemas simbólicos
Introdução ao estudo dos sistemas simbólicos
 
Redação digital
Redação digitalRedação digital
Redação digital
 

Semelhante a Teoria Informação: Compressão Códigos Erros

Sessão 10 Códigos Cíclicos
Sessão 10 Códigos CíclicosSessão 10 Códigos Cíclicos
Sessão 10 Códigos CíclicosPedro De Almeida
 
Cripto - Introdução, probabilidades e Conceito de Segurança
Cripto - Introdução, probabilidades e Conceito de SegurançaCripto - Introdução, probabilidades e Conceito de Segurança
Cripto - Introdução, probabilidades e Conceito de SegurançaPedro De Almeida
 
Apresentação circuitos digitais resumida
 Apresentação circuitos digitais resumida Apresentação circuitos digitais resumida
Apresentação circuitos digitais resumidaMarcioRodrigues173060
 
Sessao 4 - Chaves espúrias e distância de unicidade
Sessao 4 - Chaves espúrias e distância de unicidadeSessao 4 - Chaves espúrias e distância de unicidade
Sessao 4 - Chaves espúrias e distância de unicidadePedro De Almeida
 
Auditoria e Segurança em TI - Aula 3
Auditoria e Segurança em TI - Aula 3Auditoria e Segurança em TI - Aula 3
Auditoria e Segurança em TI - Aula 3Filipo Mór
 
Eletrônica digital (introdução aos sistemas digitais)
Eletrônica digital (introdução aos sistemas digitais)Eletrônica digital (introdução aos sistemas digitais)
Eletrônica digital (introdução aos sistemas digitais)val10z
 
Atividade pratica supervisionada construção de algoritimo
Atividade pratica supervisionada  construção de algoritimoAtividade pratica supervisionada  construção de algoritimo
Atividade pratica supervisionada construção de algoritimoFelipe Dias Guimarães
 

Semelhante a Teoria Informação: Compressão Códigos Erros (10)

Sessão 10 Códigos Cíclicos
Sessão 10 Códigos CíclicosSessão 10 Códigos Cíclicos
Sessão 10 Códigos Cíclicos
 
Aula1
Aula1Aula1
Aula1
 
Aes 25
Aes 25Aes 25
Aes 25
 
Cripto - Introdução, probabilidades e Conceito de Segurança
Cripto - Introdução, probabilidades e Conceito de SegurançaCripto - Introdução, probabilidades e Conceito de Segurança
Cripto - Introdução, probabilidades e Conceito de Segurança
 
Apresentação circuitos digitais resumida
 Apresentação circuitos digitais resumida Apresentação circuitos digitais resumida
Apresentação circuitos digitais resumida
 
Sessao 4 - Chaves espúrias e distância de unicidade
Sessao 4 - Chaves espúrias e distância de unicidadeSessao 4 - Chaves espúrias e distância de unicidade
Sessao 4 - Chaves espúrias e distância de unicidade
 
Scipy meetup-2020-02
Scipy meetup-2020-02Scipy meetup-2020-02
Scipy meetup-2020-02
 
Auditoria e Segurança em TI - Aula 3
Auditoria e Segurança em TI - Aula 3Auditoria e Segurança em TI - Aula 3
Auditoria e Segurança em TI - Aula 3
 
Eletrônica digital (introdução aos sistemas digitais)
Eletrônica digital (introdução aos sistemas digitais)Eletrônica digital (introdução aos sistemas digitais)
Eletrônica digital (introdução aos sistemas digitais)
 
Atividade pratica supervisionada construção de algoritimo
Atividade pratica supervisionada  construção de algoritimoAtividade pratica supervisionada  construção de algoritimo
Atividade pratica supervisionada construção de algoritimo
 

Teoria Informação: Compressão Códigos Erros

  • 1. Teoria da Informação: Compressão e Códigos Corretores de Erros Orientador: Prof. Dr. José Carlos Magossi Orientando: Diego de Souza Silva
  • 2. Teoria da Informação - Diego de Souza Silva 2 Sumário ● Definição contextual ● Como medir informação ● Compressão ● Códigos Corretores de Erros
  • 3. Teoria da Informação - Diego de Souza Silva 3 Introdução ● “A Mathematical Theory of Communication”, Claude Shannon ● Modelo genérico ● Base para a disciplina
  • 4. Teoria da Informação - Diego de Souza Silva 4 Informação ● Comunicação: Ação ou resultado de comunicar(-se), de transmitir e receber mensagens.
  • 5. Teoria da Informação - Diego de Souza Silva 5 Como medir informação ● Número de possibilidades eliminadas dentre todas as possíveis; ● Bit (base binária), nat (base neperiana) e hartley (base decimal) ● Se uma mensagen reduz de k para k/x as possibilidades, então esta comunica log2 (x)
  • 6. Teoria da Informação - Diego de Souza Silva 6 Entropia ● Média de informação que se pode esperar de um transmissor; ● Seja x um fonte que pode enviar uma de quatro mensagens: amanhã fará sol, choverá, estará nublado ou nevará. (2+2+2+2) bits / 4 mensagens = 2 bit/mensagem H (x)=∑i=i k Pi(−log2 Pi)
  • 7. Teoria da Informação - Diego de Souza Silva 7 Fontes de Informação Relacionadas ● Situações onde a resposta de uma fonte impactam nas possibilidades de resposta de outra; ● Jogo das moedas;
  • 8. Teoria da Informação - Diego de Souza Silva 8 Compressão de Informação ● Utilizar menos recursos para armazenamento e transmissão; ● Código de Redundância Mínima: relacionar comprimento de código a frequência transmissão da mensagem; Lmed (x)=∑ i=1 N Pi L(i) ¿ 8
  • 9. Teoria da Informação - Diego de Souza Silva 9 Compressão: Código Ótimo ● Gif, mpeg, mp3, Morse, Braille e zip são exemplos de códigos que comprimem informação ● Seja N a quantidade de mensagens que a fonte pode enviar e D o número de símbolos do alfabeto, código de redundância mínima para dados N e D é aquele que representa todos as mensagens com média mínima de símbolos por mensagem.
  • 10. Teoria da Informação - Diego de Souza Silva 10 Compressão: Restrições ● Não pode haver informações distintas com mesmo código; ● Deve ser possível identificar onde começa e onde termina um código; ● Se uma informação tem maior probabilidade de ser enviada, deve ter código menor; ● Deve haver ao menos dois códigos com comprimento máximo L(N) ● Todos os códigos com comprimento L(N-1) ou seus prefixos devem ser utilizados como código. ● Exemplo: 12341 com 123, 12, 341 e 41 códigos válidos
  • 11. Teoria da Informação - Diego de Souza Silva 11 Compressão: Criação do Código ● Alfabeto binário; ● Agrupar duas mensagens menos prováveis; ● Criar mensagem composta; ● Reorganizar grupos auxiliares;
  • 12. Teoria da Informação - Diego de Souza Silva 12 Compressão: Exemplo Numérico i Código 1 0.20 2 0.40 10 2 0.18 3 0.54 000 3 0.10 3 0.30 011 4 0.10 3 0.30 110 5 0.10 3 0.30 111 6 0.06 4 0.24 0101 7 0.06 5 0.30 00100 8 0.04 5 0.20 00101 9 0.04 5 0.20 01000 10 0.04 5 0.20 01001 11 0.04 5 0.20 00110 12 0.03 6 0.18 011100 13 0.01 6 0.06 011101 Média 3.42 Pi L(i ) Pi L(i)
  • 13. Teoria da Informação - Diego de Souza Silva 13 Compressão: Generalização ● Agrupamentos de D menores probabilidades por vez; ● Primeiro agrupamente deve conter elementos de forma que esta razão seja par. (N−n0) (D−1) ¿ n0
  • 14. Teoria da Informação - Diego de Souza Silva 14 Códigos para Correção de Erros ● Problema: comunicação através de canal ruidoso ● Estratégia de Solução: utilizar redundância controlada para corrigir erros.
  • 15. Teoria da Informação - Diego de Souza Silva 15 Códigos para Correção de Erros ● Teorema 11 de “A mathematical theory of communication” – Seja C a capacidade do canal com entropia H: se então existe um código com erros tão baixos quanto se desejar. Caso contrário, a menor taxa de erros possível é H⩽C ¿ H−C+ ε ¿
  • 16. Teoria da Informação - Diego de Souza Silva 16 Códigos: Definições ● Palavra-código ● Distância de Hamming ● Distância Mínima ● Notação: ● Peso de Hamming ● Operação de Paridade ● Soma módulo-2 (n,k ,d min) ¿ Propriedade Exemplo A soma de dois restos equivale ao resto da soma de dois números (para qualquer divisor) 12237 % 7 = 1 e 4562 % 7 = 5 portanto (12237+4562) % 7 = 5 + 1 = 6 O produto de dois restos equivale ao resto do produto 151 % 3 = 1 e 2132 % 3 = 2 portanto (151 * 2132) % 3 = 1 * 2 = 2 Para divisor 9, o resto da divisão de k equivale ao resto da divisão do número obtido com a soma dos dígitos de k. 12313434 % 9 = (1+2+3+1+3+4+3+4) % 9 = 21 % 9 = (2+1) % 9 = 3 O resto da divisão de um número binário por 2 é 1 para números de peso de hamming ímpar e 0 caso contrário. 11011000 tem peso 4, portanto tem resto 0
  • 17. Teoria da Informação - Diego de Souza Silva 17 Códigos de blocos lineares ● Mensagem completa fragmentada em pedaços de tamanho k; ● (n-k) bits de paridade são calculados com paridade, uma regra por bit. ● Linearidade: o código de blocos é linear se a soma de duas palavras-código ainda for palavra-código válida e existe uma palavra com pesso de hamming 0
  • 18. Teoria da Informação - Diego de Souza Silva 18 Códigos de blocos lineares ● Mensagem completa fragmentada em pedaços de tamanho k; ● (n-k) bits de paridade são calculados com paridade, uma regra por bit. ● Linearidade: o código de blocos é linear se a soma de duas palavras-código ainda for palavra-código válida e existe uma palavra com pesso de hamming 0
  • 19. Teoria da Informação - Diego de Souza Silva 19 Códigos de blocos lineares ● Seja os bits da mensagem que deve ser transmitida ● E os bits e paridade do código da mensagem ● O código pode ser escrito como: Onde o coeficiente tem valor 1 se o i-ésimo bit de mensagem participa do cálculo da equação de paridade do j-ésimo bit de redundância m1 ,m2 , m3 ,...mk−1 ,¿ b1 ,b2 ,...bn−k−1 ,¿ bi= p0i mi+ p1i m1+ p2i m2+ …+ pk−1 mk−1 ¿ pij ¿
  • 20. Teoria da Informação - Diego de Souza Silva 20 Códigos de blocos lineares ● Resumindo em matrizes: b=mP¿ m=[m0 ,m1 ,m2 ,…]¿ b=[b0 ,b1 ,b2 ,…]¿ P= [ p00 p01 ... p0,n−k−1 p10 p11 ... p1,n−k−1 p20 p21 ... p2,n−k−1 ... ... ... ... pk−1,0 pk−1,1 ... pk−1, n−k−1 ]¿
  • 21. Teoria da Informação - Diego de Souza Silva 21 Códigos de blocos lineares: Geradora ● Ao multiplicá-la por uma mensagem, o vetor resultado é uma palavra código ● Dimensão k x n ● Obtida através de H =[I n−k⋮PT ]¿
  • 22. Teoria da Informação - Diego de Souza Silva 22 Códigos de blocos lineares: Geradora ● Exemplo com código ● Regras: – (7,3,4)¿ b1=m1+ m2 ¿ b2=m2+ m3 ¿ b3=m1+ m3 ¿ b4=m1+ m2+ m3 ¿ P= [ 1 0 1 1 1 1 0 1 0 1 1 1]¿ G= [ 1 0 0 ⋮1 0 1 1 0 1 0 ⋮1 1 0 1 0 0 1 ⋮0 1 1 1]¿
  • 23. Teoria da Informação - Diego de Souza Silva 23 Códigos de blocos lineares: Geradora ● Para mensagem ● Palavra código m1=[101]¿ m1[1 0 1]×G [ 1 0 0 0 1 1 1 0 1 0 1 1 0 1 0 0 1 1 0 1 1]=c1[1 0 1 1 1 0 0] ¿ c1 [1 0 1 1 1 0 0]¿
  • 24. Teoria da Informação - Diego de Souza Silva 24 Códigos de blocos: Checagem ● Permite chegar se o código é válido; ● Existe a matriz H, denominada matriz de verificação de paridade; ● H =[PT ⋮I n−k ]¿
  • 25. Teoria da Informação - Diego de Souza Silva 25 Códigos de blocos: Checagem ● Permite chegar se o código é válido; ● Existe a matriz H, denominada matriz de verificação de paridade; ● H =[PT ⋮I n−k ]¿
  • 26. Teoria da Informação - Diego de Souza Silva 27 Códigos de blocos: Checagem ● Sejam e duas mensagens que foram recebidas r 1=[1 0 1 1 1 0 0] ¿ r 2=[0 0 1 0 1 0 1] ¿ r 1 [1 0 1 1 1 0 0]×H T [ 0 0 0 1 0 0 1 0 0 1 0 0 1 0 0 0 1 1 0 1 1 0 1 1 1 1 1 0 ]=[0 0 0 0] ¿ r 2 [0 0 1 0 1 0 1]×H T [ 0 0 0 1 0 0 1 0 0 1 0 0 1 0 0 0 1 1 0 1 1 0 1 1 1 1 1 0 ]=s[0 1 1 1] ¿
  • 27. Teoria da Informação - Diego de Souza Silva 28 Códigos de blocos: Decodificação ● Sendo a síndrome, o valor resultado da checagem; ● Processo de decodificação por síndrome. s[0 1 1 1] ¿
  • 28. Teoria da Informação - Diego de Souza Silva 30 Códigos de blocos: Decodificação Para a mensagem r recebida, computar a síndrome Localizar na matriz a classe cuja síndrome do elemento com menor peso de hammng equivale ao valor s; A mensagem correta c pode ser obtida pela equação c = r + e
  • 29. Teoria da Informação - Diego de Souza Silva 31 Conclusão ● Teoria da informação subsidia modelos de comunicação, digital ou não; ● Compressão da Informação: multimídia; ● Códigos Corretores de Erros: redes de computadores; ● Estudos aplicados: linguística e psicologia
  • 30. Teoria da Informação - Diego de Souza Silva 32 Referências [1] GAPPMAIR, W. Claude E. Shannon: The 50th Anniversary of Information Theory, Technical University of Graz. IEEE, vol 37:102-105, 1999. [2] MILLER, G. A., What is Information Measurement. American Psychologist, vol. 8:3-11, Jan 1953. [3] SHANNON, C. E., A Mathematical Theory of Information. The Bell Systems Technical Journal, Vol. 27: 379-423, 623-656, 1948. [4] HUFFMAN, D. A., A method for the Construction of Minimum-Redudancy Codes, Proc. IRE, Vol. 40: 1098-1101, 1952. [5] HAYKIN, S. Communication Systems. 4th ed. John Wiley & Sons. EUA, 1994. 2001. [6] PETERSON, W. W., Error-Correcting Codes. Scientific American, vol. 206: 96-108, 1962. [7] VITERBI, A. J., Convolutional codes and their performances in communication systems. IEEE Transactions on Communications, COM-19:751-772, 1971.