O documento discute teoria da informação, compreendendo compressão de dados e códigos corretores de erros. Aborda como medir informação, definir entropia, comprimir dados através de códigos ótimos e redundância mínima, e aplicar códigos lineares de blocos para correção de erros durante transmissão.
Atividade pratica supervisionada construção de algoritimo
Teoria Informação: Compressão Códigos Erros
1. Teoria da Informação: Compressão e
Códigos Corretores de Erros
Orientador: Prof. Dr. José Carlos Magossi
Orientando: Diego de Souza Silva
2. Teoria da Informação - Diego de Souza Silva 2
Sumário
● Definição contextual
● Como medir informação
● Compressão
● Códigos Corretores de Erros
3. Teoria da Informação - Diego de Souza Silva 3
Introdução
● “A Mathematical Theory of Communication”,
Claude Shannon
● Modelo genérico
● Base para a disciplina
4. Teoria da Informação - Diego de Souza Silva 4
Informação
● Comunicação: Ação ou resultado de
comunicar(-se), de transmitir e receber
mensagens.
5. Teoria da Informação - Diego de Souza Silva 5
Como medir informação
● Número de possibilidades eliminadas dentre
todas as possíveis;
● Bit (base binária), nat (base neperiana) e
hartley (base decimal)
● Se uma mensagen reduz de k para k/x as
possibilidades, então esta comunica
log2 (x)
6. Teoria da Informação - Diego de Souza Silva 6
Entropia
● Média de informação que se pode esperar de um
transmissor;
● Seja x um fonte que pode enviar uma de quatro
mensagens: amanhã fará sol, choverá, estará
nublado ou nevará.
(2+2+2+2) bits / 4 mensagens = 2 bit/mensagem
H (x)=∑i=i
k
Pi(−log2 Pi)
7. Teoria da Informação - Diego de Souza Silva 7
Fontes de Informação Relacionadas
● Situações onde a resposta de uma fonte
impactam nas possibilidades de resposta de
outra;
● Jogo das moedas;
8. Teoria da Informação - Diego de Souza Silva 8
Compressão de Informação
● Utilizar menos recursos para armazenamento e
transmissão;
● Código de Redundância Mínima: relacionar
comprimento de código a frequência
transmissão da mensagem;
Lmed (x)=∑
i=1
N
Pi L(i)
¿
8
9. Teoria da Informação - Diego de Souza Silva 9
Compressão: Código Ótimo
● Gif, mpeg, mp3, Morse, Braille e zip são
exemplos de códigos que comprimem
informação
● Seja N a quantidade de mensagens que a fonte
pode enviar e D o número de símbolos do
alfabeto, código de redundância mínima para
dados N e D é aquele que representa todos as
mensagens com média mínima de símbolos
por mensagem.
10. Teoria da Informação - Diego de Souza Silva 10
Compressão: Restrições
● Não pode haver informações distintas com mesmo código;
● Deve ser possível identificar onde começa e onde termina
um código;
● Se uma informação tem maior probabilidade de ser
enviada, deve ter código menor;
● Deve haver ao menos dois códigos com comprimento
máximo L(N)
● Todos os códigos com comprimento L(N-1) ou seus
prefixos devem ser utilizados como código.
● Exemplo: 12341 com 123, 12, 341 e 41 códigos válidos
11. Teoria da Informação - Diego de Souza Silva 11
Compressão: Criação do Código
● Alfabeto binário;
● Agrupar duas mensagens menos prováveis;
● Criar mensagem composta;
● Reorganizar grupos auxiliares;
13. Teoria da Informação - Diego de Souza Silva 13
Compressão: Generalização
● Agrupamentos de D menores probabilidades
por vez;
● Primeiro agrupamente deve conter
elementos de forma que esta razão seja par.
(N−n0)
(D−1)
¿
n0
14. Teoria da Informação - Diego de Souza Silva 14
Códigos para Correção de Erros
● Problema: comunicação através de canal
ruidoso
● Estratégia de Solução: utilizar redundância
controlada para corrigir erros.
15. Teoria da Informação - Diego de Souza Silva 15
Códigos para Correção de Erros
● Teorema 11 de “A mathematical theory of
communication”
– Seja C a capacidade do canal com entropia H:
se então existe um código com erros tão
baixos quanto se desejar. Caso contrário, a
menor taxa de erros possível é
H⩽C
¿
H−C+ ε
¿
16. Teoria da Informação - Diego de Souza Silva 16
Códigos: Definições
● Palavra-código
● Distância de Hamming
● Distância Mínima
● Notação:
● Peso de Hamming
● Operação de Paridade
● Soma módulo-2
(n,k ,d min)
¿
Propriedade Exemplo
A soma de dois restos
equivale ao resto da soma de
dois números (para qualquer
divisor)
12237 % 7 = 1 e
4562 % 7 = 5 portanto
(12237+4562) % 7 = 5 + 1 = 6
O produto de dois restos
equivale ao resto do produto
151 % 3 = 1 e 2132 % 3 = 2
portanto
(151 * 2132) % 3 = 1 * 2 = 2
Para divisor 9, o resto da
divisão de k equivale ao resto
da divisão do número obtido
com a soma dos dígitos de k.
12313434 % 9 =
(1+2+3+1+3+4+3+4) % 9 =
21 % 9 = (2+1) % 9 = 3
O resto da divisão de um
número binário por 2 é 1 para
números de peso de hamming
ímpar e 0 caso contrário.
11011000 tem peso 4,
portanto tem resto 0
17. Teoria da Informação - Diego de Souza Silva 17
Códigos de blocos lineares
● Mensagem completa fragmentada em pedaços
de tamanho k;
● (n-k) bits de paridade são calculados com
paridade, uma regra por bit.
● Linearidade: o código de blocos é linear se a
soma de duas palavras-código ainda for
palavra-código válida e existe uma palavra com
pesso de hamming 0
18. Teoria da Informação - Diego de Souza Silva 18
Códigos de blocos lineares
● Mensagem completa fragmentada em pedaços
de tamanho k;
● (n-k) bits de paridade são calculados com
paridade, uma regra por bit.
● Linearidade: o código de blocos é linear se a
soma de duas palavras-código ainda for
palavra-código válida e existe uma palavra com
pesso de hamming 0
19. Teoria da Informação - Diego de Souza Silva 19
Códigos de blocos lineares
● Seja os bits da mensagem
que deve ser transmitida
● E os bits e paridade do código
da mensagem
● O código pode ser escrito como:
Onde o coeficiente tem valor 1 se o i-ésimo bit
de mensagem participa do cálculo da equação de
paridade do j-ésimo bit de redundância
m1 ,m2 , m3 ,...mk−1 ,¿
b1 ,b2 ,...bn−k−1 ,¿
bi= p0i mi+ p1i m1+ p2i m2+ …+ pk−1 mk−1
¿
pij
¿
20. Teoria da Informação - Diego de Souza Silva 20
Códigos de blocos lineares
● Resumindo em matrizes: b=mP¿
m=[m0 ,m1 ,m2 ,…]¿
b=[b0 ,b1 ,b2 ,…]¿
P=
[
p00 p01 ... p0,n−k−1
p10 p11 ... p1,n−k−1
p20 p21 ... p2,n−k−1
... ... ... ...
pk−1,0 pk−1,1 ... pk−1, n−k−1
]¿
21. Teoria da Informação - Diego de Souza Silva 21
Códigos de blocos lineares: Geradora
● Ao multiplicá-la por uma mensagem, o vetor
resultado é uma palavra código
● Dimensão k x n
● Obtida através de H =[I n−k⋮PT
]¿
24. Teoria da Informação - Diego de Souza Silva 24
Códigos de blocos: Checagem
● Permite chegar se o código é válido;
● Existe a matriz H, denominada matriz de
verificação de paridade;
●
H =[PT
⋮I n−k ]¿
25. Teoria da Informação - Diego de Souza Silva 25
Códigos de blocos: Checagem
● Permite chegar se o código é válido;
● Existe a matriz H, denominada matriz de
verificação de paridade;
●
H =[PT
⋮I n−k ]¿
26. Teoria da Informação - Diego de Souza Silva 27
Códigos de blocos: Checagem
● Sejam e
duas mensagens que foram recebidas
r 1=[1 0 1 1 1 0 0]
¿
r 2=[0 0 1 0 1 0 1]
¿
r 1 [1 0 1 1 1 0 0]×H
T
[
0 0 0 1
0 0 1 0
0 1 0 0
1 0 0 0
1 1 0 1
1 0 1 1
1 1 1 0
]=[0 0 0 0]
¿
r 2 [0 0 1 0 1 0 1]×H
T
[
0 0 0 1
0 0 1 0
0 1 0 0
1 0 0 0
1 1 0 1
1 0 1 1
1 1 1 0
]=s[0 1 1 1]
¿
27. Teoria da Informação - Diego de Souza Silva 28
Códigos de blocos: Decodificação
● Sendo a síndrome, o valor resultado
da checagem;
● Processo de decodificação por síndrome.
s[0 1 1 1]
¿
28. Teoria da Informação - Diego de Souza Silva 30
Códigos de blocos: Decodificação
Para a mensagem r recebida, computar a
síndrome
Localizar na matriz a classe cuja síndrome do
elemento com menor peso de hammng equivale
ao valor s;
A mensagem correta c pode ser obtida pela
equação c = r + e
29. Teoria da Informação - Diego de Souza Silva 31
Conclusão
● Teoria da informação subsidia modelos de
comunicação, digital ou não;
● Compressão da Informação: multimídia;
● Códigos Corretores de Erros: redes de
computadores;
● Estudos aplicados: linguística e psicologia
30. Teoria da Informação - Diego de Souza Silva 32
Referências
[1] GAPPMAIR, W. Claude E. Shannon: The 50th Anniversary of Information Theory,
Technical University of Graz. IEEE, vol 37:102-105, 1999.
[2] MILLER, G. A., What is Information Measurement. American Psychologist, vol. 8:3-11,
Jan 1953.
[3] SHANNON, C. E., A Mathematical Theory of Information. The Bell Systems Technical
Journal, Vol. 27: 379-423, 623-656, 1948.
[4] HUFFMAN, D. A., A method for the Construction of Minimum-Redudancy Codes,
Proc. IRE, Vol. 40: 1098-1101, 1952.
[5] HAYKIN, S. Communication Systems. 4th ed. John Wiley & Sons. EUA, 1994. 2001.
[6] PETERSON, W. W., Error-Correcting Codes. Scientific American, vol. 206: 96-108,
1962.
[7] VITERBI, A. J., Convolutional codes and their performances in communication
systems. IEEE Transactions on Communications, COM-19:751-772, 1971.