SlideShare una empresa de Scribd logo
1 de 43
1




Redes Neurais Artificiais
Modelos e suas implementações

Guilherme Polo
2




Sumário
• Introdução a Redes Neurais Artificiais

• Neurônio artificial

• Redes de Hopfield

• Mapas Auto Organizáveis de Kohonen

• Vantagens e desvantagens dos modelos

• Bibliografia
3




Introdução a Redes Neurais Artificiais
• Abstração das redes neurais biológicas

• Características:

  • Processamento paralelo

  • Tolerância a falhas

  • Aprendizagem e Generalização a partir de experiências
4


                                                   
                                  
                                                                                   
                                                                           
                                                                                           

                                                                                    
                
           
                                                                                   

                                                                      
                                  
                          




                                                                                                          

                                                              
    
                                                                            
                                                                      



              

                     
                                                                                                    
                                                                                                    
                                                                                             
                                                        




                                Ilustração neurônio biológico
                                         Mariana Ruiz Villarreal
5




Neurônio artificial

        Dendritos      Núcleo         Axônio

       e0   p0

            ...       !     f                saída   ..


       en    pn


                            n
                  sa´ = f
                    ıda           (ei pi )
                            i=0
6




Neurônio artificial

        Dendritos            Núcleo   Axônio

       e0   p0

            ...              !   f       saída    ..


       en    pn
                                      Exemplos para f (x):
             n
                                        x , sin(x) , cos(x),
  sa´ = f
    ıda           (ei pi )              tanh(x), sgn(x) ,
            i=0                            (x−b)2 ,
                                                        1
                                        ae 2c2      1 + e−kx
7




Redes de Hopfield
• Desenvolvido em 1982 por ..


• Ligação com a biologia: Memória
  Auto-associativa


• Característica principais:


   • Recorrência


   • Simetria
                                    John J. Hopfield
   • Não faz uso de camadas
     escondidas
8




Redes de Hopfield
• Usos principais:

  • Reconstrução de padrões

  • Segmentação de imagens
9




Redes de Hopfield
• Usos principais:

  • Reconstrução de padrões

  • Segmentação de imagens
10




Redes de Hopfield
• Usos principais:

  • Reconstrução de padrões

  • Segmentação de imagens
11




Redes de Hopfield
• Usos principais:

  • Reconstrução de padrões

  • Segmentação de imagens
12




Redes de Hopfield
• Usos principais:

  • Reconstrução de padrões

  • Segmentação de imagens
13




Redes de Hopfield
• Funcionamento:

  • Síncrono: Todos neurônios avaliam suas entradas e
    produzem saídas ao mesmo tempo

  • Assíncrono: Um neurônio é selecionado aleatoriamente,
    avalia sua entrada e produz uma saída

• Convergência:

  • Simetria + Funcionamento Assíncrono - Laços
14




Redes de Hopfield
• Representação com 3 neurônios:


        Saída após
       convergência



                            B

        Neurônios

                      A            C




         Entradas
15




Redes de Hopfield
• Implementação para caso discreto e bipolar:

  • Sinais de entrada: -1 ou 1

  • Função de ativação: sgn(x)

  • Aprendizagem :)
                         p
                  1
                                  κv κv
                                   i j    se i = j
           wij =   N     v=1
                 
                              0           se i = j
16




Redes de Hopfield
• Implementação para caso discreto e bipolar:

  • Sinais de entrada: -1 ou 1

  • Função de ativação: sgn(x)

  • Aprendizagem

  • Execução:   repeat
                    i = RANDOM(N )
                                       N
                     saida i = sgn             wij × saidaj
                                     j=0,j=i
                until sistema estabilizar
17




Mapas Auto Organizáveis de Kohonen
• Desenvolvido em 1982 por ..


• Segue princípio da formação de
  mapas topográficos


• Exemplos de uso:


  • Visualização de dados
    n-dimensionais


  • Pré-processamento de padrões   Teuvo Kohonen
    para reconhecimento


  • Mineração de dados
18




Mapas Auto Organizáveis de Kohonen

• Características principais:

  • Treinamento por aprendizagem competitiva

  • Comumente realiza classificação não supervisionada

  • Não faz uso de camadas escondidas
19




Mapas Auto Organizáveis de Kohonen
• Formando um mapa auto organizável:


  1. Inicializar pesos sinápticos


  2. Realizar processo de competição


  3. Determinar vizinhança topológica


  4. Aplicar processo adaptativo


  5. Voltar para o passo 2 se ainda
    estiver treinando
20




Mapas Auto Organizáveis de Kohonen
• Formando um mapa auto organizável:

                                        Ex.: Um peso em (0, 0, 0), demais em (1, 1, 1)
  1. Inicializar pesos sinápticos


  2. Realizar processo de competição


  3. Determinar vizinhança topológica


  4. Aplicar processo adaptativo


  5. Voltar para o passo 2 se ainda
    estiver treinando
21




Mapas Auto Organizáveis de Kohonen
• Formando um mapa auto organizável:

                                        Ex.: Padrão de entrada (0, 0, 0)
  1. Inicializar pesos sinápticos


  2. Realizar processo de competição


     • Apresentar entrada à rede
                                                                           Entrada
  3. Determinar vizinhança topológica


  4. Aplicar processo adaptativo

  5. Voltar para o passo 2 se ainda
    estiver treinando
22




Mapas Auto Organizáveis de Kohonen
• Formando um mapa auto organizável:

                                      w = argmin entrada − pi (t) , i = 0 . . . n
  1. Inicializar pesos sinápticos             i



  2. Realizar processo de competição


     • Determinar neurônio vencedor (w)
                                                                        Entrada
  3. Determinar vizinhança topológica


  4. Aplicar processo adaptativo

  5. Voltar para o passo 2 se ainda
    estiver treinando
23




Mapas Auto Organizáveis de Kohonen
• Formando um mapa auto organizável:


  1. Inicializar pesos sinápticos


  2. Realizar processo de competição    Vencedor


  3. Determinar vizinhança topológica

                                                   Entrada
  4. Aplicar processo adaptativo


  5. Voltar para o passo 2 se ainda
    estiver treinando
24




Mapas Auto Organizáveis de Kohonen
• Formando um mapa auto organizável:


  1. Inicializar pesos sinápticos


  2. Realizar processo de competição    Vencedor


  3. Determinar vizinhança topológica

                                                   Entrada
  4. Aplicar processo adaptativo


  5. Voltar para o passo 2 se ainda
    estiver treinando
25




Mapas Auto Organizáveis de Kohonen
• Formando um mapa auto organizável:


  1. Inicializar pesos sinápticos


  2. Realizar processo de competição


  3. Determinar vizinhança topológica

                                        Entrada
  4. Aplicar processo adaptativo


  5. Voltar para o passo 2 se ainda
    estiver treinando
26




Mapas Auto Organizáveis de Kohonen
• Formando um mapa auto organizável:


  1. Inicializar pesos sinápticos


  2. Realizar processo de competição


  3. Determinar vizinhança topológica


  4. Aplicar processo adaptativo


  5. Voltar para o passo 2 se ainda
    estiver treinando
27




Mapas Auto Organizáveis de Kohonen
• Determinação de vizinhança

  • Função comumente utilizada para escolha de vizinhança:

                                      lw −li 2
                                  −    2σ 2 (t)
                hwi (t) = α(t)e
27




Mapas Auto Organizáveis de Kohonen
• Determinação de vizinhança

  • Função comumente utilizada para escolha de vizinhança:

                                          lw −li 2
                                      −    2σ 2 (t)
   tempo discreto   hwi (t) = α(t)e
27




Mapas Auto Organizáveis de Kohonen
• Determinação de vizinhança

  • Função comumente utilizada para escolha de vizinhança:

                                            lw −li 2
                                        −    2σ 2 (t)
   tempo discreto     hwi (t) = α(t)e



    taxa de aprendizagem (0, 1)
27




Mapas Auto Organizáveis de Kohonen
• Determinação de vizinhança

  • Função comumente utilizada para escolha de vizinhança:

                                               lw −li 2
                                           −    2σ 2 (t)
   tempo discreto        hwi (t) = α(t)e



    taxa de aprendizagem (0, 1)
                    t
α(t) = 0.9 1 −            , t < Niter
                 Niter
27




Mapas Auto Organizáveis de Kohonen
• Determinação de vizinhança

  • Função comumente utilizada para escolha de vizinhança:

                                               lw −li 2
                                           −    2σ 2 (t)
   tempo discreto        hwi (t) = α(t)e


                                                     raio da região
    taxa de aprendizagem (0, 1)
                    t
α(t) = 0.9 1 −            , t < Niter
                 Niter
27




Mapas Auto Organizáveis de Kohonen
• Determinação de vizinhança

  • Função comumente utilizada para escolha de vizinhança:

                                               lw −li 2
                                           −    2σ 2 (t)
   tempo discreto        hwi (t) = α(t)e


                                                     raio da região
    taxa de aprendizagem (0, 1)                                t
                                           σ(t) = R 1 −               + 1 , t < Niter
                    t                                       Niter
α(t) = 0.9 1 −            , t < Niter
                 Niter
27




Mapas Auto Organizáveis de Kohonen
• Determinação de vizinhança

  • Função comumente utilizada para escolha de vizinhança:

                                               lw −li 2
                                           −    2σ 2 (t)
   tempo discreto        hwi (t) = α(t)e                           posição do nó



                                                     raio da região
    taxa de aprendizagem (0, 1)                                t
                                           σ(t) = R 1 −                + 1 , t < Niter
                    t                                       Niter
α(t) = 0.9 1 −            , t < Niter
                 Niter
28




Mapas Auto Organizáveis de Kohonen
• Ajustando pesos no processo adaptativo

      pi (t + 1) = pi (t) + hwi (t)(entrada − pi (t))

• Quando parar de treinar ?

    • Teuvo Kohonen (por volta de):

       • 1000 iterações para ordenar

       • Para acurácia estatística, pelo menos 500n
29




Mapas Auto Organizáveis de Kohonen
• Exemplo:

  • Treinar para reconhecer os padrões
29




Mapas Auto Organizáveis de Kohonen
• Exemplo:

  • Treinar para reconhecer os padrões
30




Mapas Auto Organizáveis de Kohonen
• Exemplo:

  • Treinar para reconhecer os padrões
31




Kohonen SOM - Matlab
32




Kohonen SOM - Matlab
33




Kohonen SOM - Matlab
34




Vantagens e Desvantagens dos modelos
• Redes de Hopfield:

    Simples de implementar

    Capacidade de armazenamento baixo:

                   N
       Pmax   ≈
                2 ln N
35




Vantagens e Desvantagens dos modelos
• Mapas auto organizáveis:

    Podem ser treinadas rapidamente

    Treinamento é computacionalmente leve (Kohonen)

    Requer informações a nível global
36




Referências
• de Wilde, P. (1997). Neural   Network Models. Springer.

• Haykin, S. (2000). Redes     Neurais – Princípios e Práticas. Bookman.

• Hopfield, J. J. (1982). Neural    networks and physical systems with emergent collective
  computational abilities. Proceedings of the National Academy of Sciences of the United States of
  America.


• Kohonen, T. (1982). Self-organized        formation of topologically correct feature maps.
  Biological Cybernetics.


• Kohonen, T. (2000). Self-Organizing        Maps. Springer.

• Priddy, K. L. and Keller, P. E. (2005). Artificial   neural networks: an introduction. SPIE Publications.

• Zupan, J. and Gasteiger, J. (1999). Neural    Networks in Chemistry and Drug Design. Wiley-VCH.

Más contenido relacionado

Destacado

Mapas autoorganizados
Mapas autoorganizadosMapas autoorganizados
Mapas autoorganizados
Jesus Rojas
 
Curso 2006 Sesion 1 Kohonen
Curso 2006 Sesion 1 KohonenCurso 2006 Sesion 1 Kohonen
Curso 2006 Sesion 1 Kohonen
askroll
 
Red NEURONAL de Hamming
Red   NEURONAL    de HammingRed   NEURONAL    de Hamming
Red NEURONAL de Hamming
ESCOM
 
Logica fuzzy Conceitos e Aplicações
Logica fuzzy   Conceitos e AplicaçõesLogica fuzzy   Conceitos e Aplicações
Logica fuzzy Conceitos e Aplicações
Toni Esteves
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas Som
ESCOM
 
Aprendizaje Asociativo Hebbiano
Aprendizaje Asociativo HebbianoAprendizaje Asociativo Hebbiano
Aprendizaje Asociativo Hebbiano
ESCOM
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
ESCOM
 
REDES NEURONALES Aprendizaje Asociativo
REDES NEURONALES Aprendizaje  AsociativoREDES NEURONALES Aprendizaje  Asociativo
REDES NEURONALES Aprendizaje Asociativo
ESCOM
 

Destacado (20)

Classificação não supervisionada - Kohonen
Classificação não supervisionada - KohonenClassificação não supervisionada - Kohonen
Classificação não supervisionada - Kohonen
 
Classificação de imagens não supervisionada - KMEANS e ISODATA
Classificação de imagens não supervisionada - KMEANS e ISODATAClassificação de imagens não supervisionada - KMEANS e ISODATA
Classificação de imagens não supervisionada - KMEANS e ISODATA
 
Mapas autoorganizados
Mapas autoorganizadosMapas autoorganizados
Mapas autoorganizados
 
Curso 2006 Sesion 1 Kohonen
Curso 2006 Sesion 1 KohonenCurso 2006 Sesion 1 Kohonen
Curso 2006 Sesion 1 Kohonen
 
Aula introducao-redes-neurais
Aula introducao-redes-neuraisAula introducao-redes-neurais
Aula introducao-redes-neurais
 
Curso matlab
Curso matlabCurso matlab
Curso matlab
 
redes kohonen
redes kohonenredes kohonen
redes kohonen
 
Inclusion spurs innovation - Think like a designer
Inclusion spurs innovation - Think like a designerInclusion spurs innovation - Think like a designer
Inclusion spurs innovation - Think like a designer
 
Lista de Exercícios - Linguagem Formais e Autômatos
Lista de Exercícios - Linguagem Formais e AutômatosLista de Exercícios - Linguagem Formais e Autômatos
Lista de Exercícios - Linguagem Formais e Autômatos
 
REDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGREDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMING
 
Red NEURONAL de Hamming
Red   NEURONAL    de HammingRed   NEURONAL    de Hamming
Red NEURONAL de Hamming
 
Logica fuzzy Conceitos e Aplicações
Logica fuzzy   Conceitos e AplicaçõesLogica fuzzy   Conceitos e Aplicações
Logica fuzzy Conceitos e Aplicações
 
K-Nearest Neighbor
K-Nearest NeighborK-Nearest Neighbor
K-Nearest Neighbor
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas Som
 
Aprendizaje Asociativo Hebbiano
Aprendizaje Asociativo HebbianoAprendizaje Asociativo Hebbiano
Aprendizaje Asociativo Hebbiano
 
Hab(pensamiento asociativo)
Hab(pensamiento asociativo)Hab(pensamiento asociativo)
Hab(pensamiento asociativo)
 
Sefl Organizing Map
Sefl Organizing MapSefl Organizing Map
Sefl Organizing Map
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
 
REDES NEURONALES Aprendizaje Asociativo
REDES NEURONALES Aprendizaje  AsociativoREDES NEURONALES Aprendizaje  Asociativo
REDES NEURONALES Aprendizaje Asociativo
 
Kohonen self organizing maps
Kohonen self organizing mapsKohonen self organizing maps
Kohonen self organizing maps
 

Último

Assessement Boas Praticas em Kubernetes.pdf
Assessement Boas Praticas em Kubernetes.pdfAssessement Boas Praticas em Kubernetes.pdf
Assessement Boas Praticas em Kubernetes.pdf
Natalia Granato
 

Último (6)

ATIVIDADE 1 - CUSTOS DE PRODUÇÃO - 52_2024.docx
ATIVIDADE 1 - CUSTOS DE PRODUÇÃO - 52_2024.docxATIVIDADE 1 - CUSTOS DE PRODUÇÃO - 52_2024.docx
ATIVIDADE 1 - CUSTOS DE PRODUÇÃO - 52_2024.docx
 
Boas práticas de programação com Object Calisthenics
Boas práticas de programação com Object CalisthenicsBoas práticas de programação com Object Calisthenics
Boas práticas de programação com Object Calisthenics
 
ATIVIDADE 1 - GCOM - GESTÃO DA INFORMAÇÃO - 54_2024.docx
ATIVIDADE 1 - GCOM - GESTÃO DA INFORMAÇÃO - 54_2024.docxATIVIDADE 1 - GCOM - GESTÃO DA INFORMAÇÃO - 54_2024.docx
ATIVIDADE 1 - GCOM - GESTÃO DA INFORMAÇÃO - 54_2024.docx
 
Padrões de Projeto: Proxy e Command com exemplo
Padrões de Projeto: Proxy e Command com exemploPadrões de Projeto: Proxy e Command com exemplo
Padrões de Projeto: Proxy e Command com exemplo
 
Assessement Boas Praticas em Kubernetes.pdf
Assessement Boas Praticas em Kubernetes.pdfAssessement Boas Praticas em Kubernetes.pdf
Assessement Boas Praticas em Kubernetes.pdf
 
ATIVIDADE 1 - LOGÍSTICA EMPRESARIAL - 52_2024.docx
ATIVIDADE 1 - LOGÍSTICA EMPRESARIAL - 52_2024.docxATIVIDADE 1 - LOGÍSTICA EMPRESARIAL - 52_2024.docx
ATIVIDADE 1 - LOGÍSTICA EMPRESARIAL - 52_2024.docx
 

Redes Neurais Artificiais - Modelos e suas implementações

  • 1. 1 Redes Neurais Artificiais Modelos e suas implementações Guilherme Polo
  • 2. 2 Sumário • Introdução a Redes Neurais Artificiais • Neurônio artificial • Redes de Hopfield • Mapas Auto Organizáveis de Kohonen • Vantagens e desvantagens dos modelos • Bibliografia
  • 3. 3 Introdução a Redes Neurais Artificiais • Abstração das redes neurais biológicas • Características: • Processamento paralelo • Tolerância a falhas • Aprendizagem e Generalização a partir de experiências
  • 4. 4                                  Ilustração neurônio biológico Mariana Ruiz Villarreal
  • 5. 5 Neurônio artificial Dendritos Núcleo Axônio e0 p0 ... ! f saída .. en pn n sa´ = f ıda (ei pi ) i=0
  • 6. 6 Neurônio artificial Dendritos Núcleo Axônio e0 p0 ... ! f saída .. en pn Exemplos para f (x): n x , sin(x) , cos(x), sa´ = f ıda (ei pi ) tanh(x), sgn(x) , i=0 (x−b)2 , 1 ae 2c2 1 + e−kx
  • 7. 7 Redes de Hopfield • Desenvolvido em 1982 por .. • Ligação com a biologia: Memória Auto-associativa • Característica principais: • Recorrência • Simetria John J. Hopfield • Não faz uso de camadas escondidas
  • 8. 8 Redes de Hopfield • Usos principais: • Reconstrução de padrões • Segmentação de imagens
  • 9. 9 Redes de Hopfield • Usos principais: • Reconstrução de padrões • Segmentação de imagens
  • 10. 10 Redes de Hopfield • Usos principais: • Reconstrução de padrões • Segmentação de imagens
  • 11. 11 Redes de Hopfield • Usos principais: • Reconstrução de padrões • Segmentação de imagens
  • 12. 12 Redes de Hopfield • Usos principais: • Reconstrução de padrões • Segmentação de imagens
  • 13. 13 Redes de Hopfield • Funcionamento: • Síncrono: Todos neurônios avaliam suas entradas e produzem saídas ao mesmo tempo • Assíncrono: Um neurônio é selecionado aleatoriamente, avalia sua entrada e produz uma saída • Convergência: • Simetria + Funcionamento Assíncrono - Laços
  • 14. 14 Redes de Hopfield • Representação com 3 neurônios: Saída após convergência B Neurônios A C Entradas
  • 15. 15 Redes de Hopfield • Implementação para caso discreto e bipolar: • Sinais de entrada: -1 ou 1 • Função de ativação: sgn(x) • Aprendizagem :)  p  1 κv κv i j se i = j wij = N v=1  0 se i = j
  • 16. 16 Redes de Hopfield • Implementação para caso discreto e bipolar: • Sinais de entrada: -1 ou 1 • Função de ativação: sgn(x) • Aprendizagem • Execução: repeat i = RANDOM(N ) N saida i = sgn wij × saidaj j=0,j=i until sistema estabilizar
  • 17. 17 Mapas Auto Organizáveis de Kohonen • Desenvolvido em 1982 por .. • Segue princípio da formação de mapas topográficos • Exemplos de uso: • Visualização de dados n-dimensionais • Pré-processamento de padrões Teuvo Kohonen para reconhecimento • Mineração de dados
  • 18. 18 Mapas Auto Organizáveis de Kohonen • Características principais: • Treinamento por aprendizagem competitiva • Comumente realiza classificação não supervisionada • Não faz uso de camadas escondidas
  • 19. 19 Mapas Auto Organizáveis de Kohonen • Formando um mapa auto organizável: 1. Inicializar pesos sinápticos 2. Realizar processo de competição 3. Determinar vizinhança topológica 4. Aplicar processo adaptativo 5. Voltar para o passo 2 se ainda estiver treinando
  • 20. 20 Mapas Auto Organizáveis de Kohonen • Formando um mapa auto organizável: Ex.: Um peso em (0, 0, 0), demais em (1, 1, 1) 1. Inicializar pesos sinápticos 2. Realizar processo de competição 3. Determinar vizinhança topológica 4. Aplicar processo adaptativo 5. Voltar para o passo 2 se ainda estiver treinando
  • 21. 21 Mapas Auto Organizáveis de Kohonen • Formando um mapa auto organizável: Ex.: Padrão de entrada (0, 0, 0) 1. Inicializar pesos sinápticos 2. Realizar processo de competição • Apresentar entrada à rede Entrada 3. Determinar vizinhança topológica 4. Aplicar processo adaptativo 5. Voltar para o passo 2 se ainda estiver treinando
  • 22. 22 Mapas Auto Organizáveis de Kohonen • Formando um mapa auto organizável: w = argmin entrada − pi (t) , i = 0 . . . n 1. Inicializar pesos sinápticos i 2. Realizar processo de competição • Determinar neurônio vencedor (w) Entrada 3. Determinar vizinhança topológica 4. Aplicar processo adaptativo 5. Voltar para o passo 2 se ainda estiver treinando
  • 23. 23 Mapas Auto Organizáveis de Kohonen • Formando um mapa auto organizável: 1. Inicializar pesos sinápticos 2. Realizar processo de competição Vencedor 3. Determinar vizinhança topológica Entrada 4. Aplicar processo adaptativo 5. Voltar para o passo 2 se ainda estiver treinando
  • 24. 24 Mapas Auto Organizáveis de Kohonen • Formando um mapa auto organizável: 1. Inicializar pesos sinápticos 2. Realizar processo de competição Vencedor 3. Determinar vizinhança topológica Entrada 4. Aplicar processo adaptativo 5. Voltar para o passo 2 se ainda estiver treinando
  • 25. 25 Mapas Auto Organizáveis de Kohonen • Formando um mapa auto organizável: 1. Inicializar pesos sinápticos 2. Realizar processo de competição 3. Determinar vizinhança topológica Entrada 4. Aplicar processo adaptativo 5. Voltar para o passo 2 se ainda estiver treinando
  • 26. 26 Mapas Auto Organizáveis de Kohonen • Formando um mapa auto organizável: 1. Inicializar pesos sinápticos 2. Realizar processo de competição 3. Determinar vizinhança topológica 4. Aplicar processo adaptativo 5. Voltar para o passo 2 se ainda estiver treinando
  • 27. 27 Mapas Auto Organizáveis de Kohonen • Determinação de vizinhança • Função comumente utilizada para escolha de vizinhança: lw −li 2 − 2σ 2 (t) hwi (t) = α(t)e
  • 28. 27 Mapas Auto Organizáveis de Kohonen • Determinação de vizinhança • Função comumente utilizada para escolha de vizinhança: lw −li 2 − 2σ 2 (t) tempo discreto hwi (t) = α(t)e
  • 29. 27 Mapas Auto Organizáveis de Kohonen • Determinação de vizinhança • Função comumente utilizada para escolha de vizinhança: lw −li 2 − 2σ 2 (t) tempo discreto hwi (t) = α(t)e taxa de aprendizagem (0, 1)
  • 30. 27 Mapas Auto Organizáveis de Kohonen • Determinação de vizinhança • Função comumente utilizada para escolha de vizinhança: lw −li 2 − 2σ 2 (t) tempo discreto hwi (t) = α(t)e taxa de aprendizagem (0, 1) t α(t) = 0.9 1 − , t < Niter Niter
  • 31. 27 Mapas Auto Organizáveis de Kohonen • Determinação de vizinhança • Função comumente utilizada para escolha de vizinhança: lw −li 2 − 2σ 2 (t) tempo discreto hwi (t) = α(t)e raio da região taxa de aprendizagem (0, 1) t α(t) = 0.9 1 − , t < Niter Niter
  • 32. 27 Mapas Auto Organizáveis de Kohonen • Determinação de vizinhança • Função comumente utilizada para escolha de vizinhança: lw −li 2 − 2σ 2 (t) tempo discreto hwi (t) = α(t)e raio da região taxa de aprendizagem (0, 1) t σ(t) = R 1 − + 1 , t < Niter t Niter α(t) = 0.9 1 − , t < Niter Niter
  • 33. 27 Mapas Auto Organizáveis de Kohonen • Determinação de vizinhança • Função comumente utilizada para escolha de vizinhança: lw −li 2 − 2σ 2 (t) tempo discreto hwi (t) = α(t)e posição do nó raio da região taxa de aprendizagem (0, 1) t σ(t) = R 1 − + 1 , t < Niter t Niter α(t) = 0.9 1 − , t < Niter Niter
  • 34. 28 Mapas Auto Organizáveis de Kohonen • Ajustando pesos no processo adaptativo pi (t + 1) = pi (t) + hwi (t)(entrada − pi (t)) • Quando parar de treinar ? • Teuvo Kohonen (por volta de): • 1000 iterações para ordenar • Para acurácia estatística, pelo menos 500n
  • 35. 29 Mapas Auto Organizáveis de Kohonen • Exemplo: • Treinar para reconhecer os padrões
  • 36. 29 Mapas Auto Organizáveis de Kohonen • Exemplo: • Treinar para reconhecer os padrões
  • 37. 30 Mapas Auto Organizáveis de Kohonen • Exemplo: • Treinar para reconhecer os padrões
  • 41. 34 Vantagens e Desvantagens dos modelos • Redes de Hopfield: Simples de implementar Capacidade de armazenamento baixo: N Pmax ≈ 2 ln N
  • 42. 35 Vantagens e Desvantagens dos modelos • Mapas auto organizáveis: Podem ser treinadas rapidamente Treinamento é computacionalmente leve (Kohonen) Requer informações a nível global
  • 43. 36 Referências • de Wilde, P. (1997). Neural Network Models. Springer. • Haykin, S. (2000). Redes Neurais – Princípios e Práticas. Bookman. • Hopfield, J. J. (1982). Neural networks and physical systems with emergent collective computational abilities. Proceedings of the National Academy of Sciences of the United States of America. • Kohonen, T. (1982). Self-organized formation of topologically correct feature maps. Biological Cybernetics. • Kohonen, T. (2000). Self-Organizing Maps. Springer. • Priddy, K. L. and Keller, P. E. (2005). Artificial neural networks: an introduction. SPIE Publications. • Zupan, J. and Gasteiger, J. (1999). Neural Networks in Chemistry and Drug Design. Wiley-VCH.

Notas del editor

  1. Entender &amp;#x201C;redes neurais&amp;#x201D; como &amp;#x201C;redes neurais artificiais&amp;#x201D;.
  2. O modelo original proposto por Hopfield utiliza sinais de entrada bipolar
  3. O modelo original proposto por Hopfield utiliza sinais de entrada bipolar
  4. Durante essa fase de aprendizagem, os n&amp;#xF3;s que est&amp;#xE3;o topograficamente pr&amp;#xF3;ximos no array (bidimensional) at&amp;#xE9; uma certa dist&amp;#xE2;ncia geom&amp;#xE9;trica ir&amp;#xE3;o se ativar para aprender algo da mesma entrada apresentada. Isso resultar&amp;#xE1; numa relaxa&amp;#xE7;&amp;#xE3;o local, ou efeito suavizante, nos pesos dos neur&amp;#xF4;nios nessa vizinhan&amp;#xE7;a que tende a levar a uma ordena&amp;#xE7;&amp;#xE3;o (orderingXXX) global.
  5. N_{iter} &amp;#xE9; o n&amp;#xFA;mero m&amp;#xE1;ximo de itera&amp;#xE7;&amp;#xF5;es planejada, Kohonen descreve que 1000 &amp;#xE9; uma quantidade boa para treinamento. Exemplo da regi&amp;#xE3;o eu chutei baseado na f&amp;#xF3;rmula para aprendizado do exemplo do Kohonen. R pode ser o tamanho de uma linha na representa&amp;#xE7;&amp;#xE3;o bidimensional.
  6. N_{iter} &amp;#xE9; o n&amp;#xFA;mero m&amp;#xE1;ximo de itera&amp;#xE7;&amp;#xF5;es planejada, Kohonen descreve que 1000 &amp;#xE9; uma quantidade boa para treinamento. Exemplo da regi&amp;#xE3;o eu chutei baseado na f&amp;#xF3;rmula para aprendizado do exemplo do Kohonen. R pode ser o tamanho de uma linha na representa&amp;#xE7;&amp;#xE3;o bidimensional.
  7. N_{iter} &amp;#xE9; o n&amp;#xFA;mero m&amp;#xE1;ximo de itera&amp;#xE7;&amp;#xF5;es planejada, Kohonen descreve que 1000 &amp;#xE9; uma quantidade boa para treinamento. Exemplo da regi&amp;#xE3;o eu chutei baseado na f&amp;#xF3;rmula para aprendizado do exemplo do Kohonen. R pode ser o tamanho de uma linha na representa&amp;#xE7;&amp;#xE3;o bidimensional.
  8. N_{iter} &amp;#xE9; o n&amp;#xFA;mero m&amp;#xE1;ximo de itera&amp;#xE7;&amp;#xF5;es planejada, Kohonen descreve que 1000 &amp;#xE9; uma quantidade boa para treinamento. Exemplo da regi&amp;#xE3;o eu chutei baseado na f&amp;#xF3;rmula para aprendizado do exemplo do Kohonen. R pode ser o tamanho de uma linha na representa&amp;#xE7;&amp;#xE3;o bidimensional.
  9. N_{iter} &amp;#xE9; o n&amp;#xFA;mero m&amp;#xE1;ximo de itera&amp;#xE7;&amp;#xF5;es planejada, Kohonen descreve que 1000 &amp;#xE9; uma quantidade boa para treinamento. Exemplo da regi&amp;#xE3;o eu chutei baseado na f&amp;#xF3;rmula para aprendizado do exemplo do Kohonen. R pode ser o tamanho de uma linha na representa&amp;#xE7;&amp;#xE3;o bidimensional.
  10. N_{iter} &amp;#xE9; o n&amp;#xFA;mero m&amp;#xE1;ximo de itera&amp;#xE7;&amp;#xF5;es planejada, Kohonen descreve que 1000 &amp;#xE9; uma quantidade boa para treinamento. Exemplo da regi&amp;#xE3;o eu chutei baseado na f&amp;#xF3;rmula para aprendizado do exemplo do Kohonen. R pode ser o tamanho de uma linha na representa&amp;#xE7;&amp;#xE3;o bidimensional.
  11. N_{iter} &amp;#xE9; o n&amp;#xFA;mero m&amp;#xE1;ximo de itera&amp;#xE7;&amp;#xF5;es planejada, Kohonen descreve que 1000 &amp;#xE9; uma quantidade boa para treinamento. Exemplo da regi&amp;#xE3;o eu chutei baseado na f&amp;#xF3;rmula para aprendizado do exemplo do Kohonen. R pode ser o tamanho de uma linha na representa&amp;#xE7;&amp;#xE3;o bidimensional.
  12. N_{iter} &amp;#xE9; o n&amp;#xFA;mero m&amp;#xE1;ximo de itera&amp;#xE7;&amp;#xF5;es planejada, Kohonen descreve que 1000 &amp;#xE9; uma quantidade boa para treinamento. Exemplo da regi&amp;#xE3;o eu chutei baseado na f&amp;#xF3;rmula para aprendizado do exemplo do Kohonen. R pode ser o tamanho de uma linha na representa&amp;#xE7;&amp;#xE3;o bidimensional.
  13. N_{iter} &amp;#xE9; o n&amp;#xFA;mero m&amp;#xE1;ximo de itera&amp;#xE7;&amp;#xF5;es planejada, Kohonen descreve que 1000 &amp;#xE9; uma quantidade boa para treinamento. Exemplo da regi&amp;#xE3;o eu chutei baseado na f&amp;#xF3;rmula para aprendizado do exemplo do Kohonen. R pode ser o tamanho de uma linha na representa&amp;#xE7;&amp;#xE3;o bidimensional.
  14. N_{iter} &amp;#xE9; o n&amp;#xFA;mero m&amp;#xE1;ximo de itera&amp;#xE7;&amp;#xF5;es planejada, Kohonen descreve que 1000 &amp;#xE9; uma quantidade boa para treinamento. Exemplo da regi&amp;#xE3;o eu chutei baseado na f&amp;#xF3;rmula para aprendizado do exemplo do Kohonen. R pode ser o tamanho de uma linha na representa&amp;#xE7;&amp;#xE3;o bidimensional.
  15. N_{iter} &amp;#xE9; o n&amp;#xFA;mero m&amp;#xE1;ximo de itera&amp;#xE7;&amp;#xF5;es planejada, Kohonen descreve que 1000 &amp;#xE9; uma quantidade boa para treinamento. Exemplo da regi&amp;#xE3;o eu chutei baseado na f&amp;#xF3;rmula para aprendizado do exemplo do Kohonen. R pode ser o tamanho de uma linha na representa&amp;#xE7;&amp;#xE3;o bidimensional.