SlideShare una empresa de Scribd logo
1 de 11
Intelligence Artificielle - mai 2012




          Comparaison de différentes
         méthodes utilisant des réseaux
                de neurones
                   Objet d’application : des fonctions bruitées




Kostiantyn KLEKOTA
Nicholas CHARRIERE
Présentation (1/2)
 Objectif : Comparer différentes méthodes de
  prédiction de fonction

 Paramètres : Nous avons testé sur les 2 fonctions
  suivantes :
              X(t)=sin(4πt)+ε         Y(t)=exp(-t/2)+ε

Où ε est un bruit distribué normalement avec une dispersion de 0.05

 100 points de données pour l’entraînement, et 100
  pour la vérification (sauf pour ANFIS  400/400)
Présentation (2/2)
 Pour l’input, on utilise 5 points pour prévoir le 6ème:
             [f(t-1), f(t-2), f(t-3), f(t-4), f(t-5)] → f(t)
 On a comparé les méthodes suivantes :
      Cascade forward backpropagation network
      Elman backpropagation network
      Feed forward backpropagation network
      Layered recurrent network
      ANFIS (Adaptive-Network-Based Fuzzy Inference System )

 On utilise la méthode du RMSE (root mean sqared error)
   pour comparer
Paramètres de chaque méthode
       Méthode                                     Paramètres
 Cascade forward BPN        3 couches de 5 neurones chacune + un neurone en output
      Elman BPN             2 couches de 5 neurones chacune + un neurone en output
   Feed forward BPN         1 couche de 5 neurones + un neurone en output

Layered recurrent network   1 couche de 10 neurones + 1 neurone en output
                            Généré automatiquement, avec :
                            Nombre de noeuds: 92
                            Nombre de paramètres linéaires: 192
                            Nombre de paramètres non linéaires: 30
                            Nombre total de paramètres: 222
         ANFIS              Nombre de paires de data d’apprentissage: 400
                            Nombre de paire de data de vérif.: 100
                            Nombre de loies floues: 32
                            Nombre max d’Epochs: 25
Cascade forward BPN
 Réseau avec une “auto-organisation”

 Pendant l’entraînement, des neurones
  sont séléctionnés d’un lot de candidats
  et ajoutés à la couche cachée

 Architecture en cascade

 L’algorithme d’apprentissage maximise
  l’amplitude de la corrélation entre
  l’output du nouveau neurone et l’erreur
  résiduelle du réseau qu’on essaye de
  minimiser
Elman BPN
 Réseau récurrent simple (RNN)
 A 3 couches : input, output, et une
   couche cachée

 Ressemble au feedforward BPN, mais
   possède une couche de “contexte”

 Elle est remplie, sans pondération, de
   l’output de la couche cachée

 Puis le réseau Elman s’en rappelle et les
   output sur la prochaine étape

 Enfin ces valeurs sont renvoyées, en
   utilisant une connection qui utilise un
   apprentissage pour pondérer, dans la
   couche cachée
Feed forward BPN
 Différent des méthodes récurrentes ou semi-
  récurrentes (cascade)

 Réseau artificiel dans lequel les connections ne
  forment pas un cycle

 Premier et peut-être plus simple des réseaux,
  l’information circule dans un seul sens
Layered recurrent network
 Dans celui-ci on a des cycles
 Permet d’exhiber un
   comportement temporel
   dynamique
 Leur mémoire leur permet de
   gérer des séquences
   aléatoires d’inputs
 Pratique pour des taches
   comme de la reconnaissance
   d’écriture
 En général on y utilise la
   méthode du gradient descent.
ANFIS
   (Adaptive-Network-Based Fuzzy Inference System )


 Réseau adaptatif basé sur le système d’interférence
  floue de Takagi-Sugeno

 Une des premieres versions de réseaux de neurones
  combinés à la logique floue

 Permet donc d’avoir les qualités de ces deux-dernières
  dans un même framework

 Permet de bien approximer des fonctions non-linéaires
ANFIS
    (Adaptive-Network-Based Fuzzy Inference System )
    La première couche prend les inputs (transcrit des variables verbales en
    valeurs numériques grâce aux fonctions d’appartenance (membership
    functions)

 La seconde couche multiplie les signaux et renvoie le produit
 La troisieme couche normalise avec les règles
 La quatrième sert à pondérer en appliquant de nouvelles règles
 La cinquième aggrège les résultats
Conclusion
     Notre but était de comparer les performances

 Pour cela, on a utilisé le RMSE (root of mean squared
  error)

 Les résultats montrent que les productivités sont très
  proches

 Meilleure méthode pour SIN : Feedforward BPN
 Meilleure méthode pour EXP : ANFIS

Más contenido relacionado

La actualidad más candente

Mise en oeuvre des framework de machines et deep learning v1
Mise en oeuvre des framework de machines et deep learning v1 Mise en oeuvre des framework de machines et deep learning v1
Mise en oeuvre des framework de machines et deep learning v1
ENSET, Université Hassan II Casablanca
 

La actualidad más candente (12)

Présentation pfe
Présentation pfePrésentation pfe
Présentation pfe
 
Les réseaux de neurones
Les réseaux de neuronesLes réseaux de neurones
Les réseaux de neurones
 
Apprentissage du quantron : un problème d\’optimisation non différentiable
Apprentissage du quantron : un problème d\’optimisation non différentiableApprentissage du quantron : un problème d\’optimisation non différentiable
Apprentissage du quantron : un problème d\’optimisation non différentiable
 
Les applications du Deep Learning
Les applications du Deep LearningLes applications du Deep Learning
Les applications du Deep Learning
 
Rapport projet Master 2 - Intelligence Artificielle
Rapport projet Master 2 - Intelligence ArtificielleRapport projet Master 2 - Intelligence Artificielle
Rapport projet Master 2 - Intelligence Artificielle
 
Guillaume Chevalier - Deep learning avec tensor flow
Guillaume Chevalier - Deep learning avec tensor flowGuillaume Chevalier - Deep learning avec tensor flow
Guillaume Chevalier - Deep learning avec tensor flow
 
Analyse de méthodes intelligentes de détection de fissures dans diverses stru...
Analyse de méthodes intelligentes de détection de fissures dans diverses stru...Analyse de méthodes intelligentes de détection de fissures dans diverses stru...
Analyse de méthodes intelligentes de détection de fissures dans diverses stru...
 
Algorithmes machine learning/ neural network / deep learning
Algorithmes machine learning/ neural network / deep learningAlgorithmes machine learning/ neural network / deep learning
Algorithmes machine learning/ neural network / deep learning
 
Rc ia-benmammar
Rc ia-benmammarRc ia-benmammar
Rc ia-benmammar
 
NUPIC : new concept of AI
NUPIC : new concept of AINUPIC : new concept of AI
NUPIC : new concept of AI
 
ontologie de capteurs
ontologie de capteursontologie de capteurs
ontologie de capteurs
 
Mise en oeuvre des framework de machines et deep learning v1
Mise en oeuvre des framework de machines et deep learning v1 Mise en oeuvre des framework de machines et deep learning v1
Mise en oeuvre des framework de machines et deep learning v1
 

Destacado

Modeling Electronic Health Records with Recurrent Neural Networks
Modeling Electronic Health Records with Recurrent Neural NetworksModeling Electronic Health Records with Recurrent Neural Networks
Modeling Electronic Health Records with Recurrent Neural Networks
Josh Patterson
 
ELM: Extreme Learning Machine: Learning without iterative tuning
ELM: Extreme Learning Machine: Learning without iterative tuningELM: Extreme Learning Machine: Learning without iterative tuning
ELM: Extreme Learning Machine: Learning without iterative tuning
zukun
 
Extreme learning machine:Theory and applications
Extreme learning machine:Theory and applicationsExtreme learning machine:Theory and applications
Extreme learning machine:Theory and applications
James Chou
 
Regression analysis
Regression analysisRegression analysis
Regression analysis
saba khan
 

Destacado (20)

Modeling Electronic Health Records with Recurrent Neural Networks
Modeling Electronic Health Records with Recurrent Neural NetworksModeling Electronic Health Records with Recurrent Neural Networks
Modeling Electronic Health Records with Recurrent Neural Networks
 
Application of the extreme learning machine algorithm for the
Application of the extreme learning machine algorithm for theApplication of the extreme learning machine algorithm for the
Application of the extreme learning machine algorithm for the
 
ELM: Extreme Learning Machine: Learning without iterative tuning
ELM: Extreme Learning Machine: Learning without iterative tuningELM: Extreme Learning Machine: Learning without iterative tuning
ELM: Extreme Learning Machine: Learning without iterative tuning
 
Javaspeech(1)
Javaspeech(1)Javaspeech(1)
Javaspeech(1)
 
Extreme learning machine:Theory and applications
Extreme learning machine:Theory and applicationsExtreme learning machine:Theory and applications
Extreme learning machine:Theory and applications
 
Build Message Bot With Neural Network
Build Message Bot With Neural NetworkBuild Message Bot With Neural Network
Build Message Bot With Neural Network
 
Extreme Learning Machine
Extreme Learning MachineExtreme Learning Machine
Extreme Learning Machine
 
Techniques du data mining
Techniques du data miningTechniques du data mining
Techniques du data mining
 
Recurrent Neural Networks. Part 1: Theory
Recurrent Neural Networks. Part 1: TheoryRecurrent Neural Networks. Part 1: Theory
Recurrent Neural Networks. Part 1: Theory
 
Using Deep Learning to do Real-Time Scoring in Practical Applications
Using Deep Learning to do Real-Time Scoring in Practical ApplicationsUsing Deep Learning to do Real-Time Scoring in Practical Applications
Using Deep Learning to do Real-Time Scoring in Practical Applications
 
Recent Progress in RNN and NLP
Recent Progress in RNN and NLPRecent Progress in RNN and NLP
Recent Progress in RNN and NLP
 
Machine learning, deep learning et search : à quand ces innovations dans nos ...
Machine learning, deep learning et search : à quand ces innovations dans nos ...Machine learning, deep learning et search : à quand ces innovations dans nos ...
Machine learning, deep learning et search : à quand ces innovations dans nos ...
 
Running Word2Vec with Chinese Wikipedia dump
Running Word2Vec with Chinese Wikipedia dumpRunning Word2Vec with Chinese Wikipedia dump
Running Word2Vec with Chinese Wikipedia dump
 
Multiple linear regression
Multiple linear regressionMultiple linear regression
Multiple linear regression
 
Recurrent Neural Networks, LSTM and GRU
Recurrent Neural Networks, LSTM and GRURecurrent Neural Networks, LSTM and GRU
Recurrent Neural Networks, LSTM and GRU
 
Regression analysis
Regression analysisRegression analysis
Regression analysis
 
Introduction to Elm
Introduction to ElmIntroduction to Elm
Introduction to Elm
 
Anomaly detection in deep learning (Updated) English
Anomaly detection in deep learning (Updated) EnglishAnomaly detection in deep learning (Updated) English
Anomaly detection in deep learning (Updated) English
 
Anomaly detection in deep learning
Anomaly detection in deep learningAnomaly detection in deep learning
Anomaly detection in deep learning
 
Presentation On Regression
Presentation On RegressionPresentation On Regression
Presentation On Regression
 

Similar a Machine Learning : comparing neural network methods

TP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdfTP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
SafaeElOmari
 
Retropropagation-Gradient-2018-4p.pdf
Retropropagation-Gradient-2018-4p.pdfRetropropagation-Gradient-2018-4p.pdf
Retropropagation-Gradient-2018-4p.pdf
C00LiMoUn1
 
Les réseaux de neurones convolutifs CNN
Les réseaux de neurones convolutifs CNNLes réseaux de neurones convolutifs CNN
Les réseaux de neurones convolutifs CNN
SALMARACHIDI1
 
Réseaux et protocoles - Cours + exercices
Réseaux et protocoles - Cours + exercices Réseaux et protocoles - Cours + exercices
Réseaux et protocoles - Cours + exercices
sarah Benmerzouk
 
Apprentissage supervisé.pdf
Apprentissage supervisé.pdfApprentissage supervisé.pdf
Apprentissage supervisé.pdf
hanamettali
 
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
ENSET, Université Hassan II Casablanca
 

Similar a Machine Learning : comparing neural network methods (11)

TP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdfTP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
 
A 4 RNAs.pdf
A 4 RNAs.pdfA 4 RNAs.pdf
A 4 RNAs.pdf
 
Retropropagation-Gradient-2018-4p.pdf
Retropropagation-Gradient-2018-4p.pdfRetropropagation-Gradient-2018-4p.pdf
Retropropagation-Gradient-2018-4p.pdf
 
Analyzing a churn data set
Analyzing a churn data set Analyzing a churn data set
Analyzing a churn data set
 
Les réseaux de neurones convolutifs CNN
Les réseaux de neurones convolutifs CNNLes réseaux de neurones convolutifs CNN
Les réseaux de neurones convolutifs CNN
 
Delorme nis1998
Delorme nis1998Delorme nis1998
Delorme nis1998
 
Réseaux et protocoles - Cours + exercices
Réseaux et protocoles - Cours + exercices Réseaux et protocoles - Cours + exercices
Réseaux et protocoles - Cours + exercices
 
Diabang et fatimetou mennou rapport design & simulation of dssss using ma...
Diabang et fatimetou mennou rapport design & simulation of dssss using ma...Diabang et fatimetou mennou rapport design & simulation of dssss using ma...
Diabang et fatimetou mennou rapport design & simulation of dssss using ma...
 
Apprentissage supervisé.pdf
Apprentissage supervisé.pdfApprentissage supervisé.pdf
Apprentissage supervisé.pdf
 
Formation optimisation d’un système de diffusion sonore
Formation optimisation d’un système de diffusion sonoreFormation optimisation d’un système de diffusion sonore
Formation optimisation d’un système de diffusion sonore
 
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
 

Machine Learning : comparing neural network methods

  • 1. Intelligence Artificielle - mai 2012 Comparaison de différentes méthodes utilisant des réseaux de neurones Objet d’application : des fonctions bruitées Kostiantyn KLEKOTA Nicholas CHARRIERE
  • 2. Présentation (1/2)  Objectif : Comparer différentes méthodes de prédiction de fonction  Paramètres : Nous avons testé sur les 2 fonctions suivantes : X(t)=sin(4πt)+ε Y(t)=exp(-t/2)+ε Où ε est un bruit distribué normalement avec une dispersion de 0.05  100 points de données pour l’entraînement, et 100 pour la vérification (sauf pour ANFIS  400/400)
  • 3. Présentation (2/2)  Pour l’input, on utilise 5 points pour prévoir le 6ème: [f(t-1), f(t-2), f(t-3), f(t-4), f(t-5)] → f(t)  On a comparé les méthodes suivantes :  Cascade forward backpropagation network  Elman backpropagation network  Feed forward backpropagation network  Layered recurrent network  ANFIS (Adaptive-Network-Based Fuzzy Inference System )  On utilise la méthode du RMSE (root mean sqared error) pour comparer
  • 4. Paramètres de chaque méthode Méthode Paramètres Cascade forward BPN 3 couches de 5 neurones chacune + un neurone en output Elman BPN 2 couches de 5 neurones chacune + un neurone en output Feed forward BPN 1 couche de 5 neurones + un neurone en output Layered recurrent network 1 couche de 10 neurones + 1 neurone en output Généré automatiquement, avec : Nombre de noeuds: 92 Nombre de paramètres linéaires: 192 Nombre de paramètres non linéaires: 30 Nombre total de paramètres: 222 ANFIS Nombre de paires de data d’apprentissage: 400 Nombre de paire de data de vérif.: 100 Nombre de loies floues: 32 Nombre max d’Epochs: 25
  • 5. Cascade forward BPN  Réseau avec une “auto-organisation”  Pendant l’entraînement, des neurones sont séléctionnés d’un lot de candidats et ajoutés à la couche cachée  Architecture en cascade  L’algorithme d’apprentissage maximise l’amplitude de la corrélation entre l’output du nouveau neurone et l’erreur résiduelle du réseau qu’on essaye de minimiser
  • 6. Elman BPN  Réseau récurrent simple (RNN)  A 3 couches : input, output, et une couche cachée  Ressemble au feedforward BPN, mais possède une couche de “contexte”  Elle est remplie, sans pondération, de l’output de la couche cachée  Puis le réseau Elman s’en rappelle et les output sur la prochaine étape  Enfin ces valeurs sont renvoyées, en utilisant une connection qui utilise un apprentissage pour pondérer, dans la couche cachée
  • 7. Feed forward BPN  Différent des méthodes récurrentes ou semi- récurrentes (cascade)  Réseau artificiel dans lequel les connections ne forment pas un cycle  Premier et peut-être plus simple des réseaux, l’information circule dans un seul sens
  • 8. Layered recurrent network  Dans celui-ci on a des cycles  Permet d’exhiber un comportement temporel dynamique  Leur mémoire leur permet de gérer des séquences aléatoires d’inputs  Pratique pour des taches comme de la reconnaissance d’écriture  En général on y utilise la méthode du gradient descent.
  • 9. ANFIS (Adaptive-Network-Based Fuzzy Inference System )  Réseau adaptatif basé sur le système d’interférence floue de Takagi-Sugeno  Une des premieres versions de réseaux de neurones combinés à la logique floue  Permet donc d’avoir les qualités de ces deux-dernières dans un même framework  Permet de bien approximer des fonctions non-linéaires
  • 10. ANFIS (Adaptive-Network-Based Fuzzy Inference System )  La première couche prend les inputs (transcrit des variables verbales en valeurs numériques grâce aux fonctions d’appartenance (membership functions)  La seconde couche multiplie les signaux et renvoie le produit  La troisieme couche normalise avec les règles  La quatrième sert à pondérer en appliquant de nouvelles règles  La cinquième aggrège les résultats
  • 11. Conclusion Notre but était de comparer les performances  Pour cela, on a utilisé le RMSE (root of mean squared error)  Les résultats montrent que les productivités sont très proches  Meilleure méthode pour SIN : Feedforward BPN  Meilleure méthode pour EXP : ANFIS