SlideShare una empresa de Scribd logo
1 de 40
Descargar para leer sin conexión
RRééseaux de neuronesseaux de neurones àà
entrentréées fonctionnelleses fonctionnelles
Nathalie Villa (GRIMM - SMASH)
Université Toulouse Le Mirail
Séminaire SMASH
8 octobre 2004
Séminaire SMASH
8 octobre 2004
BUT DU TRAVAILBUT DU TRAVAIL
Ou comment utiliser des réseaux de
neurones en statistique fonctionnelle
???
Réseaux fonctionnels :
Mode d’emploi
But :
Discrimination
Perceptron
multi-couches
1
C1
1
CK
Y =
Régression
Perceptron
multi-couches
Y réel
Séminaire SMASH
8 octobre 2004
Exemples
1) Données de phonèmes (discrimination)
50 100 150 200 250
-5
0
5
10
15
20
25
30
[aa]
50 100 150 200 250
-5
0
5
10
15
20
25
30
[ao]
50 100 150 200 250
-5
0
5
10
15
20
[dcl]
50 100 150 200 250
-5
0
5
10
15
20
25
[iy]
50 100 150 200 250
0
5
10
15
20
25
[sh]
Séminaire SMASH
8 octobre 2004
Phonème
Enregistrements de voix
2) Données de spectrométrie
(régression)
10 20 30 40 50 60 70 80 90 100
2
2.5
3
3.5
4
4.5
5
5.5
Spectres d’absorbance
Masse de
matière
grasse
Séminaire SMASH
8 octobre 2004
Séminaire SMASH
8 octobre 2004
Le programme…
••Etat des lieux en réseaux de neuronesEtat des lieux en réseaux de neurones
fonctionnelsfonctionnels
••SIRSIR
••SIRSIR--NNNN
Séminaire SMASH
8 octobre 2004
ETAT DES LIEUX ENETAT DES LIEUX EN
RESEAUX DE NEURONESRESEAUX DE NEURONES
FONCTIONNELSFONCTIONNELS
1) Approche directe
discrétisée
en t1…tD
X w ≈ <X,w> + b Ya
∑j
jj
)t(w)t(X
m
1
biais
g
SORTIESORTIE
Séminaire SMASH
8 octobre 2004
Rossi, Conan-Guez (2002)
Représentation des fonctions de poids w :
•Représentation linéaire des poids par rapport à une
base de B-Splines, d’ondelettes, de fonctions
trigonométriques… :
•Représentation non linéaire des poids par un
perceptron multicouche multidimentionnel.
∑=
i
ii
)t(w)t(w φ
Séminaire SMASH
8 octobre 2004
2) Approche par projection
X w <PX ,w> + b Ya
∑ ><
j,i
jiij
,w ψφα
biais
g
SORTIESORTIE
projection
∑=
j
jjX
)X(P ψα
Séminaire SMASH
8 octobre 2004
Résultats
•Approximation universelle : il existe un perceptron
fonctionnel qui approche avec la précision voulue
n’importe quelle application allant d’un compact de
l’espace L² dans R.
•Consistance : les paramètres (w) et (a) qui minimisent
l’erreur empirique construite à partir d’un nombre fini
d’observations discrétisées en un nombre fini de points
convergent ps vers les paramètres optimaux
théoriques lorsque le nombre d’observations et le
nombre de points de discrétisation tendent vers l’infini.
Séminaire SMASH
8 octobre 2004
Limites
•Approche directe : la détermination des minima locaux
peut devenir lourde lorsque le nombre de points de
discrétisation augmente, particulièrement si la fonction
de poids est représentée par un perceptron multicouche.
•Approche par projection : trouver une base de projection
adaptée au problème ; le choix du type de la base ainsi
que du nombre de fonctions à y introduire n’est pas
évident à priori.
Risque de perte d’informations pertinentes.
Séminaire SMASH
8 octobre 2004
Base de projection qui dépend des données
(méthode mise en œuvre sur le jeu de
données de spectrométrie)
X
ACP
X kn
(Projection des
données sur les kn
premiers vecteurs
propres)
Perceptron
multi-couches
classique
Y
Séminaire SMASH
8 octobre 2004
Thodberg (1996)
Avantages
•Le jeu de données est simplifié ;
•La base de projection dépend des données
(procédure automatique de détermination).
Inconvénients
•La base de projection ne dépend pas de la cible mais
uniquement des variables explicatives (base de
projection non optimisée).
Risque de perte d’informations pertinentes.
•Pas de résultat de convergence démontré (méthode
empirique).
Séminaire SMASH
8 octobre 2004
Séminaire SMASH
8 octobre 2004
SIRSIR
Déterminer une base de projection
pertinente
Sliced Inverse Regression :
Le modèle
Li (1991)
),X'a,...X'a(fY q1
ε=
Pour X multidimentionnel •ε centrée et
indépendante de X
•f inconnue
•(aj)j linéairement
indépendants
Idée : Estimer par des méthodes d’algèbre linéaire
l’espace EDR (Vect{aj} ) : SIR ;
Estimer la fonction f (méthodes non paramètriques,
réseaux de neurones…).
Séminaire SMASH
8 octobre 2004
Ferré, Yao (2003)
Dauxois, Ferré, Yao (2003)
Pour X fonctionnel, ),X,a,...,X,a(fY q1
ε><><=
Théorème : (Condition de Li)
Notons A = (<a1 ,X>,…,<aq ,X>)T ; si
∀u ∈ L2, ∃ v ∈ Rq : E(<u,X> / A) = vT A
alors, E(X / Y) appartient à Vect { ΓX aj } où ΓX = E(X⊗X).
L’espace EDR s’obtient par décomposition spectrale
de l’opérateur ΓX
-1 ΓE(X / Y) .
Séminaire SMASH
8 octobre 2004
SIR Fonctionnelle (FIR)
Problème
ΓX n’est pas un opérateur borné !
ΓX
N est mal conditionné ;
Les vecteurs propres de (ΓX
N) -1 ΓN
E(X / Y) ne
convergent pas vers les vecteurs propres de ΓX
-1 ΓE(X / Y).
Solution
X
ACP
X kN
Sous certaines hypothèses techniques, les
vecteurs propres de (ΓX
kN) -1 ΓN
E(X / Y) convergent
vers (aj).
Séminaire SMASH
8 octobre 2004
Idée : On part de l’hypothèse que X fait partie d’un
ensemble de fonctions « lisses » (S) et on contraint les
vecteurs propres à appartenir également à cet espace en
pénalisant ΓX par une fonctionnelle de régularisation.
On estime ∀ f ,g∈ S,
<ΓX f,g> par Qα
N (f,g) = < ΓX
N f,g> + α [f , g]
où [f , g] =
∫τ
dt)t(gD)t(fD
22
Concrètement
Séminaire SMASH
8 octobre 2004
FIR régularisée
D’après les travaux de
Tihonov (1963) ; Leurgans, Moyeed et Silverman (1993)
Théorème : (Consistance)
Sous l’hypothèse de Li et des hypothèses techniques,
atteint son maximum sur S avec une probabilité qui tend
vers 1 lorsque N tend vers +∞.
De plus, si a1
N est le maximum de cette fonction sur S
alors
)a,a(Q
a,a
N
N
)Y/X(E
α
Γ ><
0aa),aa( N,P
1
N
11
N
1X
 →>−−< +∞→
Γ
Séminaire SMASH
8 octobre 2004
Ferré, Villa (2004)
Remarques
•Condition de Li : Li démontre que cette condition est
peu restrictive pour des vecteurs X de grande
dimension ;
•Pénalisation : L’hypothèse de régularité sur X est faite
au travers du choix de [ , ] : d’autres choix conduiraient
au même résultat de consistance ;
•Estimation de ΓE(X/Y) : L’estimateur de ΓE(X/Y) doit
converger à une vitesse . Plusieurs choix sont
possibles suivant les buts poursuivis…
N
Séminaire SMASH
8 octobre 2004
Estimation de ΓE(X/Y)
But : Régression
Estimateur par tranchage du support : pour une partition
(Ih)h du support de Y,
où et
h
h
h
h
N
)Y/X(E N
N
µµΓ ∑ ⊗=
∑






∈
=
n IY
h
h
n
IN ∑






∈
=
n IY
n
h
h
h
n
IX
N
1µ
Séminaire SMASH
8 octobre 2004
Estimateur à noyau :
où
∑ =⊗==
n
^
n
^
nN
)Y/X(E
)YY/X(E)YY/X(E
N
1Γ
∑
∑ 







−








−
==
n
m
m
n
n
^
h
yY
K
h
yY
KX
)yY/X(E
Séminaire SMASH
8 octobre 2004
Discrimination
∑ =⊗==
k
^^
k
N
)Y/X(E
)kY/X(E)kY/X(EN
N
1Γ
où et ∑






=
==
n kY
n
k
^
n
IX
N
1)kY/X(E∑






=
=
n kY
k n
IN
Séminaire SMASH
8 octobre 2004
Ferré, Villa (2005)
Séminaire SMASH
8 octobre 2004
Exemples (en discrimination)
1) Données simulées : « waveform data »
2 4 6 8 10 12 14 16 18 20
-4
-2
0
2
4
6
8
Classe 1
2 4 6 8 10 12 14 16 18 20
-4
-2
0
2
4
6
8
10
Classe 2
2 4 6 8 10 12 14 16 18 20
-4
-2
0
2
4
6
8
Classe 3
uh1(t)+(1-u)h2(t)+ε(t) uh1(t)+(1-u)h3(t)+ε(t) uh2(t)+(1-u)h3(t)+ε(t)
•h1(t) = max(6-|t-11|,0)
•h2(t) = h1(t-4)
•h3(t) = h1(t+4)
Méthodes comparées :
SIR régularisée + Noyau
SIR projetée + Noyau
SIR inverse généralisé (Ferré, Yao 2004) + Noyau
Ridge-PDA (Hastie, Buja, Tibschirani)
NPCD – PCA (Ferraty, Vieu)
Protocole expérimental : Sur 50 échantillons aléatoires, on
effectue la discrimination sur un échantillon
d’apprentissage et on calcule le taux d’erreur sur un
échantillon de test.
Séminaire SMASH
8 octobre 2004
Séminaire SMASH
8 octobre 2004
14 %
19 %
18 %
17 %
16 %
15 %
RPDA SIR-Nr SIR-Np NPCD-PCA SIR2-N
Séminaire SMASH
8 octobre 2004
2) Données réelles : les phonèmes
Méthodes comparées :
SIR régularisée + Noyau
SIR projetée + Noyau
SIR pseudo-inverse (Ferré, Yao 2004) + Noyau
Ridge-PDA (Hastie, Buja, Tibschirani)
NPCD – PCA (Ferraty, Vieu)
Protocole expérimental : Idem.
Séminaire SMASH
8 octobre 2004
8 %
9 %
10 %
11 %
SIR-Nr SIR-Np SIR2-N RPDA NPCD-PCA
Projection sur les deux
premiers vecteurs
propres SIR
régularisée
Projection sur les deux
premiers vecteurs
propres SIR projetée
Séminaire SMASH
8 octobre 2004
50 100 150 200 250
-0.03
-0.02
-0.01
0
0.01
0.02
0.03
0.04
0.05
50 100 150 200 250
-0.03
-0.02
-0.01
0
0.01
0.02
0.03
0.04
0.05
Espace EDR pour SIR
régularisée
Espace EDR pour SIR
projetée
Séminaire SMASH
8 octobre 2004
SIRSIR--NNNN
Où l’on reparle de réseau de
neurones…
X
SIR
{< X,aj
N >}
(Projection des
données sur
l’espace EDR
estimé)
Perceptron
multi-couches Y
Séminaire SMASH
8 octobre 2004
SIR-NN :
Le principe
Théorème : (Consistance)
Sous les hypothèses du théorème précédent et un
certain nombre d’hypothèses techniques
(qui sont, par exemple, vérifiées par un perceptron avec
comme fonction de transfert sur la couche cachée la
fonction sigmoïde et comme fonction d’erreur, l’erreur
quadratique moyenne),
les poids permettant d’obtenir l’erreur empirique
minimum convergent en probabilité vers les poids
théoriques optimaux lorsque le nombre d’observations
tend vers +∞.
Séminaire SMASH
8 octobre 2004
Ferré, Villa (2004)
Avantages
•Le jeu de données est simplifié ;
•La base de projection dépend des données
(procédure automatique de détermination) ;
•La base de projection tient compte de la cible : c’est la
projection optimale des données pour le problème de
discrimination ;
•Un résultat de convergence est démontré pour
l’estimation de la base (FIR) et pour l’estimation des
poids du réseau.
Séminaire SMASH
8 octobre 2004
Simulations et exemples
1) Données de phonèmes
Séminaire SMASH
8 octobre 2004
Méthodes comparées :
SIR régularisée + NN
SIR régularisée + Noyau
SIR projetée + NN
Ridge-PDA (Hastie, Buja, Tibschirani)
NPCD – PCA (Ferraty, Vieu)
Protocole expérimental : Idem.
SIRr-NN
SIR-Noyau
SIRp-NN
R-PDA
NPCD-PCA
0.07
0.075
0.08
0.085
0.09
0.095
0.1
0.105
0.11
Séminaire SMASH
8 octobre 2004
2) Données de spectrométrie
Séminaire SMASH
8 octobre 2004
Méthodes comparées :
SIR régularisée + NN
SIR pseudo-inverse + NN
ACP + NN (≈ Thodberg)
NNf (Rossi, méthode projection sur Spline)
SIR + Linéaire
Protocole expérimental : Idem.
Séminaire SMASH
8 octobre 2004
ACP-NN NNf
SIR-NNr
SIR-NNn SIR-l
Séminaire SMASH
8 octobre 2004
Merci de votre attentionMerci de votre attention

Más contenido relacionado

La actualidad más candente

La actualidad más candente (20)

Discrimination de courbes par SVM
Discrimination de courbes par SVMDiscrimination de courbes par SVM
Discrimination de courbes par SVM
 
Fonction quadratique TS-4
Fonction quadratique TS-4Fonction quadratique TS-4
Fonction quadratique TS-4
 
Cours econometrie-uqam-st-2-v2
Cours econometrie-uqam-st-2-v2Cours econometrie-uqam-st-2-v2
Cours econometrie-uqam-st-2-v2
 
Rappels stats-2014-part2
Rappels stats-2014-part2Rappels stats-2014-part2
Rappels stats-2014-part2
 
Slide 2040-1
Slide 2040-1Slide 2040-1
Slide 2040-1
 
Cours econometrie-uqam-st-3-v4
Cours econometrie-uqam-st-3-v4Cours econometrie-uqam-st-3-v4
Cours econometrie-uqam-st-3-v4
 
Modelisation non supervisee
Modelisation non superviseeModelisation non supervisee
Modelisation non supervisee
 
Slides 2040-2-0
Slides 2040-2-0Slides 2040-2-0
Slides 2040-2-0
 
Slides 2040-6-a2013
Slides 2040-6-a2013Slides 2040-6-a2013
Slides 2040-6-a2013
 
Slides 2040-4
Slides 2040-4Slides 2040-4
Slides 2040-4
 
Math: systems (French)
Math: systems (French)Math: systems (French)
Math: systems (French)
 
Slides ensae 7
Slides ensae 7Slides ensae 7
Slides ensae 7
 
09 mouvement-2
09 mouvement-209 mouvement-2
09 mouvement-2
 
Slides 2040-6
Slides 2040-6Slides 2040-6
Slides 2040-6
 
Localisation d’une source émettrice par un réseau d’antennes
Localisation d’une source émettrice par un réseau d’antennesLocalisation d’une source émettrice par un réseau d’antennes
Localisation d’une source émettrice par un réseau d’antennes
 
Une formule de dérivation pour les fonctions exponentielles
Une formule de dérivation pour les fonctions exponentiellesUne formule de dérivation pour les fonctions exponentielles
Une formule de dérivation pour les fonctions exponentielles
 
Espacesvec
EspacesvecEspacesvec
Espacesvec
 
Slides 2040-5
Slides 2040-5Slides 2040-5
Slides 2040-5
 
Slides act2040-a2013-2
Slides act2040-a2013-2Slides act2040-a2013-2
Slides act2040-a2013-2
 
Slides ensae-2016-1
Slides ensae-2016-1Slides ensae-2016-1
Slides ensae-2016-1
 

Destacado

Dynamique de l’occupation des sols de la région des Garrotxes
Dynamique de l’occupation des sols de la région des GarrotxesDynamique de l’occupation des sols de la région des Garrotxes
Dynamique de l’occupation des sols de la région des Garrotxestuxette
 
Cecile Bothorel 2010 La Cantine Réseaux Sociaux pour la recommandation
Cecile Bothorel 2010 La Cantine Réseaux Sociaux pour la recommandationCecile Bothorel 2010 La Cantine Réseaux Sociaux pour la recommandation
Cecile Bothorel 2010 La Cantine Réseaux Sociaux pour la recommandationCécile Bothorel
 
Infographie DSN Mode d'emploi avec SAGE
Infographie DSN Mode d'emploi avec SAGEInfographie DSN Mode d'emploi avec SAGE
Infographie DSN Mode d'emploi avec SAGEPROJECT SI
 
Forum Finopsys 2015 - Table ronde RH
Forum Finopsys 2015 - Table ronde RHForum Finopsys 2015 - Table ronde RH
Forum Finopsys 2015 - Table ronde RHFinopsys
 
BIG DATA - Cloud Computing
BIG DATA - Cloud ComputingBIG DATA - Cloud Computing
BIG DATA - Cloud Computingsenejug
 
Comment l'intelligence artificielle améliore la recherche documentaire
Comment l'intelligence artificielle améliore la recherche documentaireComment l'intelligence artificielle améliore la recherche documentaire
Comment l'intelligence artificielle améliore la recherche documentaireAntidot
 
Scikit-Learn: Machine Learning en Python
Scikit-Learn: Machine Learning en PythonScikit-Learn: Machine Learning en Python
Scikit-Learn: Machine Learning en PythonMicrosoft
 
IBM Paris Bluemix Meetup #12 - Ecole 42 - 9 décembre 2015
IBM Paris Bluemix Meetup #12 - Ecole 42 - 9 décembre 2015IBM Paris Bluemix Meetup #12 - Ecole 42 - 9 décembre 2015
IBM Paris Bluemix Meetup #12 - Ecole 42 - 9 décembre 2015IBM France Lab
 
Investigation de cybersécurité avec Splunk
Investigation de cybersécurité avec SplunkInvestigation de cybersécurité avec Splunk
Investigation de cybersécurité avec SplunkIbrahimous
 
Mix it2014 - Machine Learning et Régulation Numérique
Mix it2014 - Machine Learning et Régulation NumériqueMix it2014 - Machine Learning et Régulation Numérique
Mix it2014 - Machine Learning et Régulation NumériqueDidier Girard
 
2014 Présentation pour la soutenance du probatoire "Big Data"de galsungen
2014 Présentation pour la soutenance du probatoire "Big Data"de galsungen2014 Présentation pour la soutenance du probatoire "Big Data"de galsungen
2014 Présentation pour la soutenance du probatoire "Big Data"de galsungenGalsungen
 
[Infographie] Comprendre la Déclaration Sociale Nominative
[Infographie] Comprendre la Déclaration Sociale Nominative[Infographie] Comprendre la Déclaration Sociale Nominative
[Infographie] Comprendre la Déclaration Sociale NominativeDivalto
 
Agentes Web y Aprendizaje Automático Integrados para la Vigilancia Estratégic...
Agentes Web y Aprendizaje Automático Integrados para la Vigilancia Estratégic...Agentes Web y Aprendizaje Automático Integrados para la Vigilancia Estratégic...
Agentes Web y Aprendizaje Automático Integrados para la Vigilancia Estratégic...IALE Tecnología SL
 

Destacado (16)

Dynamique de l’occupation des sols de la région des Garrotxes
Dynamique de l’occupation des sols de la région des GarrotxesDynamique de l’occupation des sols de la région des Garrotxes
Dynamique de l’occupation des sols de la région des Garrotxes
 
Cecile Bothorel 2010 La Cantine Réseaux Sociaux pour la recommandation
Cecile Bothorel 2010 La Cantine Réseaux Sociaux pour la recommandationCecile Bothorel 2010 La Cantine Réseaux Sociaux pour la recommandation
Cecile Bothorel 2010 La Cantine Réseaux Sociaux pour la recommandation
 
Infographie DSN Mode d'emploi avec SAGE
Infographie DSN Mode d'emploi avec SAGEInfographie DSN Mode d'emploi avec SAGE
Infographie DSN Mode d'emploi avec SAGE
 
MMC
MMCMMC
MMC
 
Forum Finopsys 2015 - Table ronde RH
Forum Finopsys 2015 - Table ronde RHForum Finopsys 2015 - Table ronde RH
Forum Finopsys 2015 - Table ronde RH
 
BIG DATA - Cloud Computing
BIG DATA - Cloud ComputingBIG DATA - Cloud Computing
BIG DATA - Cloud Computing
 
Comment l'intelligence artificielle améliore la recherche documentaire
Comment l'intelligence artificielle améliore la recherche documentaireComment l'intelligence artificielle améliore la recherche documentaire
Comment l'intelligence artificielle améliore la recherche documentaire
 
Scikit-Learn: Machine Learning en Python
Scikit-Learn: Machine Learning en PythonScikit-Learn: Machine Learning en Python
Scikit-Learn: Machine Learning en Python
 
IBM Paris Bluemix Meetup #12 - Ecole 42 - 9 décembre 2015
IBM Paris Bluemix Meetup #12 - Ecole 42 - 9 décembre 2015IBM Paris Bluemix Meetup #12 - Ecole 42 - 9 décembre 2015
IBM Paris Bluemix Meetup #12 - Ecole 42 - 9 décembre 2015
 
Investigation de cybersécurité avec Splunk
Investigation de cybersécurité avec SplunkInvestigation de cybersécurité avec Splunk
Investigation de cybersécurité avec Splunk
 
Mix it2014 - Machine Learning et Régulation Numérique
Mix it2014 - Machine Learning et Régulation NumériqueMix it2014 - Machine Learning et Régulation Numérique
Mix it2014 - Machine Learning et Régulation Numérique
 
La data
La dataLa data
La data
 
2014 Présentation pour la soutenance du probatoire "Big Data"de galsungen
2014 Présentation pour la soutenance du probatoire "Big Data"de galsungen2014 Présentation pour la soutenance du probatoire "Big Data"de galsungen
2014 Présentation pour la soutenance du probatoire "Big Data"de galsungen
 
Démystification du Machine Learning
Démystification du Machine LearningDémystification du Machine Learning
Démystification du Machine Learning
 
[Infographie] Comprendre la Déclaration Sociale Nominative
[Infographie] Comprendre la Déclaration Sociale Nominative[Infographie] Comprendre la Déclaration Sociale Nominative
[Infographie] Comprendre la Déclaration Sociale Nominative
 
Agentes Web y Aprendizaje Automático Integrados para la Vigilancia Estratégic...
Agentes Web y Aprendizaje Automático Integrados para la Vigilancia Estratégic...Agentes Web y Aprendizaje Automático Integrados para la Vigilancia Estratégic...
Agentes Web y Aprendizaje Automático Integrados para la Vigilancia Estratégic...
 

Similar a Réseaux de neurones à entrées fonctionnelles

Planification et analyse d'expériences numériques: approche bayésienne
Planification et analyse d'expériences numériques: approche bayésiennePlanification et analyse d'expériences numériques: approche bayésienne
Planification et analyse d'expériences numériques: approche bayésienneJulien Bect
 
Modèles numériques coûteux : de la quantification des incertitudes la planifi...
Modèles numériques coûteux : de la quantification des incertitudes la planifi...Modèles numériques coûteux : de la quantification des incertitudes la planifi...
Modèles numériques coûteux : de la quantification des incertitudes la planifi...Julien Bect
 
Modélisation du signal et photométrie : application à l'astrophotographie
Modélisation du signal et photométrie : application à l'astrophotographieModélisation du signal et photométrie : application à l'astrophotographie
Modélisation du signal et photométrie : application à l'astrophotographieLaurent Devineau
 
Performances dans la segmentation d’images médicales
Performances dans la segmentation d’images médicalesPerformances dans la segmentation d’images médicales
Performances dans la segmentation d’images médicalesEL-Hachemi Guerrout
 
eve chareyre
eve chareyreeve chareyre
eve chareyreechareyre
 
L'impact des incriments des séquences de tri Shell. Expérimentation des séque...
L'impact des incriments des séquences de tri Shell. Expérimentation des séque...L'impact des incriments des séquences de tri Shell. Expérimentation des séque...
L'impact des incriments des séquences de tri Shell. Expérimentation des séque...Soumia Elyakote HERMA
 
Td dimensionnenemt d'arbre
Td dimensionnenemt d'arbreTd dimensionnenemt d'arbre
Td dimensionnenemt d'arbreYoussef Trimech
 
Hasard09 artificiel
Hasard09 artificielHasard09 artificiel
Hasard09 artificielnahdiste
 
Les réseaux de neurones
Les réseaux de neuronesLes réseaux de neurones
Les réseaux de neuronesMariam Amchayd
 
analyse_discriminante_descriptive.pdf
analyse_discriminante_descriptive.pdfanalyse_discriminante_descriptive.pdf
analyse_discriminante_descriptive.pdfSidiAbdallah1
 
Restitution d'orbites de débris spatiaux par algorithmes génétiques
Restitution d'orbites de débris spatiaux par algorithmes génétiquesRestitution d'orbites de débris spatiaux par algorithmes génétiques
Restitution d'orbites de débris spatiaux par algorithmes génétiquesamjadsig
 
MODÉLISATION DU CLUTTER DE MER À HAUTE RÉSOLUTION EN UTILISANT UN MÉLANGE DE...
MODÉLISATION DU CLUTTER DE MER À HAUTE RÉSOLUTION EN UTILISANT UN MÉLANGE  DE...MODÉLISATION DU CLUTTER DE MER À HAUTE RÉSOLUTION EN UTILISANT UN MÉLANGE  DE...
MODÉLISATION DU CLUTTER DE MER À HAUTE RÉSOLUTION EN UTILISANT UN MÉLANGE DE...Abou Bakeur Ghehioueche
 
37248247 cours-hyperfrequences-parametres-s-antennes (1)
37248247 cours-hyperfrequences-parametres-s-antennes (1)37248247 cours-hyperfrequences-parametres-s-antennes (1)
37248247 cours-hyperfrequences-parametres-s-antennes (1)khaalidkk
 
G1SSCIN03205-sujet3.pdf
G1SSCIN03205-sujet3.pdfG1SSCIN03205-sujet3.pdf
G1SSCIN03205-sujet3.pdfOlivierFLOHR1
 
ELE2611 Classe 6 - Sensibilité, Amplificateurs opérationnels non idéaux
ELE2611 Classe 6 - Sensibilité, Amplificateurs opérationnels non idéauxELE2611 Classe 6 - Sensibilité, Amplificateurs opérationnels non idéaux
ELE2611 Classe 6 - Sensibilité, Amplificateurs opérationnels non idéauxJerome LE NY
 
T. Masrour - cours dynamique des systèmes - vibrations - analyse modale
T. Masrour - cours dynamique des systèmes - vibrations - analyse modaleT. Masrour - cours dynamique des systèmes - vibrations - analyse modale
T. Masrour - cours dynamique des systèmes - vibrations - analyse modaletawfik-masrour
 
Calage sur bornes minimales
Calage sur bornes minimalesCalage sur bornes minimales
Calage sur bornes minimalesAntoine Rebecq
 

Similar a Réseaux de neurones à entrées fonctionnelles (20)

Planification et analyse d'expériences numériques: approche bayésienne
Planification et analyse d'expériences numériques: approche bayésiennePlanification et analyse d'expériences numériques: approche bayésienne
Planification et analyse d'expériences numériques: approche bayésienne
 
Actuariat et Données
Actuariat et DonnéesActuariat et Données
Actuariat et Données
 
Stage ensta 1983
Stage ensta 1983Stage ensta 1983
Stage ensta 1983
 
Modèles numériques coûteux : de la quantification des incertitudes la planifi...
Modèles numériques coûteux : de la quantification des incertitudes la planifi...Modèles numériques coûteux : de la quantification des incertitudes la planifi...
Modèles numériques coûteux : de la quantification des incertitudes la planifi...
 
Modélisation du signal et photométrie : application à l'astrophotographie
Modélisation du signal et photométrie : application à l'astrophotographieModélisation du signal et photométrie : application à l'astrophotographie
Modélisation du signal et photométrie : application à l'astrophotographie
 
Performances dans la segmentation d’images médicales
Performances dans la segmentation d’images médicalesPerformances dans la segmentation d’images médicales
Performances dans la segmentation d’images médicales
 
eve chareyre
eve chareyreeve chareyre
eve chareyre
 
L'impact des incriments des séquences de tri Shell. Expérimentation des séque...
L'impact des incriments des séquences de tri Shell. Expérimentation des séque...L'impact des incriments des séquences de tri Shell. Expérimentation des séque...
L'impact des incriments des séquences de tri Shell. Expérimentation des séque...
 
Ben Arous2
Ben Arous2Ben Arous2
Ben Arous2
 
Td dimensionnenemt d'arbre
Td dimensionnenemt d'arbreTd dimensionnenemt d'arbre
Td dimensionnenemt d'arbre
 
Hasard09 artificiel
Hasard09 artificielHasard09 artificiel
Hasard09 artificiel
 
Les réseaux de neurones
Les réseaux de neuronesLes réseaux de neurones
Les réseaux de neurones
 
analyse_discriminante_descriptive.pdf
analyse_discriminante_descriptive.pdfanalyse_discriminante_descriptive.pdf
analyse_discriminante_descriptive.pdf
 
Restitution d'orbites de débris spatiaux par algorithmes génétiques
Restitution d'orbites de débris spatiaux par algorithmes génétiquesRestitution d'orbites de débris spatiaux par algorithmes génétiques
Restitution d'orbites de débris spatiaux par algorithmes génétiques
 
MODÉLISATION DU CLUTTER DE MER À HAUTE RÉSOLUTION EN UTILISANT UN MÉLANGE DE...
MODÉLISATION DU CLUTTER DE MER À HAUTE RÉSOLUTION EN UTILISANT UN MÉLANGE  DE...MODÉLISATION DU CLUTTER DE MER À HAUTE RÉSOLUTION EN UTILISANT UN MÉLANGE  DE...
MODÉLISATION DU CLUTTER DE MER À HAUTE RÉSOLUTION EN UTILISANT UN MÉLANGE DE...
 
37248247 cours-hyperfrequences-parametres-s-antennes (1)
37248247 cours-hyperfrequences-parametres-s-antennes (1)37248247 cours-hyperfrequences-parametres-s-antennes (1)
37248247 cours-hyperfrequences-parametres-s-antennes (1)
 
G1SSCIN03205-sujet3.pdf
G1SSCIN03205-sujet3.pdfG1SSCIN03205-sujet3.pdf
G1SSCIN03205-sujet3.pdf
 
ELE2611 Classe 6 - Sensibilité, Amplificateurs opérationnels non idéaux
ELE2611 Classe 6 - Sensibilité, Amplificateurs opérationnels non idéauxELE2611 Classe 6 - Sensibilité, Amplificateurs opérationnels non idéaux
ELE2611 Classe 6 - Sensibilité, Amplificateurs opérationnels non idéaux
 
T. Masrour - cours dynamique des systèmes - vibrations - analyse modale
T. Masrour - cours dynamique des systèmes - vibrations - analyse modaleT. Masrour - cours dynamique des systèmes - vibrations - analyse modale
T. Masrour - cours dynamique des systèmes - vibrations - analyse modale
 
Calage sur bornes minimales
Calage sur bornes minimalesCalage sur bornes minimales
Calage sur bornes minimales
 

Más de tuxette

Racines en haut et feuilles en bas : les arbres en maths
Racines en haut et feuilles en bas : les arbres en mathsRacines en haut et feuilles en bas : les arbres en maths
Racines en haut et feuilles en bas : les arbres en mathstuxette
 
Méthodes à noyaux pour l’intégration de données hétérogènes
Méthodes à noyaux pour l’intégration de données hétérogènesMéthodes à noyaux pour l’intégration de données hétérogènes
Méthodes à noyaux pour l’intégration de données hétérogènestuxette
 
Méthodologies d'intégration de données omiques
Méthodologies d'intégration de données omiquesMéthodologies d'intégration de données omiques
Méthodologies d'intégration de données omiquestuxette
 
Projets autour de l'Hi-C
Projets autour de l'Hi-CProjets autour de l'Hi-C
Projets autour de l'Hi-Ctuxette
 
Can deep learning learn chromatin structure from sequence?
Can deep learning learn chromatin structure from sequence?Can deep learning learn chromatin structure from sequence?
Can deep learning learn chromatin structure from sequence?tuxette
 
Multi-omics data integration methods: kernel and other machine learning appro...
Multi-omics data integration methods: kernel and other machine learning appro...Multi-omics data integration methods: kernel and other machine learning appro...
Multi-omics data integration methods: kernel and other machine learning appro...tuxette
 
ASTERICS : une application pour intégrer des données omiques
ASTERICS : une application pour intégrer des données omiquesASTERICS : une application pour intégrer des données omiques
ASTERICS : une application pour intégrer des données omiquestuxette
 
Autour des projets Idefics et MetaboWean
Autour des projets Idefics et MetaboWeanAutour des projets Idefics et MetaboWean
Autour des projets Idefics et MetaboWeantuxette
 
Rserve, renv, flask, Vue.js dans un docker pour intégrer des données omiques ...
Rserve, renv, flask, Vue.js dans un docker pour intégrer des données omiques ...Rserve, renv, flask, Vue.js dans un docker pour intégrer des données omiques ...
Rserve, renv, flask, Vue.js dans un docker pour intégrer des données omiques ...tuxette
 
Apprentissage pour la biologie moléculaire et l’analyse de données omiques
Apprentissage pour la biologie moléculaire et l’analyse de données omiquesApprentissage pour la biologie moléculaire et l’analyse de données omiques
Apprentissage pour la biologie moléculaire et l’analyse de données omiquestuxette
 
Quelques résultats préliminaires de l'évaluation de méthodes d'inférence de r...
Quelques résultats préliminaires de l'évaluation de méthodes d'inférence de r...Quelques résultats préliminaires de l'évaluation de méthodes d'inférence de r...
Quelques résultats préliminaires de l'évaluation de méthodes d'inférence de r...tuxette
 
Intégration de données omiques multi-échelles : méthodes à noyau et autres ap...
Intégration de données omiques multi-échelles : méthodes à noyau et autres ap...Intégration de données omiques multi-échelles : méthodes à noyau et autres ap...
Intégration de données omiques multi-échelles : méthodes à noyau et autres ap...tuxette
 
Journal club: Validation of cluster analysis results on validation data
Journal club: Validation of cluster analysis results on validation dataJournal club: Validation of cluster analysis results on validation data
Journal club: Validation of cluster analysis results on validation datatuxette
 
Overfitting or overparametrization?
Overfitting or overparametrization?Overfitting or overparametrization?
Overfitting or overparametrization?tuxette
 
Selective inference and single-cell differential analysis
Selective inference and single-cell differential analysisSelective inference and single-cell differential analysis
Selective inference and single-cell differential analysistuxette
 
SOMbrero : un package R pour les cartes auto-organisatrices
SOMbrero : un package R pour les cartes auto-organisatricesSOMbrero : un package R pour les cartes auto-organisatrices
SOMbrero : un package R pour les cartes auto-organisatricestuxette
 
Graph Neural Network for Phenotype Prediction
Graph Neural Network for Phenotype PredictionGraph Neural Network for Phenotype Prediction
Graph Neural Network for Phenotype Predictiontuxette
 
A short and naive introduction to using network in prediction models
A short and naive introduction to using network in prediction modelsA short and naive introduction to using network in prediction models
A short and naive introduction to using network in prediction modelstuxette
 
Explanable models for time series with random forest
Explanable models for time series with random forestExplanable models for time series with random forest
Explanable models for time series with random foresttuxette
 
Présentation du projet ASTERICS
Présentation du projet ASTERICSPrésentation du projet ASTERICS
Présentation du projet ASTERICStuxette
 

Más de tuxette (20)

Racines en haut et feuilles en bas : les arbres en maths
Racines en haut et feuilles en bas : les arbres en mathsRacines en haut et feuilles en bas : les arbres en maths
Racines en haut et feuilles en bas : les arbres en maths
 
Méthodes à noyaux pour l’intégration de données hétérogènes
Méthodes à noyaux pour l’intégration de données hétérogènesMéthodes à noyaux pour l’intégration de données hétérogènes
Méthodes à noyaux pour l’intégration de données hétérogènes
 
Méthodologies d'intégration de données omiques
Méthodologies d'intégration de données omiquesMéthodologies d'intégration de données omiques
Méthodologies d'intégration de données omiques
 
Projets autour de l'Hi-C
Projets autour de l'Hi-CProjets autour de l'Hi-C
Projets autour de l'Hi-C
 
Can deep learning learn chromatin structure from sequence?
Can deep learning learn chromatin structure from sequence?Can deep learning learn chromatin structure from sequence?
Can deep learning learn chromatin structure from sequence?
 
Multi-omics data integration methods: kernel and other machine learning appro...
Multi-omics data integration methods: kernel and other machine learning appro...Multi-omics data integration methods: kernel and other machine learning appro...
Multi-omics data integration methods: kernel and other machine learning appro...
 
ASTERICS : une application pour intégrer des données omiques
ASTERICS : une application pour intégrer des données omiquesASTERICS : une application pour intégrer des données omiques
ASTERICS : une application pour intégrer des données omiques
 
Autour des projets Idefics et MetaboWean
Autour des projets Idefics et MetaboWeanAutour des projets Idefics et MetaboWean
Autour des projets Idefics et MetaboWean
 
Rserve, renv, flask, Vue.js dans un docker pour intégrer des données omiques ...
Rserve, renv, flask, Vue.js dans un docker pour intégrer des données omiques ...Rserve, renv, flask, Vue.js dans un docker pour intégrer des données omiques ...
Rserve, renv, flask, Vue.js dans un docker pour intégrer des données omiques ...
 
Apprentissage pour la biologie moléculaire et l’analyse de données omiques
Apprentissage pour la biologie moléculaire et l’analyse de données omiquesApprentissage pour la biologie moléculaire et l’analyse de données omiques
Apprentissage pour la biologie moléculaire et l’analyse de données omiques
 
Quelques résultats préliminaires de l'évaluation de méthodes d'inférence de r...
Quelques résultats préliminaires de l'évaluation de méthodes d'inférence de r...Quelques résultats préliminaires de l'évaluation de méthodes d'inférence de r...
Quelques résultats préliminaires de l'évaluation de méthodes d'inférence de r...
 
Intégration de données omiques multi-échelles : méthodes à noyau et autres ap...
Intégration de données omiques multi-échelles : méthodes à noyau et autres ap...Intégration de données omiques multi-échelles : méthodes à noyau et autres ap...
Intégration de données omiques multi-échelles : méthodes à noyau et autres ap...
 
Journal club: Validation of cluster analysis results on validation data
Journal club: Validation of cluster analysis results on validation dataJournal club: Validation of cluster analysis results on validation data
Journal club: Validation of cluster analysis results on validation data
 
Overfitting or overparametrization?
Overfitting or overparametrization?Overfitting or overparametrization?
Overfitting or overparametrization?
 
Selective inference and single-cell differential analysis
Selective inference and single-cell differential analysisSelective inference and single-cell differential analysis
Selective inference and single-cell differential analysis
 
SOMbrero : un package R pour les cartes auto-organisatrices
SOMbrero : un package R pour les cartes auto-organisatricesSOMbrero : un package R pour les cartes auto-organisatrices
SOMbrero : un package R pour les cartes auto-organisatrices
 
Graph Neural Network for Phenotype Prediction
Graph Neural Network for Phenotype PredictionGraph Neural Network for Phenotype Prediction
Graph Neural Network for Phenotype Prediction
 
A short and naive introduction to using network in prediction models
A short and naive introduction to using network in prediction modelsA short and naive introduction to using network in prediction models
A short and naive introduction to using network in prediction models
 
Explanable models for time series with random forest
Explanable models for time series with random forestExplanable models for time series with random forest
Explanable models for time series with random forest
 
Présentation du projet ASTERICS
Présentation du projet ASTERICSPrésentation du projet ASTERICS
Présentation du projet ASTERICS
 

Réseaux de neurones à entrées fonctionnelles

  • 1. RRééseaux de neuronesseaux de neurones àà entrentréées fonctionnelleses fonctionnelles Nathalie Villa (GRIMM - SMASH) Université Toulouse Le Mirail Séminaire SMASH 8 octobre 2004
  • 2. Séminaire SMASH 8 octobre 2004 BUT DU TRAVAILBUT DU TRAVAIL Ou comment utiliser des réseaux de neurones en statistique fonctionnelle ???
  • 3. Réseaux fonctionnels : Mode d’emploi But : Discrimination Perceptron multi-couches 1 C1 1 CK Y = Régression Perceptron multi-couches Y réel Séminaire SMASH 8 octobre 2004
  • 4. Exemples 1) Données de phonèmes (discrimination) 50 100 150 200 250 -5 0 5 10 15 20 25 30 [aa] 50 100 150 200 250 -5 0 5 10 15 20 25 30 [ao] 50 100 150 200 250 -5 0 5 10 15 20 [dcl] 50 100 150 200 250 -5 0 5 10 15 20 25 [iy] 50 100 150 200 250 0 5 10 15 20 25 [sh] Séminaire SMASH 8 octobre 2004 Phonème Enregistrements de voix
  • 5. 2) Données de spectrométrie (régression) 10 20 30 40 50 60 70 80 90 100 2 2.5 3 3.5 4 4.5 5 5.5 Spectres d’absorbance Masse de matière grasse Séminaire SMASH 8 octobre 2004
  • 6. Séminaire SMASH 8 octobre 2004 Le programme… ••Etat des lieux en réseaux de neuronesEtat des lieux en réseaux de neurones fonctionnelsfonctionnels ••SIRSIR ••SIRSIR--NNNN
  • 7. Séminaire SMASH 8 octobre 2004 ETAT DES LIEUX ENETAT DES LIEUX EN RESEAUX DE NEURONESRESEAUX DE NEURONES FONCTIONNELSFONCTIONNELS
  • 8. 1) Approche directe discrétisée en t1…tD X w ≈ <X,w> + b Ya ∑j jj )t(w)t(X m 1 biais g SORTIESORTIE Séminaire SMASH 8 octobre 2004 Rossi, Conan-Guez (2002)
  • 9. Représentation des fonctions de poids w : •Représentation linéaire des poids par rapport à une base de B-Splines, d’ondelettes, de fonctions trigonométriques… : •Représentation non linéaire des poids par un perceptron multicouche multidimentionnel. ∑= i ii )t(w)t(w φ Séminaire SMASH 8 octobre 2004
  • 10. 2) Approche par projection X w <PX ,w> + b Ya ∑ >< j,i jiij ,w ψφα biais g SORTIESORTIE projection ∑= j jjX )X(P ψα Séminaire SMASH 8 octobre 2004
  • 11. Résultats •Approximation universelle : il existe un perceptron fonctionnel qui approche avec la précision voulue n’importe quelle application allant d’un compact de l’espace L² dans R. •Consistance : les paramètres (w) et (a) qui minimisent l’erreur empirique construite à partir d’un nombre fini d’observations discrétisées en un nombre fini de points convergent ps vers les paramètres optimaux théoriques lorsque le nombre d’observations et le nombre de points de discrétisation tendent vers l’infini. Séminaire SMASH 8 octobre 2004
  • 12. Limites •Approche directe : la détermination des minima locaux peut devenir lourde lorsque le nombre de points de discrétisation augmente, particulièrement si la fonction de poids est représentée par un perceptron multicouche. •Approche par projection : trouver une base de projection adaptée au problème ; le choix du type de la base ainsi que du nombre de fonctions à y introduire n’est pas évident à priori. Risque de perte d’informations pertinentes. Séminaire SMASH 8 octobre 2004
  • 13. Base de projection qui dépend des données (méthode mise en œuvre sur le jeu de données de spectrométrie) X ACP X kn (Projection des données sur les kn premiers vecteurs propres) Perceptron multi-couches classique Y Séminaire SMASH 8 octobre 2004 Thodberg (1996)
  • 14. Avantages •Le jeu de données est simplifié ; •La base de projection dépend des données (procédure automatique de détermination). Inconvénients •La base de projection ne dépend pas de la cible mais uniquement des variables explicatives (base de projection non optimisée). Risque de perte d’informations pertinentes. •Pas de résultat de convergence démontré (méthode empirique). Séminaire SMASH 8 octobre 2004
  • 15. Séminaire SMASH 8 octobre 2004 SIRSIR Déterminer une base de projection pertinente
  • 16. Sliced Inverse Regression : Le modèle Li (1991) ),X'a,...X'a(fY q1 ε= Pour X multidimentionnel •ε centrée et indépendante de X •f inconnue •(aj)j linéairement indépendants Idée : Estimer par des méthodes d’algèbre linéaire l’espace EDR (Vect{aj} ) : SIR ; Estimer la fonction f (méthodes non paramètriques, réseaux de neurones…). Séminaire SMASH 8 octobre 2004
  • 17. Ferré, Yao (2003) Dauxois, Ferré, Yao (2003) Pour X fonctionnel, ),X,a,...,X,a(fY q1 ε><><= Théorème : (Condition de Li) Notons A = (<a1 ,X>,…,<aq ,X>)T ; si ∀u ∈ L2, ∃ v ∈ Rq : E(<u,X> / A) = vT A alors, E(X / Y) appartient à Vect { ΓX aj } où ΓX = E(X⊗X). L’espace EDR s’obtient par décomposition spectrale de l’opérateur ΓX -1 ΓE(X / Y) . Séminaire SMASH 8 octobre 2004 SIR Fonctionnelle (FIR)
  • 18. Problème ΓX n’est pas un opérateur borné ! ΓX N est mal conditionné ; Les vecteurs propres de (ΓX N) -1 ΓN E(X / Y) ne convergent pas vers les vecteurs propres de ΓX -1 ΓE(X / Y). Solution X ACP X kN Sous certaines hypothèses techniques, les vecteurs propres de (ΓX kN) -1 ΓN E(X / Y) convergent vers (aj). Séminaire SMASH 8 octobre 2004
  • 19. Idée : On part de l’hypothèse que X fait partie d’un ensemble de fonctions « lisses » (S) et on contraint les vecteurs propres à appartenir également à cet espace en pénalisant ΓX par une fonctionnelle de régularisation. On estime ∀ f ,g∈ S, <ΓX f,g> par Qα N (f,g) = < ΓX N f,g> + α [f , g] où [f , g] = ∫τ dt)t(gD)t(fD 22 Concrètement Séminaire SMASH 8 octobre 2004 FIR régularisée D’après les travaux de Tihonov (1963) ; Leurgans, Moyeed et Silverman (1993)
  • 20. Théorème : (Consistance) Sous l’hypothèse de Li et des hypothèses techniques, atteint son maximum sur S avec une probabilité qui tend vers 1 lorsque N tend vers +∞. De plus, si a1 N est le maximum de cette fonction sur S alors )a,a(Q a,a N N )Y/X(E α Γ >< 0aa),aa( N,P 1 N 11 N 1X  →>−−< +∞→ Γ Séminaire SMASH 8 octobre 2004 Ferré, Villa (2004)
  • 21. Remarques •Condition de Li : Li démontre que cette condition est peu restrictive pour des vecteurs X de grande dimension ; •Pénalisation : L’hypothèse de régularité sur X est faite au travers du choix de [ , ] : d’autres choix conduiraient au même résultat de consistance ; •Estimation de ΓE(X/Y) : L’estimateur de ΓE(X/Y) doit converger à une vitesse . Plusieurs choix sont possibles suivant les buts poursuivis… N Séminaire SMASH 8 octobre 2004
  • 22. Estimation de ΓE(X/Y) But : Régression Estimateur par tranchage du support : pour une partition (Ih)h du support de Y, où et h h h h N )Y/X(E N N µµΓ ∑ ⊗= ∑       ∈ = n IY h h n IN ∑       ∈ = n IY n h h h n IX N 1µ Séminaire SMASH 8 octobre 2004
  • 23. Estimateur à noyau : où ∑ =⊗== n ^ n ^ nN )Y/X(E )YY/X(E)YY/X(E N 1Γ ∑ ∑         −         − == n m m n n ^ h yY K h yY KX )yY/X(E Séminaire SMASH 8 octobre 2004
  • 24. Discrimination ∑ =⊗== k ^^ k N )Y/X(E )kY/X(E)kY/X(EN N 1Γ où et ∑       = == n kY n k ^ n IX N 1)kY/X(E∑       = = n kY k n IN Séminaire SMASH 8 octobre 2004
  • 25. Ferré, Villa (2005) Séminaire SMASH 8 octobre 2004 Exemples (en discrimination) 1) Données simulées : « waveform data » 2 4 6 8 10 12 14 16 18 20 -4 -2 0 2 4 6 8 Classe 1 2 4 6 8 10 12 14 16 18 20 -4 -2 0 2 4 6 8 10 Classe 2 2 4 6 8 10 12 14 16 18 20 -4 -2 0 2 4 6 8 Classe 3 uh1(t)+(1-u)h2(t)+ε(t) uh1(t)+(1-u)h3(t)+ε(t) uh2(t)+(1-u)h3(t)+ε(t) •h1(t) = max(6-|t-11|,0) •h2(t) = h1(t-4) •h3(t) = h1(t+4)
  • 26. Méthodes comparées : SIR régularisée + Noyau SIR projetée + Noyau SIR inverse généralisé (Ferré, Yao 2004) + Noyau Ridge-PDA (Hastie, Buja, Tibschirani) NPCD – PCA (Ferraty, Vieu) Protocole expérimental : Sur 50 échantillons aléatoires, on effectue la discrimination sur un échantillon d’apprentissage et on calcule le taux d’erreur sur un échantillon de test. Séminaire SMASH 8 octobre 2004
  • 27. Séminaire SMASH 8 octobre 2004 14 % 19 % 18 % 17 % 16 % 15 % RPDA SIR-Nr SIR-Np NPCD-PCA SIR2-N
  • 28. Séminaire SMASH 8 octobre 2004 2) Données réelles : les phonèmes Méthodes comparées : SIR régularisée + Noyau SIR projetée + Noyau SIR pseudo-inverse (Ferré, Yao 2004) + Noyau Ridge-PDA (Hastie, Buja, Tibschirani) NPCD – PCA (Ferraty, Vieu) Protocole expérimental : Idem.
  • 29. Séminaire SMASH 8 octobre 2004 8 % 9 % 10 % 11 % SIR-Nr SIR-Np SIR2-N RPDA NPCD-PCA
  • 30. Projection sur les deux premiers vecteurs propres SIR régularisée Projection sur les deux premiers vecteurs propres SIR projetée Séminaire SMASH 8 octobre 2004
  • 31. 50 100 150 200 250 -0.03 -0.02 -0.01 0 0.01 0.02 0.03 0.04 0.05 50 100 150 200 250 -0.03 -0.02 -0.01 0 0.01 0.02 0.03 0.04 0.05 Espace EDR pour SIR régularisée Espace EDR pour SIR projetée
  • 32. Séminaire SMASH 8 octobre 2004 SIRSIR--NNNN Où l’on reparle de réseau de neurones…
  • 33. X SIR {< X,aj N >} (Projection des données sur l’espace EDR estimé) Perceptron multi-couches Y Séminaire SMASH 8 octobre 2004 SIR-NN : Le principe
  • 34. Théorème : (Consistance) Sous les hypothèses du théorème précédent et un certain nombre d’hypothèses techniques (qui sont, par exemple, vérifiées par un perceptron avec comme fonction de transfert sur la couche cachée la fonction sigmoïde et comme fonction d’erreur, l’erreur quadratique moyenne), les poids permettant d’obtenir l’erreur empirique minimum convergent en probabilité vers les poids théoriques optimaux lorsque le nombre d’observations tend vers +∞. Séminaire SMASH 8 octobre 2004 Ferré, Villa (2004)
  • 35. Avantages •Le jeu de données est simplifié ; •La base de projection dépend des données (procédure automatique de détermination) ; •La base de projection tient compte de la cible : c’est la projection optimale des données pour le problème de discrimination ; •Un résultat de convergence est démontré pour l’estimation de la base (FIR) et pour l’estimation des poids du réseau. Séminaire SMASH 8 octobre 2004
  • 36. Simulations et exemples 1) Données de phonèmes Séminaire SMASH 8 octobre 2004 Méthodes comparées : SIR régularisée + NN SIR régularisée + Noyau SIR projetée + NN Ridge-PDA (Hastie, Buja, Tibschirani) NPCD – PCA (Ferraty, Vieu) Protocole expérimental : Idem.
  • 38. 2) Données de spectrométrie Séminaire SMASH 8 octobre 2004 Méthodes comparées : SIR régularisée + NN SIR pseudo-inverse + NN ACP + NN (≈ Thodberg) NNf (Rossi, méthode projection sur Spline) SIR + Linéaire Protocole expérimental : Idem.
  • 39. Séminaire SMASH 8 octobre 2004 ACP-NN NNf SIR-NNr SIR-NNn SIR-l
  • 40. Séminaire SMASH 8 octobre 2004 Merci de votre attentionMerci de votre attention