SlideShare una empresa de Scribd logo
1 de 90
Descargar para leer sin conexión
Modèles numériques coûteux :
de la quantification des incertitudes
à la planification séquentielle d’expériences
(approche bayésienne)
Julien Bect
SUPELEC — IRT SystemX — GdR MASCOT-NUM
Séminaire LRC MANON
3 mars 2014
Julien Bect (SUPELEC) Computer experiments 3/3/2014 1 / 38
1 Introduction : exploration de modèles numériques coûteux
2 Exemple : planification séquentielle pour l’optimisation globale
3 Quantification et réduction séquentielle de l’incertitude
4 Bayesian Subset Simulation : un autre exemple de planification séquentielle
5 Conclusion
Julien Bect (SUPELEC) Computer experiments 3/3/2014 2 / 38
« Expériences numériques » (computer experiments) 1/2
x ∈ X ⊂ Rd
ξ(x) ∈ Rp
Soit ξ : X → Rp
un modèle numérique
d’un système à concevoir ou à étudier (fiabilité),
d’un phénomène physique ou biologique,
. . .
Julien Bect (SUPELEC) Computer experiments 3/3/2014 3 / 38
« Expériences numériques » (computer experiments) 1/2
x ∈ X ⊂ Rd
ξ(x) ∈ Rp
Soit ξ : X → Rp
un modèle numérique
d’un système à concevoir ou à étudier (fiabilité),
d’un phénomène physique ou biologique,
. . .
x : facteurs
paramètres de conception (à choisir),
paramètres physiques (éventuellement mal connus),
. . .
Julien Bect (SUPELEC) Computer experiments 3/3/2014 3 / 38
« Expériences numériques » (computer experiments) 1/2
x ∈ X ⊂ Rd
ξ(x) ∈ Rp
Soit ξ : X → Rp
un modèle numérique
d’un système à concevoir ou à étudier (fiabilité),
d’un phénomène physique ou biologique,
. . .
x : facteurs
paramètres de conception (à choisir),
paramètres physiques (éventuellement mal connus),
. . .
Qu’entendons-nous par « expérience numérique » ?
une expérience ≡ évaluer une réponse ξ(x) du code
chaque expérience coûte (souvent, du temps !)
budget d’expériences limité
Julien Bect (SUPELEC) Computer experiments 3/3/2014 3 / 38
« Expériences numériques » (computer experiments) 2/2
x ∈ X ⊂ Rd
ξ(x) ∈ Rp
Point de vue du statisticien
le code est une « boîte noire »
on veut obtenir des informations sur ξ
à partir d’un échantillon : y1 = ξ(x1), y2 = ξ(x2), . . .
Julien Bect (SUPELEC) Computer experiments 3/3/2014 4 / 38
« Expériences numériques » (computer experiments) 2/2
x ∈ X ⊂ Rd
ξ(x) ∈ Rp
Point de vue du statisticien
le code est une « boîte noire »
on veut obtenir des informations sur ξ
à partir d’un échantillon : y1 = ξ(x1), y2 = ξ(x2), . . .
Deux aspects, comme en statistique « classique »
planifier les calculs (choisir x1, x2, . . . )
analyser les résultats et quantifier les incertitudes
Julien Bect (SUPELEC) Computer experiments 3/3/2014 4 / 38
« Expériences numériques » (computer experiments) 2/2
x ∈ X ⊂ Rd
ξ(x) ∈ Rp
Point de vue du statisticien
le code est une « boîte noire »
on veut obtenir des informations sur ξ
à partir d’un échantillon : y1 = ξ(x1), y2 = ξ(x2), . . .
Deux aspects, comme en statistique « classique »
planifier les calculs (choisir x1, x2, . . . )
analyser les résultats et quantifier les incertitudes
Planification séquentielle
planifier chaque calcul en fonction des précédents
couplage planification / analyse
Julien Bect (SUPELEC) Computer experiments 3/3/2014 4 / 38
Exemple 1 : optimisation de forme (Renault)
Contexte : CAO
calculs de CFD 3D
thèse de J. Villemonteix (2008)
encadrement : E. Vazquez,
M. Sidorkiewicz et E. Walter
Objectif(s)
optimiser la forme du conduit d’admission
maximiser les performances du moteur
minimiser les émissions de polluant
Caractéristiques
≈ 1 h / calcul
6 paramètres de forme à ajuster
Julien Bect (SUPELEC) Computer experiments 3/3/2014 5 / 38
Exemple 2 : projet BEMUSE (CEA, IRSN, . . . )
Contexte : sûreté nucléaire
calculs thermo-hydrauliques
réalisés avec le logiciel CATHARE
benchmark international
(de Crécy et al., NED, 2008)
Scenario
perte de réfrigérant due à une brèche
grandeur d’intérêt : température max.
Caractéristiques
≈ 10 minutes / calcul
53 paramètres incertains
Principaux objectifs
estimation d’un quantile de Tmax
analyse de sensibilité
(B. Iooss, J. Nat. Fiabilité, 2010)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 6 / 38
Exemple 3 : étude d’un risque de crue (EDF R&D)
Contexte : sûreté des installations
calculs d’hydraulique
équ. de Saint Venant 1D ou 2D
logiciels
MASCARET (1D)
OpenTELEMAC (2D)
http://www.opentelemac.org
projet ANR OPUS
Scenario
étude du risque de crue
facteurs : débit, coeff. de Strickler
réponse : hauteur d’eau H
Principaux objectifs
propagation d’incertitudes
estimation d’un quantile sur H
analyse de sensibilité
(M. Couplet et al, JdS 2010 ; Arnaud et al, JdS 2010)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 7 / 38
Objectif(s) : ce que l’on veut savoir sur ξ
Construire un « méta-modèle » : approximation peu coûteuse
approximation globale, sur l’ensemble du domaine X,
ou locale, par ex. précise au voisinage d’un seuil
Julien Bect (SUPELEC) Computer experiments 3/3/2014 8 / 38
Objectif(s) : ce que l’on veut savoir sur ξ
Construire un « méta-modèle » : approximation peu coûteuse
approximation globale, sur l’ensemble du domaine X,
ou locale, par ex. précise au voisinage d’un seuil
Chercher un optimum de performance ou un pire cas
chercher x∗
= argmax ξ et/ou ξ∗
= ξ(x∗
)
optimisation multi-objectif / sous contraintes / robuste / . . .
estimer un ensemble admissible : {x ∈ X, ξ(x) > ξcrit}
Julien Bect (SUPELEC) Computer experiments 3/3/2014 8 / 38
Objectif(s) : ce que l’on veut savoir sur ξ
Construire un « méta-modèle » : approximation peu coûteuse
approximation globale, sur l’ensemble du domaine X,
ou locale, par ex. précise au voisinage d’un seuil
Chercher un optimum de performance ou un pire cas
chercher x∗
= argmax ξ et/ou ξ∗
= ξ(x∗
)
optimisation multi-objectif / sous contraintes / robuste / . . .
estimer un ensemble admissible : {x ∈ X, ξ(x) > ξcrit}
Propagation d’incertitude : X ∼ PX
estimer une proba de défaillance : PX (ξ(X) > ξcrit)
estimer un quantile
caractériser la loi de Y = ξ(X)
réaliser une analyse de sensibilité
. . .
Julien Bect (SUPELEC) Computer experiments 3/3/2014 8 / 38
Objectif(s) : ce que l’on veut savoir sur ξ
Construire un « méta-modèle » : approximation peu coûteuse
approximation globale, sur l’ensemble du domaine X,
ou locale, par ex. précise au voisinage d’un seuil
Chercher un optimum de performance ou un pire cas
chercher x∗
= argmax ξ et/ou ξ∗
= ξ(x∗
)
optimisation multi-objectif / sous contraintes / robuste / . . .
estimer un ensemble admissible : {x ∈ X, ξ(x) > ξcrit}
Propagation d’incertitude : X ∼ PX
estimer une proba de défaillance : PX (ξ(X) > ξcrit)
estimer un quantile
caractériser la loi de Y = ξ(X)
réaliser une analyse de sensibilité
. . .
En pratique : bien souvent, un mélange de tous ces objectifs !
Julien Bect (SUPELEC) Computer experiments 3/3/2014 8 / 38
Diversité des codes de calculs
Cadre computer experiments traditionnel
code de calcul déterministe, (plus ou moins) coûteux
différence importante avec les expériences physique :
faire des répétitions n’a pas de sens !
Julien Bect (SUPELEC) Computer experiments 3/3/2014 9 / 38
Diversité des codes de calculs
Cadre computer experiments traditionnel
code de calcul déterministe, (plus ou moins) coûteux
différence importante avec les expériences physique :
faire des répétitions n’a pas de sens !
Simulateurs stochastiques
sortie aléatoire : x → ξ(x) + bruit
Multi-fidélité
plusieurs simulateurs, plus ou moins précis
exemple : 1D / 2D / 3D
simulateur à précision « ajustable »
exemple : pas de discrétisation, tolérance, . . .
Julien Bect (SUPELEC) Computer experiments 3/3/2014 9 / 38
Diversité des codes de calculs
Cadre computer experiments traditionnel
code de calcul déterministe, (plus ou moins) coûteux
différence importante avec les expériences physique :
faire des répétitions n’a pas de sens !
Simulateurs stochastiques
sortie aléatoire : x → ξ(x) + bruit
Multi-fidélité
plusieurs simulateurs, plus ou moins précis
exemple : 1D / 2D / 3D
simulateur à précision « ajustable »
exemple : pas de discrétisation, tolérance, . . .
Disponibilité du gradient ?
souvent, pas de gradient disponible
exception : code adjoint
Julien Bect (SUPELEC) Computer experiments 3/3/2014 9 / 38
1 Introduction : exploration de modèles numériques coûteux
2 Exemple : planification séquentielle pour l’optimisation globale
3 Quantification et réduction séquentielle de l’incertitude
4 Bayesian Subset Simulation : un autre exemple de planification séquentielle
5 Conclusion
Julien Bect (SUPELEC) Computer experiments 3/3/2014 10 / 38
Optimisation globale
On considère un problème d’optimisation globale
fonction ξ a priori multimodale
évaluations coûteuses, gradient supposé non disponible
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
x
ξ(x)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 11 / 38
Optimisation globale
On considère un problème d’optimisation globale
fonction ξ a priori multimodale
évaluations coûteuses, gradient supposé non disponible
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
x
ξ(x)
Problème
Quelle planification (séquentielle) d’expériences utiliser ?
Julien Bect (SUPELEC) Computer experiments 3/3/2014 11 / 38
Utilisation d’un méta-modèle
Méta-modèle ?
modèle simplifié de ξ, plus rapide à évaluer
exemples : krigeage, RBF, réseau de neurones. . .
cas d’observations sans bruit −→ interpolation en général
Un algorithme simple utilisant un méta-modèle
1 init : remplir X avec n0 < N points
2 pour n = n0 + 1 : N,
ajuster un méta-modèle aux données x1, ξ(x1), . . . , xn−1, ξ(xn−1)
utiliser ce méta-modèle pour choisir xn
3 renvoyer ˆx∗
= argmax1≤i≤n ξ(xi) et ˆξ∗
= ξ (ˆx∗
)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 12 / 38
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage (point de vue interpolation)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
x
ξ(x) n = n0 = 4
Julien Bect (SUPELEC) Computer experiments 3/3/2014 13 / 38
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage (point de vue interpolation)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
x
ξ(x) n = n0 = 4
Julien Bect (SUPELEC) Computer experiments 3/3/2014 13 / 38
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage (point de vue interpolation)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
x
ξ(x) n = 5
Julien Bect (SUPELEC) Computer experiments 3/3/2014 13 / 38
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage (point de vue interpolation)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
x
ξ(x) n = 6
Julien Bect (SUPELEC) Computer experiments 3/3/2014 13 / 38
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage (point de vue interpolation)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
x
ξ(x) n = 7
Julien Bect (SUPELEC) Computer experiments 3/3/2014 13 / 38
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage (point de vue interpolation)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
x
ξ(x) n = 8
Julien Bect (SUPELEC) Computer experiments 3/3/2014 13 / 38
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage (point de vue interpolation)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
x
ξ(x) n = 9
Julien Bect (SUPELEC) Computer experiments 3/3/2014 13 / 38
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage (point de vue interpolation)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
x
ξ(x) n = 10
Julien Bect (SUPELEC) Computer experiments 3/3/2014 13 / 38
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage (point de vue interpolation)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
x
ξ(x) n = 11
Julien Bect (SUPELEC) Computer experiments 3/3/2014 13 / 38
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage (point de vue interpolation)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
x
ξ(x) n = 12
Julien Bect (SUPELEC) Computer experiments 3/3/2014 13 / 38
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage (point de vue interpolation)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
x
ξ(x) n = 13
Convergence vers un maximum local !
Julien Bect (SUPELEC) Computer experiments 3/3/2014 13 / 38
Principes de l’optimisation bayésienne
Constat essentiel
Nécessité de réaliser un compromis entre
exploitation des régions prometteuses,
exploration des régions mal connues.
Julien Bect (SUPELEC) Computer experiments 3/3/2014 14 / 38
Principes de l’optimisation bayésienne
Constat essentiel
Nécessité de réaliser un compromis entre
exploitation des régions prometteuses,
exploration des régions mal connues.
Solution bayésienne
Nécessité de quantifier l’incertitude pour faire des
choix rationnels.
La théorie bayésienne de la décision fournit un
cadre cohérent → représentation probabiliste de
l’incertitude.
Repères biblio de base :
H. Kushner (1964) : critère PI
J. Mockus et A. Žilinskas (70’s) : critère EI
D. Jones et al. (1998) : algorithme « EGO »
Harold Kushner
Antanas ˘Zilinskas
Jonas Mockus
Julien Bect (SUPELEC) Computer experiments 3/3/2014 14 / 38
Loi a priori / a posteriori
Informations a priori sur ξ −→ processus aléatoire, i.e. P0 = P (ξ ∈ · | I0)
régularité (dérivabilité, vitesse de variation, . . . )
« tendance » (linéaire, quadratique, . . . )
symétries, monotonie, . . .
Julien Bect (SUPELEC) Computer experiments 3/3/2014 15 / 38
Loi a priori / a posteriori
Informations a priori sur ξ −→ processus aléatoire, i.e. P0 = P (ξ ∈ · | I0)
régularité (dérivabilité, vitesse de variation, . . . )
« tendance » (linéaire, quadratique, . . . )
symétries, monotonie, . . .
Mise à jour des connaissances
après n évaluations, on a appris : ξn = (ξ(x1), . . . , ξ(xn))
loi a posteriori Pn = P0 (ξ ∈ · | ξn)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 15 / 38
Loi a priori / a posteriori
Informations a priori sur ξ −→ processus aléatoire, i.e. P0 = P (ξ ∈ · | I0)
régularité (dérivabilité, vitesse de variation, . . . )
« tendance » (linéaire, quadratique, . . . )
symétries, monotonie, . . .
Mise à jour des connaissances
après n évaluations, on a appris : ξn = (ξ(x1), . . . , ξ(xn))
loi a posteriori Pn = P0 (ξ ∈ · | ξn)
Remarque importante
ˆξn(x) = E0 (ξ(x) | ξn) est un méta-modèle naturel dans ce cadre. . .
. . . mais Pn contient beaucoup plus d’information !
Julien Bect (SUPELEC) Computer experiments 3/3/2014 15 / 38
Illustration
Modèle : processus gaussien (covariance de Matérn, σ2
= 9, ν = 2, ρ = 0.5)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−12
−10
−8
−6
−4
−2
0
2
4
6
8
x
ξ(x)
Simulations sous la loi a priori P0
Julien Bect (SUPELEC) Computer experiments 3/3/2014 16 / 38
Illustration
Modèle : processus gaussien (covariance de Matérn, σ2
= 9, ν = 2, ρ = 0.5)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
x
ξ(x)
Moyenne a posteriori (i.e., moyenne sous Pn0
)
et intervalles ponctuels de crédibilité à 95%
Julien Bect (SUPELEC) Computer experiments 3/3/2014 16 / 38
Illustration
Modèle : processus gaussien (covariance de Matérn, σ2
= 9, ν = 2, ρ = 0.5)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−4
−3
−2
−1
0
1
2
3
x
ξ(x)
Simulations sous la loi a posteriori Pn0
Julien Bect (SUPELEC) Computer experiments 3/3/2014 16 / 38
Comment choisir xn+1 connaissant I0, ξn ?
1 En utilisant la loi a posteriori, on construit un critère d’échantillonnage
x ∈ X → Jn (x; I0, ξn)
qui mesure l’intérêt d’une évaluation en x.
2 On choisit le prochain point à l’aide de ce critère
xn+1 = argmax
x∈X
Jn (x; I0, ξn)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 17 / 38
Comment choisir xn+1 connaissant I0, ξn ?
1 En utilisant la loi a posteriori, on construit un critère d’échantillonnage
x ∈ X → Jn (x; I0, ξn)
qui mesure l’intérêt d’une évaluation en x.
2 On choisit le prochain point à l’aide de ce critère
xn+1 = argmax
x∈X
Jn (x; I0, ξn)
Un critère très utilisé : expected improvement (EI)
Jn (x; I0, ξn) = E ((ξ(x) − Mn)+ | I0, ξn)
avec Mn = max (ξ(x1), . . . , ξ(xn)).
Julien Bect (SUPELEC) Computer experiments 3/3/2014 17 / 38
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ2
= 9, ν = 2, ρ = 0.5)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
x
ξ(x)
n = n0 = 4
Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ2
= 9, ν = 2, ρ = 0.5)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1
0
1
2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
0.1
0.2
0.3
0.4
EI
x
ξ(x)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ2
= 9, ν = 2, ρ = 0.5)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1
0
1
2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
0.05
0.1
0.15
0.2
EI
x
ξ(x)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ2
= 9, ν = 2, ρ = 0.5)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1
0
1
2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
0.01
0.02
0.03
0.04
0.05
0.06
0.07
EI
x
ξ(x)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ2
= 9, ν = 2, ρ = 0.5)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1
0
1
2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
0.005
0.01
0.015
0.02
0.025
0.03
EI
x
ξ(x)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ2
= 9, ν = 2, ρ = 0.5)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1
0
1
2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
0.005
0.01
0.015
0.02
0.025
EI
x
ξ(x)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ2
= 9, ν = 2, ρ = 0.5)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1
0
1
2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
0.002
0.004
0.006
0.008
0.01
EI
x
ξ(x)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ2
= 9, ν = 2, ρ = 0.5)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1
0
1
2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
1
2
3
4
5
6
x 10
−3
EI
x
ξ(x)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ2
= 9, ν = 2, ρ = 0.5)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1
0
1
2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
0.5
1
1.5
2
2.5
3
x 10
−3
EI
x
ξ(x)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ2
= 9, ν = 2, ρ = 0.5)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1
0
1
2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
0.5
1
1.5
2
2.5
x 10
−3
EI
x
ξ(x)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ2
= 9, ν = 2, ρ = 0.5)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1
0
1
2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
0.005
0.01
0.015
0.02
EI
x
ξ(x)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ2
= 9, ν = 2, ρ = 0.5)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1
0
1
2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
EI
x
ξ(x)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ2
= 9, ν = 2, ρ = 0.5)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1
0
1
2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
0.005
0.01
0.015
0.02
EI
x
ξ(x)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ2
= 9, ν = 2, ρ = 0.5)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1
0
1
2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
0.2
0.4
0.6
0.8
1
x 10
−3
EI
x
ξ(x)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ2
= 9, ν = 2, ρ = 0.5)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1
0
1
2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
2
4
6
8
x 10
−8
EI
x
ξ(x)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ2
= 9, ν = 2, ρ = 0.5)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−2
−1
0
1
2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
0.5
1
1.5
2
x 10
−8
EI
x
ξ(x)
On finit (presque) toujours par explorer les zones « vides » !
cf. théorème(s) de convergence, Vazquez et Bect, 2010
Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
1 Introduction : exploration de modèles numériques coûteux
2 Exemple : planification séquentielle pour l’optimisation globale
3 Quantification et réduction séquentielle de l’incertitude
4 Bayesian Subset Simulation : un autre exemple de planification séquentielle
5 Conclusion
Julien Bect (SUPELEC) Computer experiments 3/3/2014 19 / 38
Planifier pour estimer une quantité d’intérêt
Soit une quantité d’intérêt θ = θ (ξ), par exemple
M∗
= maxx∈X ξ(x)
X∗
= argmaxx∈X ξ(x)
Γ = {x ∈ X : ξ(x) > T}
α = X
1Γ dµ
Problème
Comment planifier (séquentiellement) les expériences numériques pour estimer
au mieux la quantité d’intérêt θ ?
Julien Bect (SUPELEC) Computer experiments 3/3/2014 20 / 38
Planifier pour estimer une quantité d’intérêt
Soit une quantité d’intérêt θ = θ (ξ), par exemple
M∗
= maxx∈X ξ(x)
X∗
= argmaxx∈X ξ(x)
Γ = {x ∈ X : ξ(x) > T}
α = X
1Γ dµ
Problème
Comment planifier (séquentiellement) les expériences numériques pour estimer
au mieux la quantité d’intérêt θ ?
Un schéma de réponse générique
1 Quantification de l’incertitude (approche bayésienne)
2 Réduction séquentielle de l’incertitude
Julien Bect (SUPELEC) Computer experiments 3/3/2014 20 / 38
Quantification de l’incertitude
Approche bayésienne : notations
P0 : loi a priori sur ξ (ex : loi d’un processus gaussien)
X1, . . . , Xn : points d’évaluations
ATTENTION : les points d’évaluations dépendent de ξ, en séquentiel
In = (X1, ξ(X1), . . . , Xn, ξ(Xn)) : information acquise au temps n
Pn = P0 (· | In) : loi a posteriori
Julien Bect (SUPELEC) Computer experiments 3/3/2014 21 / 38
Quantification de l’incertitude
Approche bayésienne : notations
P0 : loi a priori sur ξ (ex : loi d’un processus gaussien)
X1, . . . , Xn : points d’évaluations
ATTENTION : les points d’évaluations dépendent de ξ, en séquentiel
In = (X1, ξ(X1), . . . , Xn, ξ(Xn)) : information acquise au temps n
Pn = P0 (· | In) : loi a posteriori
Choix d’une mesure d’incertitude
On se donne une mesure d’incertitude Hn (risque) dépendant de In
techniquement : Hn est une fonction mesurable de In
Typiquement : Hn = En C θ(ξ), ˆθn , avec
ˆθn un estimateur de θ
C une fonction de coût (par ex : une distance)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 21 / 38
Exemple : optimisation
Quantité d’intérêt : M∗
= maxx∈X ξ(x) (et/ou X∗
= argmaxx∈X ξ(x))
Choix d’une mesure d’incertitude
Mesure d’incertitude classique (cf. Mockus & Žilinskas ; années 70) :
Hn = En (M∗
− Mn) ,
où Mn = max1≤i≤n ξ(Xi).
Justification : M∗
≥ Mn ps, donc par l’inégalité de Markov :
Pn (M∗
> Mn + c) ≤
En (M∗
− Mn)
c
Julien Bect (SUPELEC) Computer experiments 3/3/2014 22 / 38
Exemple : optimisation
Quantité d’intérêt : M∗
= maxx∈X ξ(x) (et/ou X∗
= argmaxx∈X ξ(x))
Choix d’une mesure d’incertitude
Mesure d’incertitude classique (cf. Mockus & Žilinskas ; années 70) :
Hn = En (M∗
− Mn) ,
où Mn = max1≤i≤n ξ(Xi).
Justification : M∗
≥ Mn ps, donc par l’inégalité de Markov :
Pn (M∗
> Mn + c) ≤
En (M∗
− Mn)
c
Autre possibilité : Hn = H (X∗
| In)
entropie conditionnelle du maximiseur
cf. algorithm IAGO, Villemonteix et al (2009)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 22 / 38
Exemple : ensemble d’excursion (1/2)
Quantité d’intérêt : Γ = {x ∈ X : ξ(x) > T} ou α = X
1Γ dµ
Choix d’une mesure d’incertitude
Un choix possible (Bect et al. (2012) ; Chevalier (2013)) :
Hn = En 1Γ − pn
2
L2(µ) =
X
varn (1Γ(x)) dµ(x),
où pn(x) = Pn (ξ(x) > T) est la « fonction de classification douce » induite
par ξ | In au seuil T.
Remarque : il s’agit d’un critère de type IMSE (MSE intégrée)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 23 / 38
Exemple : ensemble d’excursion (1/2)
Quantité d’intérêt : Γ = {x ∈ X : ξ(x) > T} ou α = X
1Γ dµ
Choix d’une mesure d’incertitude
Un choix possible (Bect et al. (2012) ; Chevalier (2013)) :
Hn = En 1Γ − pn
2
L2(µ) =
X
varn (1Γ(x)) dµ(x),
où pn(x) = Pn (ξ(x) > T) est la « fonction de classification douce » induite
par ξ | In au seuil T.
Remarque : il s’agit d’un critère de type IMSE (MSE intégrée)
Quelques autres critères dans la litérature :
variance de α (Vazquez & Piera Martinez, 2007 ; Chevalier et al, 2014)
tIMSE : IMSE « ciblée » (Picheny et al, 2010)
déviation de Vorob’ev (Chevalier et al, 2013)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 23 / 38
Exemple : ensemble d’excursion (2/2)
Même modèle que précédemment ; seuil T = 0.
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−4
−2
0
2
4
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
0.5
1
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
0.1
0.2
0.3
0.4
x
ξpnpn(1−pn)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 24 / 38
Planification : stratégie bayésienne optimale (1/3)
Supposons que l’on dispose d’un budget de N évaluations.
On veut choisir une stratégie de planification séquentielle (non randomisée) :
X1 = x1,
X2 = ϕ1 (X1, ξ(X1)) ,
X3 = ϕ2 (X1, ξ(X1), X2, ξ(X2)) ,
. . . = . . .
Xn = ϕn−1 (X1, ξ(X1), . . . , Xn−1, ξ(Xn−1))
Stratégie bayésienne optimale
Ayant choisi un apriori P0 et une mesure d’incertitude HN , on voudrait
minimiser E0 (HN )
par rapport à x1, ϕ1, ϕ2, . . . , ϕn−1.
Julien Bect (SUPELEC) Computer experiments 3/3/2014 25 / 38
Planification : stratégie bayésienne optimale (2/3)
Posons En,x = En (· | Xn+1 = x).
Commençons petit : supposons N = 1. Alors
X∗
1 = argmin
x1
E0,x1
(H1)
Souvent, si ξ est un processus gaussien sous P0,
on sait calculer (ou approcher) l’espérance
pour l’argmin : optimisation numérique.
Julien Bect (SUPELEC) Computer experiments 3/3/2014 26 / 38
Planification : stratégie bayésienne optimale (2/3)
Posons En,x = En (· | Xn+1 = x).
Commençons petit : supposons N = 1. Alors
X∗
1 = argmin
x1
E0,x1
(H1)
Souvent, si ξ est un processus gaussien sous P0,
on sait calculer (ou approcher) l’espérance
pour l’argmin : optimisation numérique.
Un peu plus ambitieux : N = 2. Alors
X∗
1 = argmin
x1
E0,x1
min
x2
E1,x2
(H2) .
Le calcul, même approché, de X∗
1 devient très difficile. . .
(même si on prend ξ gaussien sous Po !)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 26 / 38
Planification : stratégie bayésienne optimale (3/3)
Stratégie bayésienne optimale
Pour un horizon N quelconque, la stratégie optimale s’exprime comme
solution d’un problème de programmation dynamique.
Dernier pas :
X∗
N = argmin
xN
EN−1,xN
(HN ) ,
R∗
N−1 = EN−1,X∗
N
(HN ) .
Puis, récursivement (n = N − 1, N − 2 . . .) :
X∗
n = argmin
xn
En−1,xn
(R∗
n) ,
R∗
n−1 = En−1,X∗
n
(R∗
n) .
R∗
n est le risque bayésien au temps n.
Julien Bect (SUPELEC) Computer experiments 3/3/2014 27 / 38
Planification : stratégies bayésienne myopes
Principe général pour la construction de stratégies approchées :
Xn = argmin
xn
En−1,xn
Rn ,
où Rn est un substitut au risque bayésien (fidèle, si possible).
Julien Bect (SUPELEC) Computer experiments 3/3/2014 28 / 38
Planification : stratégies bayésienne myopes
Principe général pour la construction de stratégies approchées :
Xn = argmin
xn
En−1,xn
Rn ,
où Rn est un substitut au risque bayésien (fidèle, si possible).
Dans la plupart des travaux en planif. séquentielle d’expériences numériques :
Xn = argmin
xn
En−1,xn
(Hn) .
On parle de stratégie bayésienne myope à un pas (ou « gloutonne »).
Julien Bect (SUPELEC) Computer experiments 3/3/2014 28 / 38
Exemple : optimisation (suite)
Comme précédemment, on prend
Quantité d’intérêt : M∗
= maxx∈X ξ(x),
Mesure d’incertitude classique : Hn = En (M∗
− Mn).
Julien Bect (SUPELEC) Computer experiments 3/3/2014 29 / 38
Exemple : optimisation (suite)
Comme précédemment, on prend
Quantité d’intérêt : M∗
= maxx∈X ξ(x),
Mesure d’incertitude classique : Hn = En (M∗
− Mn).
Calcul de la stratégie myope à un pas :
Xn = argmin
xn
En−1,xn
(Hn)
= argmin
xn
En−1,xn
(M∗
− Mn)
= argmin
xn
[En−1,xn
(M∗
− Mn−1) − En−1,xn
(Mn − Mn−1)]
Julien Bect (SUPELEC) Computer experiments 3/3/2014 29 / 38
Exemple : optimisation (suite)
Comme précédemment, on prend
Quantité d’intérêt : M∗
= maxx∈X ξ(x),
Mesure d’incertitude classique : Hn = En (M∗
− Mn).
Calcul de la stratégie myope à un pas :
Xn = argmin
xn
En−1,xn
(Hn)
= argmin
xn
En−1,xn
(M∗
− Mn)
= argmin
xn
[En−1,xn
(M∗
− Mn−1) − En−1,xn
(Mn − Mn−1)]
= argmax
xn
En−1,xn
(Mn − Mn−1)
= argmax
xn
En−1,xn
(ξ(xn) − Mn−1)+
Expected Improvement (EI)
Julien Bect (SUPELEC) Computer experiments 3/3/2014 29 / 38
Exemple : ensemble d’excursion (suite)
Comme précédemment, on prend
Quantité d’intérêt : Γ = {x ∈ X : ξ(x) > T},
Mesure d’incertitude classique : Hn = En 1Γ − pn
2
L2(µ) .
Julien Bect (SUPELEC) Computer experiments 3/3/2014 30 / 38
Exemple : ensemble d’excursion (suite)
Comme précédemment, on prend
Quantité d’intérêt : Γ = {x ∈ X : ξ(x) > T},
Mesure d’incertitude classique : Hn = En 1Γ − pn
2
L2(µ) .
Calcul de la stratégie myope à un pas :
Xn = argmin
xn
En−1,xn
(Hn)
= argmin
xn
En−1,xn
X
pn (1 − pn) dµ
Julien Bect (SUPELEC) Computer experiments 3/3/2014 30 / 38
Exemple : ensemble d’excursion (suite)
Comme précédemment, on prend
Quantité d’intérêt : Γ = {x ∈ X : ξ(x) > T},
Mesure d’incertitude classique : Hn = En 1Γ − pn
2
L2(µ) .
Calcul de la stratégie myope à un pas :
Xn = argmin
xn
En−1,xn
(Hn)
= argmin
xn
En−1,xn
X
pn (1 − pn) dµ
≈ argmin
xn
1
m
m
j=1
En−1,xn
pn(Yj) (1 − pn(Yj))
avec Y1, . . . , Ym
iid
∼ µ
Remarque : voir Chevalier et al (in press) pour l’évaluation numérique rapide de l’expression
En−1,xn pn(y) (1 − pn(y)) lorsque ξ ∼ GP.
Julien Bect (SUPELEC) Computer experiments 3/3/2014 30 / 38
1 Introduction : exploration de modèles numériques coûteux
2 Exemple : planification séquentielle pour l’optimisation globale
3 Quantification et réduction séquentielle de l’incertitude
4 Bayesian Subset Simulation : un autre exemple de planification séquentielle
5 Conclusion
Julien Bect (SUPELEC) Computer experiments 3/3/2014 31 / 38
Bayesian Subset Simulation
Voir présentation PSAM11-ESREL 2012
http://fr.slideshare.net/JulienBect/bect-bsspsamesrel2012
Julien Bect (SUPELEC) Computer experiments 3/3/2014 32 / 38
1 Introduction : exploration de modèles numériques coûteux
2 Exemple : planification séquentielle pour l’optimisation globale
3 Quantification et réduction séquentielle de l’incertitude
4 Bayesian Subset Simulation : un autre exemple de planification séquentielle
5 Conclusion
Julien Bect (SUPELEC) Computer experiments 3/3/2014 33 / 38
Ce n’est que le début. . .
Abondante littérature sur la planification séquentielle bayésienne !
En particulier : travaux sur les critères d’échantillonnage
critères adaptés à chaque objectif particulier
approximation globale, optimisation, intégration, . . .
en cours : étude de la monotonie d’un code (collab. EDF R&D, MRI)
critères & modèles adaptés à différents contextes
calcul parallèle (évaluation par batchs)
simulateurs stochastiques, multi-fidélité, . . .
Julien Bect (SUPELEC) Computer experiments 3/3/2014 34 / 38
Ce n’est que le début. . .
Abondante littérature sur la planification séquentielle bayésienne !
En particulier : travaux sur les critères d’échantillonnage
critères adaptés à chaque objectif particulier
approximation globale, optimisation, intégration, . . .
en cours : étude de la monotonie d’un code (collab. EDF R&D, MRI)
critères & modèles adaptés à différents contextes
calcul parallèle (évaluation par batchs)
simulateurs stochastiques, multi-fidélité, . . .
Une communauté de recherche active
en France : le GdR MASCOT-NUM
Méthodes d’Analyse Stochastique pour les COdes et Traitements Numériques
http://www.gdr-mascotnum.fr
conférence annuelle : à Zurich en 2014
international : MUCM
Managing Uncertainty in Computer Models
http://www.mucm.ac.uk
travaux connexes dans la communauté machine learning
bandits, active learning, etc.
Julien Bect (SUPELEC) Computer experiments 3/3/2014 34 / 38
Références : optimisation bayésienne
H. J. Kushner (1964). A new method of locating the maximum point of an arbitrary
multipeak curve in the presence of noise, J. Basic Engineering, 86(1).
J. Mockus, V. Tiesis et Antanas Žilinskas (1978), The application of Bayesian methods
for seeking the extremum, in : Towards Global Optimization, volume 2.
D. R. Jones, M. Schonlau et W. J. Welch (1998). Efficient Global Optimization of
Expensive Black-Box Functions, J. Global Optimization, 13(4).
J. Villemonteix (2008). Optimisation de fonctions coûteuses. Thèse de l’Université
Paris-Sud XI, Faculté des Sciences d’Orsay.
J. Villemonteix, E. Vazquez et Éric Walter (2009). An informational approach to the
global optimization of expensive-to-evaluate functions, J. Global Optimization, 44(4).
D. Ginsbourger (2009). Métamodèles multiples pour l’approximation et l’optimisation
de fonctions numériques multivariables. Thèse de l’École des Mines de Saint-Etienne.
E. Vazquez et J. Bect (2010). Convergence properties of the expected improvement
algorithm with fixed mean and covariance functions, J. Statistical Planning and
Inference, 140(11).
A. D. Bull, (2011). Convergence rates of efficient global optimization algorithms, J.
Machine Learning Research, 12.
R. Benassi (2013). Nouvel algorithme d’optimisation bayésien utilisant une approche
Monte-Carlo séquentielle. Thèse de l’École Supérieure d’Électricité (Supélec).
Julien Bect (SUPELEC) Computer experiments 3/3/2014 35 / 38
Références : ensembles d’excursion & proba. (1/2)
E. Vazquez et M. Piera-Martinez (2007), Estimation du volume des ensembles
d’excursion d’un processus Gaussien par krigeage intrinsèque. 39ème Journées de
Statistiques (JdS 2007).
V. Picheny, D. Ginsbourger, O. Roustant, R. Haftka et N. H. Kim (2010), Adaptive
Designs of Experiments for Accurate Approximation of Target Regions, J. Mechanical
Design, 132(7).
V. Dubourg (2011), Méta-modèles adaptatifs pour l’analyse de fiabilité et
l’optimisation sous contrainte fiabiliste. Thèse de l’Université Blaise Pascal –
Clermont II.
J. Bect, D. Ginsbourger, L. Li, V. Picheny, E. Vazquez (2012). Sequential design of
computer experiments for the estimation of a probability of failure, Statistics and
Computing, 22(3).
L. Li (2012), Sequential Design of Experiments to Estimate a Probability of Failure.
Thèse de l’École Supérieure d’Électricité (Supélec).
Julien Bect (SUPELEC) Computer experiments 3/3/2014 36 / 38
Références : ensembles d’excursion & proba. (2/2)
L. Li, J. Bect et E. Vazquez (2012). Bayesian Subset Simulation : a kriging-based
subset simulation algorithm for the estimation of small probabilities of failure. Proc.
conf. PSAM 11 & ESREL 2012, 25-29 juin, Helsinki.
C. Chevalier (2013). Fast uncertainty reduction strategies relying on Gaussian process
models. PhD thesis. University of Bern.
C. Chevalier, D. Ginsbourger, J. Bect et I. Molchanov (2013). Estimating and
Quantifying Uncertainties on Level Sets Using the Vorob’ev Expectation and Deviation
with Gaussian Process Models, 10th International Workshop in Model-Oriented Design
and Analysis (mODa 10).
C. Chevalier, J. Bect, D. Ginsbourger, Y. Richet, V. Picheny et E. Vazquez (in press).
Fast parallel kriging-based stepwise uncertainty reduction with application to the
identification of an excursion set, Technometrics.
Julien Bect (SUPELEC) Computer experiments 3/3/2014 37 / 38
Références pour les exemples de l’introduction
Exemple 1 : optimisation de la forme d’un conduit d’admission
J. Villemonteix (2008). Optimisation de fonctions coûteuses. Thèse de l’Université
Paris-Sud XI, Faculté des Sciences d’Orsay.
M. Xiao, R. Filomeno Coelho, P. Breitkopf, C. Knopf-Lenoir, P. Villon, M.
Sidorkiewicz (2009). Réduction de modèles par CPOD et krigeage. 9ème Colloque
National en Calcul des Structures, 25-29 mai, Giens, France.
Exemple 2 : projet BEMUSE
A. de Crécy et al (2008). Uncertainty and sensitivity analysis of the LOFT L2-5 test :
Results of the BEMUSE programme, Nuclear Engineering and Design, 238(12).
B. Iooss (2010). Exploration de modèles numériques à l’aide du krigeage. Journée
Nationales de Fiabilité, 24–26 mars, Toulouse.
Exemple 3 : étude d’un risque de crue
M. Couplet, L. Lebrusquet, A. Pasanisi (2010). Caractérisation des coefficients de
Strickler d’un fleuve par inversion probabiliste. 42èmes journées de Statistique (JdS
2010), 24–28 mai, Marseille.
A. Arnaud, J. Bect, M. Couplet, A. Pasanisi et E. Vazquez (2010). Evaluation d’un
risque d’inondation fluviale par planification séquentielle d’expériences. 42èmes
journées de Statistique (JdS 2010), 24–28 mai, Marseille.
Julien Bect (SUPELEC) Computer experiments 3/3/2014 38 / 38

Más contenido relacionado

Destacado

El barroco
El barrocoEl barroco
El barrocomgonzar
 
Tecnoloxias multimedia trabajo_practico
Tecnoloxias multimedia trabajo_practicoTecnoloxias multimedia trabajo_practico
Tecnoloxias multimedia trabajo_practicoSottti
 
Finanza Auto Per Disoccupati
Finanza Auto Per DisoccupatiFinanza Auto Per Disoccupati
Finanza Auto Per Disoccupatilindsaylohan460
 
Alter fact tr2m-09-09-2010
Alter fact tr2m-09-09-2010Alter fact tr2m-09-09-2010
Alter fact tr2m-09-09-2010M HAGHIRI
 
Escuchar al otro en la relación pedagógica.
Escuchar al otro en la relación pedagógica. Escuchar al otro en la relación pedagógica.
Escuchar al otro en la relación pedagógica. joaquinparedes
 
Conférence Accessibilité Intuiti [Dossier de presse]
Conférence Accessibilité Intuiti [Dossier de presse]Conférence Accessibilité Intuiti [Dossier de presse]
Conférence Accessibilité Intuiti [Dossier de presse]Arnaud BRIAND
 
La veille de Red Guy du 05.04.2012 : Le mediaplanning
La veille de Red Guy du 05.04.2012 : Le mediaplanningLa veille de Red Guy du 05.04.2012 : Le mediaplanning
La veille de Red Guy du 05.04.2012 : Le mediaplanningRed Guy
 
Features page presentation
Features page presentationFeatures page presentation
Features page presentation25423
 
2e jour Muséomix raconté en 10 photos
2e jour Muséomix raconté en 10 photos2e jour Muséomix raconté en 10 photos
2e jour Muséomix raconté en 10 photosKnowtex
 
Anexo servicio project minkee especialistas mxp.lab
Anexo  servicio project minkee especialistas  mxp.labAnexo  servicio project minkee especialistas  mxp.lab
Anexo servicio project minkee especialistas mxp.labAMA.RILLO (MXP.LAB)
 
Presentacion digitalmeteo
Presentacion digitalmeteoPresentacion digitalmeteo
Presentacion digitalmeteodigitalmeteo
 
Zapatos rotos
Zapatos rotosZapatos rotos
Zapatos rotosVoxPress
 
Roy jones jr
Roy jones jrRoy jones jr
Roy jones jrJaviRoma
 
Atelier culture 20_101201c
Atelier culture 20_101201cAtelier culture 20_101201c
Atelier culture 20_101201cCap'Com
 

Destacado (20)

El barroco
El barrocoEl barroco
El barroco
 
Tecnoloxias multimedia trabajo_practico
Tecnoloxias multimedia trabajo_practicoTecnoloxias multimedia trabajo_practico
Tecnoloxias multimedia trabajo_practico
 
Finanza Auto Per Disoccupati
Finanza Auto Per DisoccupatiFinanza Auto Per Disoccupati
Finanza Auto Per Disoccupati
 
Alter fact tr2m-09-09-2010
Alter fact tr2m-09-09-2010Alter fact tr2m-09-09-2010
Alter fact tr2m-09-09-2010
 
Escuchar al otro en la relación pedagógica.
Escuchar al otro en la relación pedagógica. Escuchar al otro en la relación pedagógica.
Escuchar al otro en la relación pedagógica.
 
Conférence Accessibilité Intuiti [Dossier de presse]
Conférence Accessibilité Intuiti [Dossier de presse]Conférence Accessibilité Intuiti [Dossier de presse]
Conférence Accessibilité Intuiti [Dossier de presse]
 
La veille de Red Guy du 05.04.2012 : Le mediaplanning
La veille de Red Guy du 05.04.2012 : Le mediaplanningLa veille de Red Guy du 05.04.2012 : Le mediaplanning
La veille de Red Guy du 05.04.2012 : Le mediaplanning
 
Le Grand Prix des Idees Durables (CourtsCircuits)
Le Grand Prix des Idees Durables (CourtsCircuits)Le Grand Prix des Idees Durables (CourtsCircuits)
Le Grand Prix des Idees Durables (CourtsCircuits)
 
Portafolio de servicios Trasteos La Cuidadosa
Portafolio de servicios Trasteos La CuidadosaPortafolio de servicios Trasteos La Cuidadosa
Portafolio de servicios Trasteos La Cuidadosa
 
Presentación12
Presentación12Presentación12
Presentación12
 
Features page presentation
Features page presentationFeatures page presentation
Features page presentation
 
Educación
EducaciónEducación
Educación
 
2e jour Muséomix raconté en 10 photos
2e jour Muséomix raconté en 10 photos2e jour Muséomix raconté en 10 photos
2e jour Muséomix raconté en 10 photos
 
Anexo servicio project minkee especialistas mxp.lab
Anexo  servicio project minkee especialistas  mxp.labAnexo  servicio project minkee especialistas  mxp.lab
Anexo servicio project minkee especialistas mxp.lab
 
Presentacion digitalmeteo
Presentacion digitalmeteoPresentacion digitalmeteo
Presentacion digitalmeteo
 
Parasha 47 ree
Parasha 47 reeParasha 47 ree
Parasha 47 ree
 
Parques Logísticos del Sur
Parques Logísticos del SurParques Logísticos del Sur
Parques Logísticos del Sur
 
Zapatos rotos
Zapatos rotosZapatos rotos
Zapatos rotos
 
Roy jones jr
Roy jones jrRoy jones jr
Roy jones jr
 
Atelier culture 20_101201c
Atelier culture 20_101201cAtelier culture 20_101201c
Atelier culture 20_101201c
 

Similar a Modèles numériques coûteux : de la quantification des incertitudes la planification séquentielle d'expériences

FLTauR - Construction de modèles de prévision sous r avec le package caret
FLTauR - Construction de modèles de prévision sous r avec le package caretFLTauR - Construction de modèles de prévision sous r avec le package caret
FLTauR - Construction de modèles de prévision sous r avec le package caretjfeudeline
 
TPs-TDs : Travaux Pratiques & Dérigés (version 2014-2017) Génie Electrique/Ex...
TPs-TDs : Travaux Pratiques & Dérigés (version 2014-2017) Génie Electrique/Ex...TPs-TDs : Travaux Pratiques & Dérigés (version 2014-2017) Génie Electrique/Ex...
TPs-TDs : Travaux Pratiques & Dérigés (version 2014-2017) Génie Electrique/Ex...Mohammed TAMALI
 
IBM Bluemix Paris Meetup #27 20171219 - Manipuler des probabilités avec aGrum
IBM Bluemix Paris Meetup #27 20171219 - Manipuler des probabilités avec aGrumIBM Bluemix Paris Meetup #27 20171219 - Manipuler des probabilités avec aGrum
IBM Bluemix Paris Meetup #27 20171219 - Manipuler des probabilités avec aGrumIBM France Lab
 
Neural Network -How it works, an implementation with python-.pdf
Neural Network -How it works, an implementation with python-.pdfNeural Network -How it works, an implementation with python-.pdf
Neural Network -How it works, an implementation with python-.pdfssuseref253b1
 
Presoutenance
PresoutenancePresoutenance
PresoutenanceJun XIONG
 
C# et .NET : Enigmes et puzzles
C# et .NET : Enigmes  et puzzlesC# et .NET : Enigmes  et puzzles
C# et .NET : Enigmes et puzzlesMicrosoft
 
Ch6 Introduction à la Science de Données.pdf
Ch6 Introduction à la Science de Données.pdfCh6 Introduction à la Science de Données.pdf
Ch6 Introduction à la Science de Données.pdfnesrinetaamallah
 
La recherche approchée de motifs : théorie et applications
La recherche approchée de motifs : théorie et applications La recherche approchée de motifs : théorie et applications
La recherche approchée de motifs : théorie et applications Ibrahim Chegrane
 
[Présentation PFE] Conception et implémentation d'un estimateur conjoint de l...
[Présentation PFE] Conception et implémentation d'un estimateur conjoint de l...[Présentation PFE] Conception et implémentation d'un estimateur conjoint de l...
[Présentation PFE] Conception et implémentation d'un estimateur conjoint de l...Yassine Selmi
 
Planification séquentielle pour l'estimation de probabilités de défaillance
Planification séquentielle pour l'estimation de probabilités de défaillancePlanification séquentielle pour l'estimation de probabilités de défaillance
Planification séquentielle pour l'estimation de probabilités de défaillanceJulien Bect
 
L'impact des incriments des séquences de tri Shell. Expérimentation des séque...
L'impact des incriments des séquences de tri Shell. Expérimentation des séque...L'impact des incriments des séquences de tri Shell. Expérimentation des séque...
L'impact des incriments des séquences de tri Shell. Expérimentation des séque...Soumia Elyakote HERMA
 
Programmation en Python CPGE sup management
Programmation en Python CPGE sup managementProgrammation en Python CPGE sup management
Programmation en Python CPGE sup managementOlyvierNzighou1
 

Similar a Modèles numériques coûteux : de la quantification des incertitudes la planification séquentielle d'expériences (20)

FLTauR - Construction de modèles de prévision sous r avec le package caret
FLTauR - Construction de modèles de prévision sous r avec le package caretFLTauR - Construction de modèles de prévision sous r avec le package caret
FLTauR - Construction de modèles de prévision sous r avec le package caret
 
TPs-TDs : Travaux Pratiques & Dérigés (version 2014-2017) Génie Electrique/Ex...
TPs-TDs : Travaux Pratiques & Dérigés (version 2014-2017) Génie Electrique/Ex...TPs-TDs : Travaux Pratiques & Dérigés (version 2014-2017) Génie Electrique/Ex...
TPs-TDs : Travaux Pratiques & Dérigés (version 2014-2017) Génie Electrique/Ex...
 
Tp1 6-141218060317-conversion-gate02
Tp1 6-141218060317-conversion-gate02Tp1 6-141218060317-conversion-gate02
Tp1 6-141218060317-conversion-gate02
 
Cari2020 dembele
Cari2020 dembeleCari2020 dembele
Cari2020 dembele
 
IBM Bluemix Paris Meetup #27 20171219 - Manipuler des probabilités avec aGrum
IBM Bluemix Paris Meetup #27 20171219 - Manipuler des probabilités avec aGrumIBM Bluemix Paris Meetup #27 20171219 - Manipuler des probabilités avec aGrum
IBM Bluemix Paris Meetup #27 20171219 - Manipuler des probabilités avec aGrum
 
Neural Network -How it works, an implementation with python-.pdf
Neural Network -How it works, an implementation with python-.pdfNeural Network -How it works, an implementation with python-.pdf
Neural Network -How it works, an implementation with python-.pdf
 
Asd1
Asd1Asd1
Asd1
 
Algorithme knn
Algorithme knnAlgorithme knn
Algorithme knn
 
Presoutenance
PresoutenancePresoutenance
Presoutenance
 
C# et .NET : Enigmes et puzzles
C# et .NET : Enigmes  et puzzlesC# et .NET : Enigmes  et puzzles
C# et .NET : Enigmes et puzzles
 
Optimisation
OptimisationOptimisation
Optimisation
 
Mise en oeuvre des framework de machines et deep learning v1
Mise en oeuvre des framework de machines et deep learning v1 Mise en oeuvre des framework de machines et deep learning v1
Mise en oeuvre des framework de machines et deep learning v1
 
Rapport stage
Rapport stageRapport stage
Rapport stage
 
Ch6 Introduction à la Science de Données.pdf
Ch6 Introduction à la Science de Données.pdfCh6 Introduction à la Science de Données.pdf
Ch6 Introduction à la Science de Données.pdf
 
La recherche approchée de motifs : théorie et applications
La recherche approchée de motifs : théorie et applications La recherche approchée de motifs : théorie et applications
La recherche approchée de motifs : théorie et applications
 
[Présentation PFE] Conception et implémentation d'un estimateur conjoint de l...
[Présentation PFE] Conception et implémentation d'un estimateur conjoint de l...[Présentation PFE] Conception et implémentation d'un estimateur conjoint de l...
[Présentation PFE] Conception et implémentation d'un estimateur conjoint de l...
 
Planification séquentielle pour l'estimation de probabilités de défaillance
Planification séquentielle pour l'estimation de probabilités de défaillancePlanification séquentielle pour l'estimation de probabilités de défaillance
Planification séquentielle pour l'estimation de probabilités de défaillance
 
L'impact des incriments des séquences de tri Shell. Expérimentation des séque...
L'impact des incriments des séquences de tri Shell. Expérimentation des séque...L'impact des incriments des séquences de tri Shell. Expérimentation des séque...
L'impact des incriments des séquences de tri Shell. Expérimentation des séque...
 
Programmation en Python CPGE sup management
Programmation en Python CPGE sup managementProgrammation en Python CPGE sup management
Programmation en Python CPGE sup management
 
Cours1.pptx
Cours1.pptxCours1.pptx
Cours1.pptx
 

Último

Presentation de la plateforme Moodle - avril 2024
Presentation de la plateforme Moodle - avril 2024Presentation de la plateforme Moodle - avril 2024
Presentation de la plateforme Moodle - avril 2024Gilles Le Page
 
Bernard Réquichot.pptx Peintre français
Bernard Réquichot.pptx   Peintre françaisBernard Réquichot.pptx   Peintre français
Bernard Réquichot.pptx Peintre françaisTxaruka
 
SciencesPo_Aix_InnovationPédagogique_Conférence_SK.pdf
SciencesPo_Aix_InnovationPédagogique_Conférence_SK.pdfSciencesPo_Aix_InnovationPédagogique_Conférence_SK.pdf
SciencesPo_Aix_InnovationPédagogique_Conférence_SK.pdfSKennel
 
Cours SE Le système Linux : La ligne de commande bash - IG IPSET
Cours SE Le système Linux : La ligne de commande bash - IG IPSETCours SE Le système Linux : La ligne de commande bash - IG IPSET
Cours SE Le système Linux : La ligne de commande bash - IG IPSETMedBechir
 
Le Lean sur une ligne de production : Formation et mise en application directe
Le Lean sur une ligne de production : Formation et mise en application directeLe Lean sur une ligne de production : Formation et mise en application directe
Le Lean sur une ligne de production : Formation et mise en application directeXL Groupe
 
Zotero avancé - support de formation doctorants SHS 2024
Zotero avancé - support de formation doctorants SHS 2024Zotero avancé - support de formation doctorants SHS 2024
Zotero avancé - support de formation doctorants SHS 2024Alain Marois
 
Cours SE Gestion des périphériques - IG IPSET
Cours SE Gestion des périphériques - IG IPSETCours SE Gestion des périphériques - IG IPSET
Cours SE Gestion des périphériques - IG IPSETMedBechir
 
Saint Georges, martyr, et la lègend du dragon.pptx
Saint Georges, martyr, et la lègend du dragon.pptxSaint Georges, martyr, et la lègend du dragon.pptx
Saint Georges, martyr, et la lègend du dragon.pptxMartin M Flynn
 
Evaluation du systeme d'Education. Marocpptx
Evaluation du systeme d'Education. MarocpptxEvaluation du systeme d'Education. Marocpptx
Evaluation du systeme d'Education. MarocpptxAsmaa105193
 
SciencesPo_Aix_InnovationPédagogique_Atelier_IA.pdf
SciencesPo_Aix_InnovationPédagogique_Atelier_IA.pdfSciencesPo_Aix_InnovationPédagogique_Atelier_IA.pdf
SciencesPo_Aix_InnovationPédagogique_Atelier_IA.pdfSKennel
 
SciencesPo_Aix_InnovationPédagogique_Atelier_EtudiantActeur.pdf
SciencesPo_Aix_InnovationPédagogique_Atelier_EtudiantActeur.pdfSciencesPo_Aix_InnovationPédagogique_Atelier_EtudiantActeur.pdf
SciencesPo_Aix_InnovationPédagogique_Atelier_EtudiantActeur.pdfSKennel
 
Bibdoc 2024 - Ecologie du livre et creation de badge.pdf
Bibdoc 2024 - Ecologie du livre et creation de badge.pdfBibdoc 2024 - Ecologie du livre et creation de badge.pdf
Bibdoc 2024 - Ecologie du livre et creation de badge.pdfBibdoc 37
 
LA MONTÉE DE L'ÉDUCATION DANS LE MONDE DE LA PRÉHISTOIRE À L'ÈRE CONTEMPORAIN...
LA MONTÉE DE L'ÉDUCATION DANS LE MONDE DE LA PRÉHISTOIRE À L'ÈRE CONTEMPORAIN...LA MONTÉE DE L'ÉDUCATION DANS LE MONDE DE LA PRÉHISTOIRE À L'ÈRE CONTEMPORAIN...
LA MONTÉE DE L'ÉDUCATION DANS LE MONDE DE LA PRÉHISTOIRE À L'ÈRE CONTEMPORAIN...Faga1939
 
Présentation_ Didactique 1_SVT (S4) complet.pptx
Présentation_ Didactique 1_SVT (S4) complet.pptxPrésentation_ Didactique 1_SVT (S4) complet.pptx
Présentation_ Didactique 1_SVT (S4) complet.pptxrababouerdighi
 
le present des verbes reguliers -er.pptx
le present des verbes reguliers -er.pptxle present des verbes reguliers -er.pptx
le present des verbes reguliers -er.pptxmmatar2
 
Principe de fonctionnement d'un moteur 4 temps
Principe de fonctionnement d'un moteur 4 tempsPrincipe de fonctionnement d'un moteur 4 temps
Principe de fonctionnement d'un moteur 4 tempsRajiAbdelghani
 
Bibdoc 2024 - Les maillons de la chaine du livre face aux enjeux écologiques.pdf
Bibdoc 2024 - Les maillons de la chaine du livre face aux enjeux écologiques.pdfBibdoc 2024 - Les maillons de la chaine du livre face aux enjeux écologiques.pdf
Bibdoc 2024 - Les maillons de la chaine du livre face aux enjeux écologiques.pdfBibdoc 37
 
Annie Ernaux Extérieurs. pptx. Exposition basée sur un livre .
Annie   Ernaux  Extérieurs. pptx. Exposition basée sur un livre .Annie   Ernaux  Extérieurs. pptx. Exposition basée sur un livre .
Annie Ernaux Extérieurs. pptx. Exposition basée sur un livre .Txaruka
 
SciencesPo_Aix_InnovationPédagogique_Atelier_FormationRecherche.pdf
SciencesPo_Aix_InnovationPédagogique_Atelier_FormationRecherche.pdfSciencesPo_Aix_InnovationPédagogique_Atelier_FormationRecherche.pdf
SciencesPo_Aix_InnovationPédagogique_Atelier_FormationRecherche.pdfSKennel
 

Último (20)

Presentation de la plateforme Moodle - avril 2024
Presentation de la plateforme Moodle - avril 2024Presentation de la plateforme Moodle - avril 2024
Presentation de la plateforme Moodle - avril 2024
 
Bernard Réquichot.pptx Peintre français
Bernard Réquichot.pptx   Peintre françaisBernard Réquichot.pptx   Peintre français
Bernard Réquichot.pptx Peintre français
 
SciencesPo_Aix_InnovationPédagogique_Conférence_SK.pdf
SciencesPo_Aix_InnovationPédagogique_Conférence_SK.pdfSciencesPo_Aix_InnovationPédagogique_Conférence_SK.pdf
SciencesPo_Aix_InnovationPédagogique_Conférence_SK.pdf
 
Cours SE Le système Linux : La ligne de commande bash - IG IPSET
Cours SE Le système Linux : La ligne de commande bash - IG IPSETCours SE Le système Linux : La ligne de commande bash - IG IPSET
Cours SE Le système Linux : La ligne de commande bash - IG IPSET
 
Le Lean sur une ligne de production : Formation et mise en application directe
Le Lean sur une ligne de production : Formation et mise en application directeLe Lean sur une ligne de production : Formation et mise en application directe
Le Lean sur une ligne de production : Formation et mise en application directe
 
Zotero avancé - support de formation doctorants SHS 2024
Zotero avancé - support de formation doctorants SHS 2024Zotero avancé - support de formation doctorants SHS 2024
Zotero avancé - support de formation doctorants SHS 2024
 
Cours SE Gestion des périphériques - IG IPSET
Cours SE Gestion des périphériques - IG IPSETCours SE Gestion des périphériques - IG IPSET
Cours SE Gestion des périphériques - IG IPSET
 
Saint Georges, martyr, et la lègend du dragon.pptx
Saint Georges, martyr, et la lègend du dragon.pptxSaint Georges, martyr, et la lègend du dragon.pptx
Saint Georges, martyr, et la lègend du dragon.pptx
 
Evaluation du systeme d'Education. Marocpptx
Evaluation du systeme d'Education. MarocpptxEvaluation du systeme d'Education. Marocpptx
Evaluation du systeme d'Education. Marocpptx
 
DO PALÁCIO À ASSEMBLEIA .
DO PALÁCIO À ASSEMBLEIA                 .DO PALÁCIO À ASSEMBLEIA                 .
DO PALÁCIO À ASSEMBLEIA .
 
SciencesPo_Aix_InnovationPédagogique_Atelier_IA.pdf
SciencesPo_Aix_InnovationPédagogique_Atelier_IA.pdfSciencesPo_Aix_InnovationPédagogique_Atelier_IA.pdf
SciencesPo_Aix_InnovationPédagogique_Atelier_IA.pdf
 
SciencesPo_Aix_InnovationPédagogique_Atelier_EtudiantActeur.pdf
SciencesPo_Aix_InnovationPédagogique_Atelier_EtudiantActeur.pdfSciencesPo_Aix_InnovationPédagogique_Atelier_EtudiantActeur.pdf
SciencesPo_Aix_InnovationPédagogique_Atelier_EtudiantActeur.pdf
 
Bibdoc 2024 - Ecologie du livre et creation de badge.pdf
Bibdoc 2024 - Ecologie du livre et creation de badge.pdfBibdoc 2024 - Ecologie du livre et creation de badge.pdf
Bibdoc 2024 - Ecologie du livre et creation de badge.pdf
 
LA MONTÉE DE L'ÉDUCATION DANS LE MONDE DE LA PRÉHISTOIRE À L'ÈRE CONTEMPORAIN...
LA MONTÉE DE L'ÉDUCATION DANS LE MONDE DE LA PRÉHISTOIRE À L'ÈRE CONTEMPORAIN...LA MONTÉE DE L'ÉDUCATION DANS LE MONDE DE LA PRÉHISTOIRE À L'ÈRE CONTEMPORAIN...
LA MONTÉE DE L'ÉDUCATION DANS LE MONDE DE LA PRÉHISTOIRE À L'ÈRE CONTEMPORAIN...
 
Présentation_ Didactique 1_SVT (S4) complet.pptx
Présentation_ Didactique 1_SVT (S4) complet.pptxPrésentation_ Didactique 1_SVT (S4) complet.pptx
Présentation_ Didactique 1_SVT (S4) complet.pptx
 
le present des verbes reguliers -er.pptx
le present des verbes reguliers -er.pptxle present des verbes reguliers -er.pptx
le present des verbes reguliers -er.pptx
 
Principe de fonctionnement d'un moteur 4 temps
Principe de fonctionnement d'un moteur 4 tempsPrincipe de fonctionnement d'un moteur 4 temps
Principe de fonctionnement d'un moteur 4 temps
 
Bibdoc 2024 - Les maillons de la chaine du livre face aux enjeux écologiques.pdf
Bibdoc 2024 - Les maillons de la chaine du livre face aux enjeux écologiques.pdfBibdoc 2024 - Les maillons de la chaine du livre face aux enjeux écologiques.pdf
Bibdoc 2024 - Les maillons de la chaine du livre face aux enjeux écologiques.pdf
 
Annie Ernaux Extérieurs. pptx. Exposition basée sur un livre .
Annie   Ernaux  Extérieurs. pptx. Exposition basée sur un livre .Annie   Ernaux  Extérieurs. pptx. Exposition basée sur un livre .
Annie Ernaux Extérieurs. pptx. Exposition basée sur un livre .
 
SciencesPo_Aix_InnovationPédagogique_Atelier_FormationRecherche.pdf
SciencesPo_Aix_InnovationPédagogique_Atelier_FormationRecherche.pdfSciencesPo_Aix_InnovationPédagogique_Atelier_FormationRecherche.pdf
SciencesPo_Aix_InnovationPédagogique_Atelier_FormationRecherche.pdf
 

Modèles numériques coûteux : de la quantification des incertitudes la planification séquentielle d'expériences

  • 1. Modèles numériques coûteux : de la quantification des incertitudes à la planification séquentielle d’expériences (approche bayésienne) Julien Bect SUPELEC — IRT SystemX — GdR MASCOT-NUM Séminaire LRC MANON 3 mars 2014 Julien Bect (SUPELEC) Computer experiments 3/3/2014 1 / 38
  • 2. 1 Introduction : exploration de modèles numériques coûteux 2 Exemple : planification séquentielle pour l’optimisation globale 3 Quantification et réduction séquentielle de l’incertitude 4 Bayesian Subset Simulation : un autre exemple de planification séquentielle 5 Conclusion Julien Bect (SUPELEC) Computer experiments 3/3/2014 2 / 38
  • 3. « Expériences numériques » (computer experiments) 1/2 x ∈ X ⊂ Rd ξ(x) ∈ Rp Soit ξ : X → Rp un modèle numérique d’un système à concevoir ou à étudier (fiabilité), d’un phénomène physique ou biologique, . . . Julien Bect (SUPELEC) Computer experiments 3/3/2014 3 / 38
  • 4. « Expériences numériques » (computer experiments) 1/2 x ∈ X ⊂ Rd ξ(x) ∈ Rp Soit ξ : X → Rp un modèle numérique d’un système à concevoir ou à étudier (fiabilité), d’un phénomène physique ou biologique, . . . x : facteurs paramètres de conception (à choisir), paramètres physiques (éventuellement mal connus), . . . Julien Bect (SUPELEC) Computer experiments 3/3/2014 3 / 38
  • 5. « Expériences numériques » (computer experiments) 1/2 x ∈ X ⊂ Rd ξ(x) ∈ Rp Soit ξ : X → Rp un modèle numérique d’un système à concevoir ou à étudier (fiabilité), d’un phénomène physique ou biologique, . . . x : facteurs paramètres de conception (à choisir), paramètres physiques (éventuellement mal connus), . . . Qu’entendons-nous par « expérience numérique » ? une expérience ≡ évaluer une réponse ξ(x) du code chaque expérience coûte (souvent, du temps !) budget d’expériences limité Julien Bect (SUPELEC) Computer experiments 3/3/2014 3 / 38
  • 6. « Expériences numériques » (computer experiments) 2/2 x ∈ X ⊂ Rd ξ(x) ∈ Rp Point de vue du statisticien le code est une « boîte noire » on veut obtenir des informations sur ξ à partir d’un échantillon : y1 = ξ(x1), y2 = ξ(x2), . . . Julien Bect (SUPELEC) Computer experiments 3/3/2014 4 / 38
  • 7. « Expériences numériques » (computer experiments) 2/2 x ∈ X ⊂ Rd ξ(x) ∈ Rp Point de vue du statisticien le code est une « boîte noire » on veut obtenir des informations sur ξ à partir d’un échantillon : y1 = ξ(x1), y2 = ξ(x2), . . . Deux aspects, comme en statistique « classique » planifier les calculs (choisir x1, x2, . . . ) analyser les résultats et quantifier les incertitudes Julien Bect (SUPELEC) Computer experiments 3/3/2014 4 / 38
  • 8. « Expériences numériques » (computer experiments) 2/2 x ∈ X ⊂ Rd ξ(x) ∈ Rp Point de vue du statisticien le code est une « boîte noire » on veut obtenir des informations sur ξ à partir d’un échantillon : y1 = ξ(x1), y2 = ξ(x2), . . . Deux aspects, comme en statistique « classique » planifier les calculs (choisir x1, x2, . . . ) analyser les résultats et quantifier les incertitudes Planification séquentielle planifier chaque calcul en fonction des précédents couplage planification / analyse Julien Bect (SUPELEC) Computer experiments 3/3/2014 4 / 38
  • 9. Exemple 1 : optimisation de forme (Renault) Contexte : CAO calculs de CFD 3D thèse de J. Villemonteix (2008) encadrement : E. Vazquez, M. Sidorkiewicz et E. Walter Objectif(s) optimiser la forme du conduit d’admission maximiser les performances du moteur minimiser les émissions de polluant Caractéristiques ≈ 1 h / calcul 6 paramètres de forme à ajuster Julien Bect (SUPELEC) Computer experiments 3/3/2014 5 / 38
  • 10. Exemple 2 : projet BEMUSE (CEA, IRSN, . . . ) Contexte : sûreté nucléaire calculs thermo-hydrauliques réalisés avec le logiciel CATHARE benchmark international (de Crécy et al., NED, 2008) Scenario perte de réfrigérant due à une brèche grandeur d’intérêt : température max. Caractéristiques ≈ 10 minutes / calcul 53 paramètres incertains Principaux objectifs estimation d’un quantile de Tmax analyse de sensibilité (B. Iooss, J. Nat. Fiabilité, 2010) Julien Bect (SUPELEC) Computer experiments 3/3/2014 6 / 38
  • 11. Exemple 3 : étude d’un risque de crue (EDF R&D) Contexte : sûreté des installations calculs d’hydraulique équ. de Saint Venant 1D ou 2D logiciels MASCARET (1D) OpenTELEMAC (2D) http://www.opentelemac.org projet ANR OPUS Scenario étude du risque de crue facteurs : débit, coeff. de Strickler réponse : hauteur d’eau H Principaux objectifs propagation d’incertitudes estimation d’un quantile sur H analyse de sensibilité (M. Couplet et al, JdS 2010 ; Arnaud et al, JdS 2010) Julien Bect (SUPELEC) Computer experiments 3/3/2014 7 / 38
  • 12. Objectif(s) : ce que l’on veut savoir sur ξ Construire un « méta-modèle » : approximation peu coûteuse approximation globale, sur l’ensemble du domaine X, ou locale, par ex. précise au voisinage d’un seuil Julien Bect (SUPELEC) Computer experiments 3/3/2014 8 / 38
  • 13. Objectif(s) : ce que l’on veut savoir sur ξ Construire un « méta-modèle » : approximation peu coûteuse approximation globale, sur l’ensemble du domaine X, ou locale, par ex. précise au voisinage d’un seuil Chercher un optimum de performance ou un pire cas chercher x∗ = argmax ξ et/ou ξ∗ = ξ(x∗ ) optimisation multi-objectif / sous contraintes / robuste / . . . estimer un ensemble admissible : {x ∈ X, ξ(x) > ξcrit} Julien Bect (SUPELEC) Computer experiments 3/3/2014 8 / 38
  • 14. Objectif(s) : ce que l’on veut savoir sur ξ Construire un « méta-modèle » : approximation peu coûteuse approximation globale, sur l’ensemble du domaine X, ou locale, par ex. précise au voisinage d’un seuil Chercher un optimum de performance ou un pire cas chercher x∗ = argmax ξ et/ou ξ∗ = ξ(x∗ ) optimisation multi-objectif / sous contraintes / robuste / . . . estimer un ensemble admissible : {x ∈ X, ξ(x) > ξcrit} Propagation d’incertitude : X ∼ PX estimer une proba de défaillance : PX (ξ(X) > ξcrit) estimer un quantile caractériser la loi de Y = ξ(X) réaliser une analyse de sensibilité . . . Julien Bect (SUPELEC) Computer experiments 3/3/2014 8 / 38
  • 15. Objectif(s) : ce que l’on veut savoir sur ξ Construire un « méta-modèle » : approximation peu coûteuse approximation globale, sur l’ensemble du domaine X, ou locale, par ex. précise au voisinage d’un seuil Chercher un optimum de performance ou un pire cas chercher x∗ = argmax ξ et/ou ξ∗ = ξ(x∗ ) optimisation multi-objectif / sous contraintes / robuste / . . . estimer un ensemble admissible : {x ∈ X, ξ(x) > ξcrit} Propagation d’incertitude : X ∼ PX estimer une proba de défaillance : PX (ξ(X) > ξcrit) estimer un quantile caractériser la loi de Y = ξ(X) réaliser une analyse de sensibilité . . . En pratique : bien souvent, un mélange de tous ces objectifs ! Julien Bect (SUPELEC) Computer experiments 3/3/2014 8 / 38
  • 16. Diversité des codes de calculs Cadre computer experiments traditionnel code de calcul déterministe, (plus ou moins) coûteux différence importante avec les expériences physique : faire des répétitions n’a pas de sens ! Julien Bect (SUPELEC) Computer experiments 3/3/2014 9 / 38
  • 17. Diversité des codes de calculs Cadre computer experiments traditionnel code de calcul déterministe, (plus ou moins) coûteux différence importante avec les expériences physique : faire des répétitions n’a pas de sens ! Simulateurs stochastiques sortie aléatoire : x → ξ(x) + bruit Multi-fidélité plusieurs simulateurs, plus ou moins précis exemple : 1D / 2D / 3D simulateur à précision « ajustable » exemple : pas de discrétisation, tolérance, . . . Julien Bect (SUPELEC) Computer experiments 3/3/2014 9 / 38
  • 18. Diversité des codes de calculs Cadre computer experiments traditionnel code de calcul déterministe, (plus ou moins) coûteux différence importante avec les expériences physique : faire des répétitions n’a pas de sens ! Simulateurs stochastiques sortie aléatoire : x → ξ(x) + bruit Multi-fidélité plusieurs simulateurs, plus ou moins précis exemple : 1D / 2D / 3D simulateur à précision « ajustable » exemple : pas de discrétisation, tolérance, . . . Disponibilité du gradient ? souvent, pas de gradient disponible exception : code adjoint Julien Bect (SUPELEC) Computer experiments 3/3/2014 9 / 38
  • 19. 1 Introduction : exploration de modèles numériques coûteux 2 Exemple : planification séquentielle pour l’optimisation globale 3 Quantification et réduction séquentielle de l’incertitude 4 Bayesian Subset Simulation : un autre exemple de planification séquentielle 5 Conclusion Julien Bect (SUPELEC) Computer experiments 3/3/2014 10 / 38
  • 20. Optimisation globale On considère un problème d’optimisation globale fonction ξ a priori multimodale évaluations coûteuses, gradient supposé non disponible 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 x ξ(x) Julien Bect (SUPELEC) Computer experiments 3/3/2014 11 / 38
  • 21. Optimisation globale On considère un problème d’optimisation globale fonction ξ a priori multimodale évaluations coûteuses, gradient supposé non disponible 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 x ξ(x) Problème Quelle planification (séquentielle) d’expériences utiliser ? Julien Bect (SUPELEC) Computer experiments 3/3/2014 11 / 38
  • 22. Utilisation d’un méta-modèle Méta-modèle ? modèle simplifié de ξ, plus rapide à évaluer exemples : krigeage, RBF, réseau de neurones. . . cas d’observations sans bruit −→ interpolation en général Un algorithme simple utilisant un méta-modèle 1 init : remplir X avec n0 < N points 2 pour n = n0 + 1 : N, ajuster un méta-modèle aux données x1, ξ(x1), . . . , xn−1, ξ(xn−1) utiliser ce méta-modèle pour choisir xn 3 renvoyer ˆx∗ = argmax1≤i≤n ξ(xi) et ˆξ∗ = ξ (ˆx∗ ) Julien Bect (SUPELEC) Computer experiments 3/3/2014 12 / 38
  • 23. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage (point de vue interpolation) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 x ξ(x) n = n0 = 4 Julien Bect (SUPELEC) Computer experiments 3/3/2014 13 / 38
  • 24. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage (point de vue interpolation) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 x ξ(x) n = n0 = 4 Julien Bect (SUPELEC) Computer experiments 3/3/2014 13 / 38
  • 25. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage (point de vue interpolation) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 x ξ(x) n = 5 Julien Bect (SUPELEC) Computer experiments 3/3/2014 13 / 38
  • 26. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage (point de vue interpolation) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 x ξ(x) n = 6 Julien Bect (SUPELEC) Computer experiments 3/3/2014 13 / 38
  • 27. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage (point de vue interpolation) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 x ξ(x) n = 7 Julien Bect (SUPELEC) Computer experiments 3/3/2014 13 / 38
  • 28. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage (point de vue interpolation) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 x ξ(x) n = 8 Julien Bect (SUPELEC) Computer experiments 3/3/2014 13 / 38
  • 29. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage (point de vue interpolation) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 x ξ(x) n = 9 Julien Bect (SUPELEC) Computer experiments 3/3/2014 13 / 38
  • 30. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage (point de vue interpolation) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 x ξ(x) n = 10 Julien Bect (SUPELEC) Computer experiments 3/3/2014 13 / 38
  • 31. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage (point de vue interpolation) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 x ξ(x) n = 11 Julien Bect (SUPELEC) Computer experiments 3/3/2014 13 / 38
  • 32. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage (point de vue interpolation) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 x ξ(x) n = 12 Julien Bect (SUPELEC) Computer experiments 3/3/2014 13 / 38
  • 33. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage (point de vue interpolation) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 x ξ(x) n = 13 Convergence vers un maximum local ! Julien Bect (SUPELEC) Computer experiments 3/3/2014 13 / 38
  • 34. Principes de l’optimisation bayésienne Constat essentiel Nécessité de réaliser un compromis entre exploitation des régions prometteuses, exploration des régions mal connues. Julien Bect (SUPELEC) Computer experiments 3/3/2014 14 / 38
  • 35. Principes de l’optimisation bayésienne Constat essentiel Nécessité de réaliser un compromis entre exploitation des régions prometteuses, exploration des régions mal connues. Solution bayésienne Nécessité de quantifier l’incertitude pour faire des choix rationnels. La théorie bayésienne de la décision fournit un cadre cohérent → représentation probabiliste de l’incertitude. Repères biblio de base : H. Kushner (1964) : critère PI J. Mockus et A. Žilinskas (70’s) : critère EI D. Jones et al. (1998) : algorithme « EGO » Harold Kushner Antanas ˘Zilinskas Jonas Mockus Julien Bect (SUPELEC) Computer experiments 3/3/2014 14 / 38
  • 36. Loi a priori / a posteriori Informations a priori sur ξ −→ processus aléatoire, i.e. P0 = P (ξ ∈ · | I0) régularité (dérivabilité, vitesse de variation, . . . ) « tendance » (linéaire, quadratique, . . . ) symétries, monotonie, . . . Julien Bect (SUPELEC) Computer experiments 3/3/2014 15 / 38
  • 37. Loi a priori / a posteriori Informations a priori sur ξ −→ processus aléatoire, i.e. P0 = P (ξ ∈ · | I0) régularité (dérivabilité, vitesse de variation, . . . ) « tendance » (linéaire, quadratique, . . . ) symétries, monotonie, . . . Mise à jour des connaissances après n évaluations, on a appris : ξn = (ξ(x1), . . . , ξ(xn)) loi a posteriori Pn = P0 (ξ ∈ · | ξn) Julien Bect (SUPELEC) Computer experiments 3/3/2014 15 / 38
  • 38. Loi a priori / a posteriori Informations a priori sur ξ −→ processus aléatoire, i.e. P0 = P (ξ ∈ · | I0) régularité (dérivabilité, vitesse de variation, . . . ) « tendance » (linéaire, quadratique, . . . ) symétries, monotonie, . . . Mise à jour des connaissances après n évaluations, on a appris : ξn = (ξ(x1), . . . , ξ(xn)) loi a posteriori Pn = P0 (ξ ∈ · | ξn) Remarque importante ˆξn(x) = E0 (ξ(x) | ξn) est un méta-modèle naturel dans ce cadre. . . . . . mais Pn contient beaucoup plus d’information ! Julien Bect (SUPELEC) Computer experiments 3/3/2014 15 / 38
  • 39. Illustration Modèle : processus gaussien (covariance de Matérn, σ2 = 9, ν = 2, ρ = 0.5) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −12 −10 −8 −6 −4 −2 0 2 4 6 8 x ξ(x) Simulations sous la loi a priori P0 Julien Bect (SUPELEC) Computer experiments 3/3/2014 16 / 38
  • 40. Illustration Modèle : processus gaussien (covariance de Matérn, σ2 = 9, ν = 2, ρ = 0.5) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 x ξ(x) Moyenne a posteriori (i.e., moyenne sous Pn0 ) et intervalles ponctuels de crédibilité à 95% Julien Bect (SUPELEC) Computer experiments 3/3/2014 16 / 38
  • 41. Illustration Modèle : processus gaussien (covariance de Matérn, σ2 = 9, ν = 2, ρ = 0.5) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −4 −3 −2 −1 0 1 2 3 x ξ(x) Simulations sous la loi a posteriori Pn0 Julien Bect (SUPELEC) Computer experiments 3/3/2014 16 / 38
  • 42. Comment choisir xn+1 connaissant I0, ξn ? 1 En utilisant la loi a posteriori, on construit un critère d’échantillonnage x ∈ X → Jn (x; I0, ξn) qui mesure l’intérêt d’une évaluation en x. 2 On choisit le prochain point à l’aide de ce critère xn+1 = argmax x∈X Jn (x; I0, ξn) Julien Bect (SUPELEC) Computer experiments 3/3/2014 17 / 38
  • 43. Comment choisir xn+1 connaissant I0, ξn ? 1 En utilisant la loi a posteriori, on construit un critère d’échantillonnage x ∈ X → Jn (x; I0, ξn) qui mesure l’intérêt d’une évaluation en x. 2 On choisit le prochain point à l’aide de ce critère xn+1 = argmax x∈X Jn (x; I0, ξn) Un critère très utilisé : expected improvement (EI) Jn (x; I0, ξn) = E ((ξ(x) − Mn)+ | I0, ξn) avec Mn = max (ξ(x1), . . . , ξ(xn)). Julien Bect (SUPELEC) Computer experiments 3/3/2014 17 / 38
  • 44. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ2 = 9, ν = 2, ρ = 0.5) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 x ξ(x) n = n0 = 4 Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
  • 45. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ2 = 9, ν = 2, ρ = 0.5) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1 0 1 2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.1 0.2 0.3 0.4 EI x ξ(x) Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
  • 46. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ2 = 9, ν = 2, ρ = 0.5) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1 0 1 2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.05 0.1 0.15 0.2 EI x ξ(x) Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
  • 47. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ2 = 9, ν = 2, ρ = 0.5) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1 0 1 2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 EI x ξ(x) Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
  • 48. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ2 = 9, ν = 2, ρ = 0.5) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1 0 1 2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.005 0.01 0.015 0.02 0.025 0.03 EI x ξ(x) Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
  • 49. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ2 = 9, ν = 2, ρ = 0.5) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1 0 1 2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.005 0.01 0.015 0.02 0.025 EI x ξ(x) Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
  • 50. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ2 = 9, ν = 2, ρ = 0.5) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1 0 1 2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.002 0.004 0.006 0.008 0.01 EI x ξ(x) Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
  • 51. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ2 = 9, ν = 2, ρ = 0.5) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1 0 1 2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 1 2 3 4 5 6 x 10 −3 EI x ξ(x) Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
  • 52. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ2 = 9, ν = 2, ρ = 0.5) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1 0 1 2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.5 1 1.5 2 2.5 3 x 10 −3 EI x ξ(x) Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
  • 53. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ2 = 9, ν = 2, ρ = 0.5) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1 0 1 2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.5 1 1.5 2 2.5 x 10 −3 EI x ξ(x) Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
  • 54. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ2 = 9, ν = 2, ρ = 0.5) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1 0 1 2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.005 0.01 0.015 0.02 EI x ξ(x) Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
  • 55. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ2 = 9, ν = 2, ρ = 0.5) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1 0 1 2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 EI x ξ(x) Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
  • 56. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ2 = 9, ν = 2, ρ = 0.5) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1 0 1 2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.005 0.01 0.015 0.02 EI x ξ(x) Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
  • 57. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ2 = 9, ν = 2, ρ = 0.5) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1 0 1 2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.2 0.4 0.6 0.8 1 x 10 −3 EI x ξ(x) Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
  • 58. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ2 = 9, ν = 2, ρ = 0.5) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1 0 1 2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 2 4 6 8 x 10 −8 EI x ξ(x) Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
  • 59. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ2 = 9, ν = 2, ρ = 0.5) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −2 −1 0 1 2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.5 1 1.5 2 x 10 −8 EI x ξ(x) On finit (presque) toujours par explorer les zones « vides » ! cf. théorème(s) de convergence, Vazquez et Bect, 2010 Julien Bect (SUPELEC) Computer experiments 3/3/2014 18 / 38
  • 60. 1 Introduction : exploration de modèles numériques coûteux 2 Exemple : planification séquentielle pour l’optimisation globale 3 Quantification et réduction séquentielle de l’incertitude 4 Bayesian Subset Simulation : un autre exemple de planification séquentielle 5 Conclusion Julien Bect (SUPELEC) Computer experiments 3/3/2014 19 / 38
  • 61. Planifier pour estimer une quantité d’intérêt Soit une quantité d’intérêt θ = θ (ξ), par exemple M∗ = maxx∈X ξ(x) X∗ = argmaxx∈X ξ(x) Γ = {x ∈ X : ξ(x) > T} α = X 1Γ dµ Problème Comment planifier (séquentiellement) les expériences numériques pour estimer au mieux la quantité d’intérêt θ ? Julien Bect (SUPELEC) Computer experiments 3/3/2014 20 / 38
  • 62. Planifier pour estimer une quantité d’intérêt Soit une quantité d’intérêt θ = θ (ξ), par exemple M∗ = maxx∈X ξ(x) X∗ = argmaxx∈X ξ(x) Γ = {x ∈ X : ξ(x) > T} α = X 1Γ dµ Problème Comment planifier (séquentiellement) les expériences numériques pour estimer au mieux la quantité d’intérêt θ ? Un schéma de réponse générique 1 Quantification de l’incertitude (approche bayésienne) 2 Réduction séquentielle de l’incertitude Julien Bect (SUPELEC) Computer experiments 3/3/2014 20 / 38
  • 63. Quantification de l’incertitude Approche bayésienne : notations P0 : loi a priori sur ξ (ex : loi d’un processus gaussien) X1, . . . , Xn : points d’évaluations ATTENTION : les points d’évaluations dépendent de ξ, en séquentiel In = (X1, ξ(X1), . . . , Xn, ξ(Xn)) : information acquise au temps n Pn = P0 (· | In) : loi a posteriori Julien Bect (SUPELEC) Computer experiments 3/3/2014 21 / 38
  • 64. Quantification de l’incertitude Approche bayésienne : notations P0 : loi a priori sur ξ (ex : loi d’un processus gaussien) X1, . . . , Xn : points d’évaluations ATTENTION : les points d’évaluations dépendent de ξ, en séquentiel In = (X1, ξ(X1), . . . , Xn, ξ(Xn)) : information acquise au temps n Pn = P0 (· | In) : loi a posteriori Choix d’une mesure d’incertitude On se donne une mesure d’incertitude Hn (risque) dépendant de In techniquement : Hn est une fonction mesurable de In Typiquement : Hn = En C θ(ξ), ˆθn , avec ˆθn un estimateur de θ C une fonction de coût (par ex : une distance) Julien Bect (SUPELEC) Computer experiments 3/3/2014 21 / 38
  • 65. Exemple : optimisation Quantité d’intérêt : M∗ = maxx∈X ξ(x) (et/ou X∗ = argmaxx∈X ξ(x)) Choix d’une mesure d’incertitude Mesure d’incertitude classique (cf. Mockus & Žilinskas ; années 70) : Hn = En (M∗ − Mn) , où Mn = max1≤i≤n ξ(Xi). Justification : M∗ ≥ Mn ps, donc par l’inégalité de Markov : Pn (M∗ > Mn + c) ≤ En (M∗ − Mn) c Julien Bect (SUPELEC) Computer experiments 3/3/2014 22 / 38
  • 66. Exemple : optimisation Quantité d’intérêt : M∗ = maxx∈X ξ(x) (et/ou X∗ = argmaxx∈X ξ(x)) Choix d’une mesure d’incertitude Mesure d’incertitude classique (cf. Mockus & Žilinskas ; années 70) : Hn = En (M∗ − Mn) , où Mn = max1≤i≤n ξ(Xi). Justification : M∗ ≥ Mn ps, donc par l’inégalité de Markov : Pn (M∗ > Mn + c) ≤ En (M∗ − Mn) c Autre possibilité : Hn = H (X∗ | In) entropie conditionnelle du maximiseur cf. algorithm IAGO, Villemonteix et al (2009) Julien Bect (SUPELEC) Computer experiments 3/3/2014 22 / 38
  • 67. Exemple : ensemble d’excursion (1/2) Quantité d’intérêt : Γ = {x ∈ X : ξ(x) > T} ou α = X 1Γ dµ Choix d’une mesure d’incertitude Un choix possible (Bect et al. (2012) ; Chevalier (2013)) : Hn = En 1Γ − pn 2 L2(µ) = X varn (1Γ(x)) dµ(x), où pn(x) = Pn (ξ(x) > T) est la « fonction de classification douce » induite par ξ | In au seuil T. Remarque : il s’agit d’un critère de type IMSE (MSE intégrée) Julien Bect (SUPELEC) Computer experiments 3/3/2014 23 / 38
  • 68. Exemple : ensemble d’excursion (1/2) Quantité d’intérêt : Γ = {x ∈ X : ξ(x) > T} ou α = X 1Γ dµ Choix d’une mesure d’incertitude Un choix possible (Bect et al. (2012) ; Chevalier (2013)) : Hn = En 1Γ − pn 2 L2(µ) = X varn (1Γ(x)) dµ(x), où pn(x) = Pn (ξ(x) > T) est la « fonction de classification douce » induite par ξ | In au seuil T. Remarque : il s’agit d’un critère de type IMSE (MSE intégrée) Quelques autres critères dans la litérature : variance de α (Vazquez & Piera Martinez, 2007 ; Chevalier et al, 2014) tIMSE : IMSE « ciblée » (Picheny et al, 2010) déviation de Vorob’ev (Chevalier et al, 2013) Julien Bect (SUPELEC) Computer experiments 3/3/2014 23 / 38
  • 69. Exemple : ensemble d’excursion (2/2) Même modèle que précédemment ; seuil T = 0. 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −4 −2 0 2 4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.5 1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.1 0.2 0.3 0.4 x ξpnpn(1−pn) Julien Bect (SUPELEC) Computer experiments 3/3/2014 24 / 38
  • 70. Planification : stratégie bayésienne optimale (1/3) Supposons que l’on dispose d’un budget de N évaluations. On veut choisir une stratégie de planification séquentielle (non randomisée) : X1 = x1, X2 = ϕ1 (X1, ξ(X1)) , X3 = ϕ2 (X1, ξ(X1), X2, ξ(X2)) , . . . = . . . Xn = ϕn−1 (X1, ξ(X1), . . . , Xn−1, ξ(Xn−1)) Stratégie bayésienne optimale Ayant choisi un apriori P0 et une mesure d’incertitude HN , on voudrait minimiser E0 (HN ) par rapport à x1, ϕ1, ϕ2, . . . , ϕn−1. Julien Bect (SUPELEC) Computer experiments 3/3/2014 25 / 38
  • 71. Planification : stratégie bayésienne optimale (2/3) Posons En,x = En (· | Xn+1 = x). Commençons petit : supposons N = 1. Alors X∗ 1 = argmin x1 E0,x1 (H1) Souvent, si ξ est un processus gaussien sous P0, on sait calculer (ou approcher) l’espérance pour l’argmin : optimisation numérique. Julien Bect (SUPELEC) Computer experiments 3/3/2014 26 / 38
  • 72. Planification : stratégie bayésienne optimale (2/3) Posons En,x = En (· | Xn+1 = x). Commençons petit : supposons N = 1. Alors X∗ 1 = argmin x1 E0,x1 (H1) Souvent, si ξ est un processus gaussien sous P0, on sait calculer (ou approcher) l’espérance pour l’argmin : optimisation numérique. Un peu plus ambitieux : N = 2. Alors X∗ 1 = argmin x1 E0,x1 min x2 E1,x2 (H2) . Le calcul, même approché, de X∗ 1 devient très difficile. . . (même si on prend ξ gaussien sous Po !) Julien Bect (SUPELEC) Computer experiments 3/3/2014 26 / 38
  • 73. Planification : stratégie bayésienne optimale (3/3) Stratégie bayésienne optimale Pour un horizon N quelconque, la stratégie optimale s’exprime comme solution d’un problème de programmation dynamique. Dernier pas : X∗ N = argmin xN EN−1,xN (HN ) , R∗ N−1 = EN−1,X∗ N (HN ) . Puis, récursivement (n = N − 1, N − 2 . . .) : X∗ n = argmin xn En−1,xn (R∗ n) , R∗ n−1 = En−1,X∗ n (R∗ n) . R∗ n est le risque bayésien au temps n. Julien Bect (SUPELEC) Computer experiments 3/3/2014 27 / 38
  • 74. Planification : stratégies bayésienne myopes Principe général pour la construction de stratégies approchées : Xn = argmin xn En−1,xn Rn , où Rn est un substitut au risque bayésien (fidèle, si possible). Julien Bect (SUPELEC) Computer experiments 3/3/2014 28 / 38
  • 75. Planification : stratégies bayésienne myopes Principe général pour la construction de stratégies approchées : Xn = argmin xn En−1,xn Rn , où Rn est un substitut au risque bayésien (fidèle, si possible). Dans la plupart des travaux en planif. séquentielle d’expériences numériques : Xn = argmin xn En−1,xn (Hn) . On parle de stratégie bayésienne myope à un pas (ou « gloutonne »). Julien Bect (SUPELEC) Computer experiments 3/3/2014 28 / 38
  • 76. Exemple : optimisation (suite) Comme précédemment, on prend Quantité d’intérêt : M∗ = maxx∈X ξ(x), Mesure d’incertitude classique : Hn = En (M∗ − Mn). Julien Bect (SUPELEC) Computer experiments 3/3/2014 29 / 38
  • 77. Exemple : optimisation (suite) Comme précédemment, on prend Quantité d’intérêt : M∗ = maxx∈X ξ(x), Mesure d’incertitude classique : Hn = En (M∗ − Mn). Calcul de la stratégie myope à un pas : Xn = argmin xn En−1,xn (Hn) = argmin xn En−1,xn (M∗ − Mn) = argmin xn [En−1,xn (M∗ − Mn−1) − En−1,xn (Mn − Mn−1)] Julien Bect (SUPELEC) Computer experiments 3/3/2014 29 / 38
  • 78. Exemple : optimisation (suite) Comme précédemment, on prend Quantité d’intérêt : M∗ = maxx∈X ξ(x), Mesure d’incertitude classique : Hn = En (M∗ − Mn). Calcul de la stratégie myope à un pas : Xn = argmin xn En−1,xn (Hn) = argmin xn En−1,xn (M∗ − Mn) = argmin xn [En−1,xn (M∗ − Mn−1) − En−1,xn (Mn − Mn−1)] = argmax xn En−1,xn (Mn − Mn−1) = argmax xn En−1,xn (ξ(xn) − Mn−1)+ Expected Improvement (EI) Julien Bect (SUPELEC) Computer experiments 3/3/2014 29 / 38
  • 79. Exemple : ensemble d’excursion (suite) Comme précédemment, on prend Quantité d’intérêt : Γ = {x ∈ X : ξ(x) > T}, Mesure d’incertitude classique : Hn = En 1Γ − pn 2 L2(µ) . Julien Bect (SUPELEC) Computer experiments 3/3/2014 30 / 38
  • 80. Exemple : ensemble d’excursion (suite) Comme précédemment, on prend Quantité d’intérêt : Γ = {x ∈ X : ξ(x) > T}, Mesure d’incertitude classique : Hn = En 1Γ − pn 2 L2(µ) . Calcul de la stratégie myope à un pas : Xn = argmin xn En−1,xn (Hn) = argmin xn En−1,xn X pn (1 − pn) dµ Julien Bect (SUPELEC) Computer experiments 3/3/2014 30 / 38
  • 81. Exemple : ensemble d’excursion (suite) Comme précédemment, on prend Quantité d’intérêt : Γ = {x ∈ X : ξ(x) > T}, Mesure d’incertitude classique : Hn = En 1Γ − pn 2 L2(µ) . Calcul de la stratégie myope à un pas : Xn = argmin xn En−1,xn (Hn) = argmin xn En−1,xn X pn (1 − pn) dµ ≈ argmin xn 1 m m j=1 En−1,xn pn(Yj) (1 − pn(Yj)) avec Y1, . . . , Ym iid ∼ µ Remarque : voir Chevalier et al (in press) pour l’évaluation numérique rapide de l’expression En−1,xn pn(y) (1 − pn(y)) lorsque ξ ∼ GP. Julien Bect (SUPELEC) Computer experiments 3/3/2014 30 / 38
  • 82. 1 Introduction : exploration de modèles numériques coûteux 2 Exemple : planification séquentielle pour l’optimisation globale 3 Quantification et réduction séquentielle de l’incertitude 4 Bayesian Subset Simulation : un autre exemple de planification séquentielle 5 Conclusion Julien Bect (SUPELEC) Computer experiments 3/3/2014 31 / 38
  • 83. Bayesian Subset Simulation Voir présentation PSAM11-ESREL 2012 http://fr.slideshare.net/JulienBect/bect-bsspsamesrel2012 Julien Bect (SUPELEC) Computer experiments 3/3/2014 32 / 38
  • 84. 1 Introduction : exploration de modèles numériques coûteux 2 Exemple : planification séquentielle pour l’optimisation globale 3 Quantification et réduction séquentielle de l’incertitude 4 Bayesian Subset Simulation : un autre exemple de planification séquentielle 5 Conclusion Julien Bect (SUPELEC) Computer experiments 3/3/2014 33 / 38
  • 85. Ce n’est que le début. . . Abondante littérature sur la planification séquentielle bayésienne ! En particulier : travaux sur les critères d’échantillonnage critères adaptés à chaque objectif particulier approximation globale, optimisation, intégration, . . . en cours : étude de la monotonie d’un code (collab. EDF R&D, MRI) critères & modèles adaptés à différents contextes calcul parallèle (évaluation par batchs) simulateurs stochastiques, multi-fidélité, . . . Julien Bect (SUPELEC) Computer experiments 3/3/2014 34 / 38
  • 86. Ce n’est que le début. . . Abondante littérature sur la planification séquentielle bayésienne ! En particulier : travaux sur les critères d’échantillonnage critères adaptés à chaque objectif particulier approximation globale, optimisation, intégration, . . . en cours : étude de la monotonie d’un code (collab. EDF R&D, MRI) critères & modèles adaptés à différents contextes calcul parallèle (évaluation par batchs) simulateurs stochastiques, multi-fidélité, . . . Une communauté de recherche active en France : le GdR MASCOT-NUM Méthodes d’Analyse Stochastique pour les COdes et Traitements Numériques http://www.gdr-mascotnum.fr conférence annuelle : à Zurich en 2014 international : MUCM Managing Uncertainty in Computer Models http://www.mucm.ac.uk travaux connexes dans la communauté machine learning bandits, active learning, etc. Julien Bect (SUPELEC) Computer experiments 3/3/2014 34 / 38
  • 87. Références : optimisation bayésienne H. J. Kushner (1964). A new method of locating the maximum point of an arbitrary multipeak curve in the presence of noise, J. Basic Engineering, 86(1). J. Mockus, V. Tiesis et Antanas Žilinskas (1978), The application of Bayesian methods for seeking the extremum, in : Towards Global Optimization, volume 2. D. R. Jones, M. Schonlau et W. J. Welch (1998). Efficient Global Optimization of Expensive Black-Box Functions, J. Global Optimization, 13(4). J. Villemonteix (2008). Optimisation de fonctions coûteuses. Thèse de l’Université Paris-Sud XI, Faculté des Sciences d’Orsay. J. Villemonteix, E. Vazquez et Éric Walter (2009). An informational approach to the global optimization of expensive-to-evaluate functions, J. Global Optimization, 44(4). D. Ginsbourger (2009). Métamodèles multiples pour l’approximation et l’optimisation de fonctions numériques multivariables. Thèse de l’École des Mines de Saint-Etienne. E. Vazquez et J. Bect (2010). Convergence properties of the expected improvement algorithm with fixed mean and covariance functions, J. Statistical Planning and Inference, 140(11). A. D. Bull, (2011). Convergence rates of efficient global optimization algorithms, J. Machine Learning Research, 12. R. Benassi (2013). Nouvel algorithme d’optimisation bayésien utilisant une approche Monte-Carlo séquentielle. Thèse de l’École Supérieure d’Électricité (Supélec). Julien Bect (SUPELEC) Computer experiments 3/3/2014 35 / 38
  • 88. Références : ensembles d’excursion & proba. (1/2) E. Vazquez et M. Piera-Martinez (2007), Estimation du volume des ensembles d’excursion d’un processus Gaussien par krigeage intrinsèque. 39ème Journées de Statistiques (JdS 2007). V. Picheny, D. Ginsbourger, O. Roustant, R. Haftka et N. H. Kim (2010), Adaptive Designs of Experiments for Accurate Approximation of Target Regions, J. Mechanical Design, 132(7). V. Dubourg (2011), Méta-modèles adaptatifs pour l’analyse de fiabilité et l’optimisation sous contrainte fiabiliste. Thèse de l’Université Blaise Pascal – Clermont II. J. Bect, D. Ginsbourger, L. Li, V. Picheny, E. Vazquez (2012). Sequential design of computer experiments for the estimation of a probability of failure, Statistics and Computing, 22(3). L. Li (2012), Sequential Design of Experiments to Estimate a Probability of Failure. Thèse de l’École Supérieure d’Électricité (Supélec). Julien Bect (SUPELEC) Computer experiments 3/3/2014 36 / 38
  • 89. Références : ensembles d’excursion & proba. (2/2) L. Li, J. Bect et E. Vazquez (2012). Bayesian Subset Simulation : a kriging-based subset simulation algorithm for the estimation of small probabilities of failure. Proc. conf. PSAM 11 & ESREL 2012, 25-29 juin, Helsinki. C. Chevalier (2013). Fast uncertainty reduction strategies relying on Gaussian process models. PhD thesis. University of Bern. C. Chevalier, D. Ginsbourger, J. Bect et I. Molchanov (2013). Estimating and Quantifying Uncertainties on Level Sets Using the Vorob’ev Expectation and Deviation with Gaussian Process Models, 10th International Workshop in Model-Oriented Design and Analysis (mODa 10). C. Chevalier, J. Bect, D. Ginsbourger, Y. Richet, V. Picheny et E. Vazquez (in press). Fast parallel kriging-based stepwise uncertainty reduction with application to the identification of an excursion set, Technometrics. Julien Bect (SUPELEC) Computer experiments 3/3/2014 37 / 38
  • 90. Références pour les exemples de l’introduction Exemple 1 : optimisation de la forme d’un conduit d’admission J. Villemonteix (2008). Optimisation de fonctions coûteuses. Thèse de l’Université Paris-Sud XI, Faculté des Sciences d’Orsay. M. Xiao, R. Filomeno Coelho, P. Breitkopf, C. Knopf-Lenoir, P. Villon, M. Sidorkiewicz (2009). Réduction de modèles par CPOD et krigeage. 9ème Colloque National en Calcul des Structures, 25-29 mai, Giens, France. Exemple 2 : projet BEMUSE A. de Crécy et al (2008). Uncertainty and sensitivity analysis of the LOFT L2-5 test : Results of the BEMUSE programme, Nuclear Engineering and Design, 238(12). B. Iooss (2010). Exploration de modèles numériques à l’aide du krigeage. Journée Nationales de Fiabilité, 24–26 mars, Toulouse. Exemple 3 : étude d’un risque de crue M. Couplet, L. Lebrusquet, A. Pasanisi (2010). Caractérisation des coefficients de Strickler d’un fleuve par inversion probabiliste. 42èmes journées de Statistique (JdS 2010), 24–28 mai, Marseille. A. Arnaud, J. Bect, M. Couplet, A. Pasanisi et E. Vazquez (2010). Evaluation d’un risque d’inondation fluviale par planification séquentielle d’expériences. 42èmes journées de Statistique (JdS 2010), 24–28 mai, Marseille. Julien Bect (SUPELEC) Computer experiments 3/3/2014 38 / 38