SlideShare una empresa de Scribd logo
1 de 25
Descargar para leer sin conexión
Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V
Statistique de l’assurance, STT 6705
Statistique de l’assurance II
Arthur Charpentier
Universit´e Rennes 1 & Universit´e de Montr´eal
arthur.charpentier@univ-rennes1.fr ou ou charpentier@DMS.UMontreal.ca
http ://freakonometrics.blog.free.fr/
10 novembre 2010
1
Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V
Notations dans les triangles de paiements
0 1 2 3 4 5
0 3209 4372 4411 4428 4435 4456
1 3367 4659 4696 4720 4730
2 3871 5345 5398 5420
3 4239 5917 6020
4 4929 6794
5 5217
Nous avions vu trois prsentations des processus de dveloppement,
λj =
E(Ci,j+1)
E(Ci,j)
et γj =
E(Ci,j+1)
E(Ci,n)
pour
j=0,· · · , n − 1.
2
Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V
Notations dans les triangles de paiements
Rappelons que l’on peut relier ces coefficients via
λj =
γj+1
γj
et γj =
n−1
k=j
1
λk
.
Comme auparavant, on peut introduire les facteurs de dveloppements empiriques
λ,j =
Ci,j+1
Ci,j
et γi,j =
Ci,j+1
Ci,n
La mthdode Chain Ladder repose sur
λCL
j =
n−j−1
i=0 Ci,j+1
n−j−1
i=0 Ci,j
=
n−j−1
i=0
Ci,j+1
n−j−1
i=0 Ci,j
· λi,j.
3
Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V
On en dduit alors les taux de dveloppement suivants,
CL
j =
n−1
k=j
1
λCL
k
.
0 1 2 3 4 5
λCL
j 1,38093 1,01143 1,00434 1,00186 1,00474 1,0000
CL
j 70,819% 97,796% 98,914% 99,344% 99,529% 100,000%
Table 1 – Facteurs de dveloppement, λ = (λi), exprims en cadence de paiements
par rapport la charge utlime, en cumul (i.e. γ).
4
Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V
La mthode de Bornhutter-Ferguson
La mthode de Bornhutter-Ferguson vise prdire directement les rserves
Ri = Ci,n − Ci, n − i
de telle sorte que si l’on dipose de dveloppement γ) = (γ0, · · · , γn−1),
E(Ri) = [1 − γn−i]E(Ci,n).
Dans l’approche originale, l’estimateur de Ri tait alors
Ri = [1 − γCL
n−i]πiLRi
o γCL
n−i est l’estimateur propos auparavant, πi correspond un effet ligne, que l’on
pourra assimiler la prime acquise, et LRi une prdiction du loss ratio, o
LRi = E(Ci,n)/πi.
La charge ultime prdite est alors
Ci,n = Ci,n−i + [1 − γCL
n−i]πiLRi.
5
Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V
Cette ide peut se gnraliser, en notant que
Ci,n = Ci,n−i + [1 − γn−i]Ci,n,
o l’on peut remplacer l’estimateur Chain Ladder du taux de cadence par un autre,
γn−i et remplacer la charge ultime cible πiLRi par un autre estimateur Ci,n.
6
Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V
La mthode de Bornhutter-Ferguson gnralise
Supposons que l’on dispose
• d’estimations a priori des cadences de paiements γ) = (γ0, · · · , γn−1),
• d’estimations a priori des charges ultimes α) = (α0, · · · , αn),
(provenant d’autres modles, d’informations exognes, etc), alors
E(Ci,n) = Ci,n−i + [1 − γn−i]αi.
Remarque si on travaillait sur les incrments φj on aurait ϕj =
E(Yi,j+1)
E(Ci,n) . Cette
mthode revient alors considrer un modle intgrant des facteurs ligne αi et des
facteurs colonnes ϕj pour modliser les incrments de paiements Yi,j+1.
7
Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V
La mthode dite Loss Development
On n’utilise ici que des a priori sur les cadences, et on rcrit
E(Ci,k) = γk
Ci,n−i
γn−i
aussi
CLD
i,n = γkCi,n−iγn−i
i.e. on considre ici αLD
i = Ci,n−i/γn−i.
Remarque rappelons que CCL
i,k = Ci,n−i
k−1
j=n−i
λCL
j , c’est dire
CCL
i,k = γCL
k
Ci,n−i
γCL
n−i
donc si γLD
k = γCL
k , on retombe sur l’estimateur propos par la mthode Chain
Ladder.
8
Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V
La mthode dite Cape Code
On dispose ici d’estimations a priori des cadences de paiements
γ) = (γ0, · · · , γn−1), et on suppose que pour toutes les annes de survenance, il
existe un loss ratio cible,
LR =
E(Ci,n)
πi
pour tout i
Soit LR
CC
un estimateur de cette quantit, alors
CCC
i,k =
Ci,n−i
+
[γk − γn−i]πiLR
CC
.
Dans la mthode originale, LR
CC
=
n
i=0 Ci,n−i
n
i=0 πiγn−i
.
9
Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V
Comment estimer a priori les γj ?
Nous avons vu que la mthode Chain Ladder pouvait permettre de rcuprer des
prdictions γCL
j .
Parmi les autres mthodes on peut utiliser le Panning ratio. Pour cela, on cherche
modliser les facteurs incrmentaux βj = E(Yi,j)/E(Yi,0). On peut repasser aux γj
en notant que
γk =
k
j=0 βj
n
j=0 βj
Posons βi,j =
Yi,j
Yi,0
et considrons une moyenne pondre
βj =
n−j
i=1
ωi,jβi,j.
10
Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V
Le Panning ratio est obtenu en considrant les poids suivants
βPR
j =
n−j
i=1
Y 2
i,0
n−i
h=0 Y 2
h,0
βi,j.
Et on pose alors
γPR
j =
j
k=0 βPR
j
n
k=0 βPR
j
.
Il est aussi possible d’utiliser les incrments de loss ratios,
Li,j =
Yi,j
πi
et l aussi, on pose
Lj =
n−j
i=1
ωi,jLi,j.
11
Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V
Un estimateur usuel est donn par
LAD
j =
n−j
i=1
πi
n−j
k=0 πk
Li,j.
correspondant un modle additif. Et on pose alors
γAD
j =
j
k=0 LPR
j
n
k=0 LPR
j
.
Mod`eles bay´esiens et Chain Ladder
De mani`ere g´en´erale, un m´ethode bay´esienne repose sur deux hypoth`eses
• une loi a priori pour les param`etres du mod`ele (Xi,j, Ci,j, λi,j,
LRi,j = Ci,j/Pj, etc)
• une technique pour calculer les lois a posteriori, qui sont en g´en´eral assez
complexes.
12
Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V
Mod`eles bay´esiens pour les nombres de sinistres
Soit Ni,j l’incr´ement du nombre de sinistres, i.e. le nombre de sinistres survenus
l’ann´ee i, d´eclar´es l’ann´ee i + j.
On note Mi le nombre total de sinistres par ann´ee de survenance, i.e.
Mi = Ni,0 + Ni,1 + · · · . Supposons que Mi ∼ P(λi), et que p = (p0, p1, · · · , pn)
d´esigne les proprotions des paiments par ann´ee de d´eroul´e.
Conditionnellement `a Mi = mi, les ann´ees de survenance sont ind´epenantes, et le
vecteur du nombre de sinistres survenus ann´ee l’ann´ee i suit une loi multinomiale
M(mi, p).
La vraisemblance est alors
L(M0, M1, · · · , Mn, p|Ni,j) =
n
i=0
Mi!
(Mi − Nn−i)!Ni,0!Ni,1! · · · Ni,n−i!
[1−pn−i]Mi−Nn−i p
Ni,
0
o`u Nn−i = N0 + N1 + · · · + Nn−i et pn−i = p0 + p1 + · · · + pn−i.
Il faut ensuite de donner une loi a priori pour les param`etres. La loi a posteriori
sera alors proportionnelle produit entre la vraisemblance et cette loi a priori.
13
Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V
Mod`eles bay´esiens pour les montants agr´eg´es
On pose Yi,j = log(Ci,j), et on suppose que Yi,j = µ + αi + βj + εi,j, o`u
εi,j ∼ N(0, σ2
). Aussi, Yi,j suit une loi normale,
f(yi,j|µ, α, β, σ2
) ∝
1
σ
exp −
1
2σ2
[yi,j − µ − αi − βj]
2
,
et la vraisemblance est alors
L(θ, σ|Y ) ∝ σ−m
exp


i,j
[yi,j − µ − αi − βj]
2


o`u m = (n(n + 1)/2 d´esigne le nombre d’observations pass´ees. La difficult´e est
alors de sp´ecifier une loi a priori pour (θ, σ2
), i.e. (µ, α, β, σ2
).
14
Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V
Mod`eles bay´esiens et Chain Ladder
Dans le cadre des mod`eles de provisionnement, on suppose
λi,j|λj, σ2
j , Ci,j ∼ N λj,
σ2
j
Ci,j
Notons γj = log(λj). λ d´esigne l’ensemble des observations, i.e. λi,j, et le
param`etre que l’on cherche `a estimer est γ. La log-vraisemblance est alors
log L(λ|γ, C, σ2
) =
i,j
log
Ci,j
σ2
j
−
Ci,j
σ2
j
[λi,j − exp(γj)]
2
En utilisant le th´eor`eme de Bayes
log L(λ|γ, C, σ2
)
a posteriori
= log π(γ)
a priori
+ log L(γ|λ, C, σ2
)
log vraisemblance
+constante
Si on utilise une loi uniforme comme loi a priori, on obtient
log L(λ|γ, C, σ2
) = log L(γ|λ, C, σ2
) + constante
15
Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V
Les calculs de lois conditionnelles peuvent ˆetre simples dans certains cas (tr`es
limit´es). De mani`ere g´er´erale, on utilise des m´ethodes de simulation pour
approcher les lois. En particulier, on peut utiliser les algorithmes de Gibbs ou
d’Hastings-Metropolis.
On part d’un vecteur initial γ(0)
= (γ
(0)
1 , · · · , γ
(0)
m ), puis



γ
(k+1)
1 ∼ f(·|γ
(k)
2 , · · · , γ
(k)
m , λ, C, σ)
γ
(k+1)
2 ∼ f(·|γ
(k+1)
1 , γ
(k)
3 , · · · , γ
(k)
m , λ, C, σ)
γ
(k+1)
3 ∼ f(·|γ
(k+1)
1 , γ
(k+1)
2 , γ
(k)
4 , · · · , γ
(k)
m , λ, C, σ)
...
γ
(k+1)
m−1 ∼ f(·|γ
(k+1)
1 , γ
(k+1)
2 , · · · , γ
(k+1)
m−2 , γ
(k)
m , λ, C, σ)
γ
(k+1)
m ∼ f(·|γ
(k+1)
1 , γ
(k+1)
2 , · · · , γ
(k+1)
m−1 , λ, C, σ)
A l’aide de cet algorithme, on simule alors de triangles C, puis on estime la
process error.
L’algorithme d’adaptative rejection metropolis sampling peut alors ˆetre utiliser
16
Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V
pour simuler ces diff´erentes lois conditionnelle (cf Balson (2008)).
La m´ethode de rejet est bas´e sur l’id´ee suivante
• on souhaite tirer (ind´ependemment) suivant une loi f, qu’on ne sait pas simuler
• on sait simuler suivant une loi g qui v´erifie f(x) ≤ Mg(x), pour tout x, o`u M
peut ˆetre calcul´ee.
L’agorithme pour tirer suivant f est alors le suivant
• faire une boucle
◦ tirer Y selon la loi g
◦ tirer U selon la loi uniforme sur [0, 1], ind´ependamment de Y ,
• tant que U >
f(Y )
Mg(Y )
.
• poser X = Y .
On peut utiliser cette technique pour simuler une loi normale `a partir d’une loi
de Laplace, de densit´e g(x) = 0.5 · exp(−|x|), avec M =
√
2eπ−1. Mais cet
algorithme est tr`es couteux en temps s’il y a beaucoup de rejets,
17
Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V
−4 −2 0 2 4
0.00.10.20.30.40.50.6
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q q
q
qqq
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
qq
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
qq
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q qq
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
qq
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q qq
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
qq
q
q
q
q
q
q q
q
q
q
q
q qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
L’adaptative rejection sampling est une extension de cet algorithme, `a condition
d’avoir une densit´e log-concave. On parle aussi de m´ethode des cordes.
On majore localement la fonction log f par des fonctions lin´eaires. On construit
alors une enveloppe `a log f.
On majore alors f par une fonction gn qui va d´ependre du pas.
18
Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V
−6 −4 −2 0 2 4 6 8
−20−15−10−505
q
q
q
q q
q
q
q
Formellement, on construit Li,j(x) la droite reliant les points (xi, log(f(xi))) et
(xj, log(f(xj))). On pose alors
hn(x) = min {Li−1,i(x), Li+1,i+2(x)} ,
19
Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V
qui d´efinie alors une enveloppe de log(f) (par concavit´e de log(f). On utilise
alors un algorithme de rejet avec comme fonction de r´ef´erence
gn(x) =
exp(hn(x))
exp(hn(t))dt
normalis´ee pour d´efinir une densit´e.
• faire une boucle
◦ tirer Y selon la loi gn
◦ tirer U selon la loi uniforme sur [0, 1], ind´ependamment de Y ,
• tant que U >
f(Y )
exp(hn(Y ))
.
• poser X = Y .
Enfin, l’adaptative rejection metropolis sampling rajoute une ´etape
suppl ´mentaire, dans le cas des densit´e non log-concave. L’id´ee est d’utiliser la
technique pr´ec´dante, mˆeme si hn n’est plus forc´ement une enveloppe de log(f),
puis de rajouter une ´etape de rejet suppl´emenataire. Rappelons que l’on cherche
`a impl´enter un algorithme de Gibbs, c’est `a dire cr´e´er une suite de variables
X1, X2, · · · .
20
Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V
Supposons que l’on dispose de Xk−1. Pour tirer Xk, on utilise l’algorithme
pr´ec´edant, et la nouvelle ´etape de rejet est la suivante
• tirer U selon la loi uniforme sur [0, 1], ind´ependamment de X et de Xk−1,
◦ si U > min 1,
f(X) min{f(Xk−1), exp(hn(Xk−1))}
f(Xk−1) min{f(X), exp(hn(X))}
alors garder
Xk = Xk−1
◦ sinon poser Xk = X
21
Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V
Code pour l’algorihtme ARMS
Ces fonctions exponentielles par morceaux sont in´eressantes car elles sont faciles
`a simuler. La fonction hn est lin´eaires par morceaux, avec comme noeuds Nk, de
telle sorte que
hn(x) = akx + bk pour tout x ∈ [Nk, Nk+1].
Alors gn(x) =
exp(hn(x))
In
o`u
In = exp(hn(t))dt =
exp[hn(Nk+1)] − exp[hn(Nk)]
ak
. On calcule alors Gn, la
fonction de r´epartition associ´ee `a gn, et on fait utilise une m´ethode d’inversion
pour tirer suivant Gn.
22
Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V
Bayesian estimation for reserves
0 200 400 600 800 1000
220023002400250026002700
iteration
reserves(total)
23
Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V
Bayesian estimation for reserves
2100 2200 2300 2400 2500 2600 2700
0.0000.0010.0020.0030.0040.005
reserves (total)
2500 2550 2600 2650 2700 2750
0.900.920.940.960.981.00
reserves (total)
q
q
q
24
Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V
Bayesian estimation for reserves
0 2000 4000 6000 8000 10000
250025202540256025802600
95%Value−at−Risk
25

Más contenido relacionado

Más de Arthur Charpentier (20)

Family History and Life Insurance
Family History and Life InsuranceFamily History and Life Insurance
Family History and Life Insurance
 
ACT6100 introduction
ACT6100 introductionACT6100 introduction
ACT6100 introduction
 
Family History and Life Insurance (UConn actuarial seminar)
Family History and Life Insurance (UConn actuarial seminar)Family History and Life Insurance (UConn actuarial seminar)
Family History and Life Insurance (UConn actuarial seminar)
 
Control epidemics
Control epidemics Control epidemics
Control epidemics
 
STT5100 Automne 2020, introduction
STT5100 Automne 2020, introductionSTT5100 Automne 2020, introduction
STT5100 Automne 2020, introduction
 
Family History and Life Insurance
Family History and Life InsuranceFamily History and Life Insurance
Family History and Life Insurance
 
Machine Learning in Actuarial Science & Insurance
Machine Learning in Actuarial Science & InsuranceMachine Learning in Actuarial Science & Insurance
Machine Learning in Actuarial Science & Insurance
 
Reinforcement Learning in Economics and Finance
Reinforcement Learning in Economics and FinanceReinforcement Learning in Economics and Finance
Reinforcement Learning in Economics and Finance
 
Optimal Control and COVID-19
Optimal Control and COVID-19Optimal Control and COVID-19
Optimal Control and COVID-19
 
Slides OICA 2020
Slides OICA 2020Slides OICA 2020
Slides OICA 2020
 
Lausanne 2019 #3
Lausanne 2019 #3Lausanne 2019 #3
Lausanne 2019 #3
 
Lausanne 2019 #4
Lausanne 2019 #4Lausanne 2019 #4
Lausanne 2019 #4
 
Lausanne 2019 #2
Lausanne 2019 #2Lausanne 2019 #2
Lausanne 2019 #2
 
Lausanne 2019 #1
Lausanne 2019 #1Lausanne 2019 #1
Lausanne 2019 #1
 
Side 2019 #10
Side 2019 #10Side 2019 #10
Side 2019 #10
 
Side 2019 #11
Side 2019 #11Side 2019 #11
Side 2019 #11
 
Side 2019 #12
Side 2019 #12Side 2019 #12
Side 2019 #12
 
Side 2019 #9
Side 2019 #9Side 2019 #9
Side 2019 #9
 
Side 2019 #8
Side 2019 #8Side 2019 #8
Side 2019 #8
 
Side 2019 #7
Side 2019 #7Side 2019 #7
Side 2019 #7
 

Slides udm-101110

  • 1. Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V Statistique de l’assurance, STT 6705 Statistique de l’assurance II Arthur Charpentier Universit´e Rennes 1 & Universit´e de Montr´eal arthur.charpentier@univ-rennes1.fr ou ou charpentier@DMS.UMontreal.ca http ://freakonometrics.blog.free.fr/ 10 novembre 2010 1
  • 2. Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V Notations dans les triangles de paiements 0 1 2 3 4 5 0 3209 4372 4411 4428 4435 4456 1 3367 4659 4696 4720 4730 2 3871 5345 5398 5420 3 4239 5917 6020 4 4929 6794 5 5217 Nous avions vu trois prsentations des processus de dveloppement, λj = E(Ci,j+1) E(Ci,j) et γj = E(Ci,j+1) E(Ci,n) pour j=0,· · · , n − 1. 2
  • 3. Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V Notations dans les triangles de paiements Rappelons que l’on peut relier ces coefficients via λj = γj+1 γj et γj = n−1 k=j 1 λk . Comme auparavant, on peut introduire les facteurs de dveloppements empiriques λ,j = Ci,j+1 Ci,j et γi,j = Ci,j+1 Ci,n La mthdode Chain Ladder repose sur λCL j = n−j−1 i=0 Ci,j+1 n−j−1 i=0 Ci,j = n−j−1 i=0 Ci,j+1 n−j−1 i=0 Ci,j · λi,j. 3
  • 4. Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V On en dduit alors les taux de dveloppement suivants, CL j = n−1 k=j 1 λCL k . 0 1 2 3 4 5 λCL j 1,38093 1,01143 1,00434 1,00186 1,00474 1,0000 CL j 70,819% 97,796% 98,914% 99,344% 99,529% 100,000% Table 1 – Facteurs de dveloppement, λ = (λi), exprims en cadence de paiements par rapport la charge utlime, en cumul (i.e. γ). 4
  • 5. Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V La mthode de Bornhutter-Ferguson La mthode de Bornhutter-Ferguson vise prdire directement les rserves Ri = Ci,n − Ci, n − i de telle sorte que si l’on dipose de dveloppement γ) = (γ0, · · · , γn−1), E(Ri) = [1 − γn−i]E(Ci,n). Dans l’approche originale, l’estimateur de Ri tait alors Ri = [1 − γCL n−i]πiLRi o γCL n−i est l’estimateur propos auparavant, πi correspond un effet ligne, que l’on pourra assimiler la prime acquise, et LRi une prdiction du loss ratio, o LRi = E(Ci,n)/πi. La charge ultime prdite est alors Ci,n = Ci,n−i + [1 − γCL n−i]πiLRi. 5
  • 6. Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V Cette ide peut se gnraliser, en notant que Ci,n = Ci,n−i + [1 − γn−i]Ci,n, o l’on peut remplacer l’estimateur Chain Ladder du taux de cadence par un autre, γn−i et remplacer la charge ultime cible πiLRi par un autre estimateur Ci,n. 6
  • 7. Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V La mthode de Bornhutter-Ferguson gnralise Supposons que l’on dispose • d’estimations a priori des cadences de paiements γ) = (γ0, · · · , γn−1), • d’estimations a priori des charges ultimes α) = (α0, · · · , αn), (provenant d’autres modles, d’informations exognes, etc), alors E(Ci,n) = Ci,n−i + [1 − γn−i]αi. Remarque si on travaillait sur les incrments φj on aurait ϕj = E(Yi,j+1) E(Ci,n) . Cette mthode revient alors considrer un modle intgrant des facteurs ligne αi et des facteurs colonnes ϕj pour modliser les incrments de paiements Yi,j+1. 7
  • 8. Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V La mthode dite Loss Development On n’utilise ici que des a priori sur les cadences, et on rcrit E(Ci,k) = γk Ci,n−i γn−i aussi CLD i,n = γkCi,n−iγn−i i.e. on considre ici αLD i = Ci,n−i/γn−i. Remarque rappelons que CCL i,k = Ci,n−i k−1 j=n−i λCL j , c’est dire CCL i,k = γCL k Ci,n−i γCL n−i donc si γLD k = γCL k , on retombe sur l’estimateur propos par la mthode Chain Ladder. 8
  • 9. Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V La mthode dite Cape Code On dispose ici d’estimations a priori des cadences de paiements γ) = (γ0, · · · , γn−1), et on suppose que pour toutes les annes de survenance, il existe un loss ratio cible, LR = E(Ci,n) πi pour tout i Soit LR CC un estimateur de cette quantit, alors CCC i,k = Ci,n−i + [γk − γn−i]πiLR CC . Dans la mthode originale, LR CC = n i=0 Ci,n−i n i=0 πiγn−i . 9
  • 10. Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V Comment estimer a priori les γj ? Nous avons vu que la mthode Chain Ladder pouvait permettre de rcuprer des prdictions γCL j . Parmi les autres mthodes on peut utiliser le Panning ratio. Pour cela, on cherche modliser les facteurs incrmentaux βj = E(Yi,j)/E(Yi,0). On peut repasser aux γj en notant que γk = k j=0 βj n j=0 βj Posons βi,j = Yi,j Yi,0 et considrons une moyenne pondre βj = n−j i=1 ωi,jβi,j. 10
  • 11. Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V Le Panning ratio est obtenu en considrant les poids suivants βPR j = n−j i=1 Y 2 i,0 n−i h=0 Y 2 h,0 βi,j. Et on pose alors γPR j = j k=0 βPR j n k=0 βPR j . Il est aussi possible d’utiliser les incrments de loss ratios, Li,j = Yi,j πi et l aussi, on pose Lj = n−j i=1 ωi,jLi,j. 11
  • 12. Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V Un estimateur usuel est donn par LAD j = n−j i=1 πi n−j k=0 πk Li,j. correspondant un modle additif. Et on pose alors γAD j = j k=0 LPR j n k=0 LPR j . Mod`eles bay´esiens et Chain Ladder De mani`ere g´en´erale, un m´ethode bay´esienne repose sur deux hypoth`eses • une loi a priori pour les param`etres du mod`ele (Xi,j, Ci,j, λi,j, LRi,j = Ci,j/Pj, etc) • une technique pour calculer les lois a posteriori, qui sont en g´en´eral assez complexes. 12
  • 13. Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V Mod`eles bay´esiens pour les nombres de sinistres Soit Ni,j l’incr´ement du nombre de sinistres, i.e. le nombre de sinistres survenus l’ann´ee i, d´eclar´es l’ann´ee i + j. On note Mi le nombre total de sinistres par ann´ee de survenance, i.e. Mi = Ni,0 + Ni,1 + · · · . Supposons que Mi ∼ P(λi), et que p = (p0, p1, · · · , pn) d´esigne les proprotions des paiments par ann´ee de d´eroul´e. Conditionnellement `a Mi = mi, les ann´ees de survenance sont ind´epenantes, et le vecteur du nombre de sinistres survenus ann´ee l’ann´ee i suit une loi multinomiale M(mi, p). La vraisemblance est alors L(M0, M1, · · · , Mn, p|Ni,j) = n i=0 Mi! (Mi − Nn−i)!Ni,0!Ni,1! · · · Ni,n−i! [1−pn−i]Mi−Nn−i p Ni, 0 o`u Nn−i = N0 + N1 + · · · + Nn−i et pn−i = p0 + p1 + · · · + pn−i. Il faut ensuite de donner une loi a priori pour les param`etres. La loi a posteriori sera alors proportionnelle produit entre la vraisemblance et cette loi a priori. 13
  • 14. Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V Mod`eles bay´esiens pour les montants agr´eg´es On pose Yi,j = log(Ci,j), et on suppose que Yi,j = µ + αi + βj + εi,j, o`u εi,j ∼ N(0, σ2 ). Aussi, Yi,j suit une loi normale, f(yi,j|µ, α, β, σ2 ) ∝ 1 σ exp − 1 2σ2 [yi,j − µ − αi − βj] 2 , et la vraisemblance est alors L(θ, σ|Y ) ∝ σ−m exp   i,j [yi,j − µ − αi − βj] 2   o`u m = (n(n + 1)/2 d´esigne le nombre d’observations pass´ees. La difficult´e est alors de sp´ecifier une loi a priori pour (θ, σ2 ), i.e. (µ, α, β, σ2 ). 14
  • 15. Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V Mod`eles bay´esiens et Chain Ladder Dans le cadre des mod`eles de provisionnement, on suppose λi,j|λj, σ2 j , Ci,j ∼ N λj, σ2 j Ci,j Notons γj = log(λj). λ d´esigne l’ensemble des observations, i.e. λi,j, et le param`etre que l’on cherche `a estimer est γ. La log-vraisemblance est alors log L(λ|γ, C, σ2 ) = i,j log Ci,j σ2 j − Ci,j σ2 j [λi,j − exp(γj)] 2 En utilisant le th´eor`eme de Bayes log L(λ|γ, C, σ2 ) a posteriori = log π(γ) a priori + log L(γ|λ, C, σ2 ) log vraisemblance +constante Si on utilise une loi uniforme comme loi a priori, on obtient log L(λ|γ, C, σ2 ) = log L(γ|λ, C, σ2 ) + constante 15
  • 16. Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V Les calculs de lois conditionnelles peuvent ˆetre simples dans certains cas (tr`es limit´es). De mani`ere g´er´erale, on utilise des m´ethodes de simulation pour approcher les lois. En particulier, on peut utiliser les algorithmes de Gibbs ou d’Hastings-Metropolis. On part d’un vecteur initial γ(0) = (γ (0) 1 , · · · , γ (0) m ), puis    γ (k+1) 1 ∼ f(·|γ (k) 2 , · · · , γ (k) m , λ, C, σ) γ (k+1) 2 ∼ f(·|γ (k+1) 1 , γ (k) 3 , · · · , γ (k) m , λ, C, σ) γ (k+1) 3 ∼ f(·|γ (k+1) 1 , γ (k+1) 2 , γ (k) 4 , · · · , γ (k) m , λ, C, σ) ... γ (k+1) m−1 ∼ f(·|γ (k+1) 1 , γ (k+1) 2 , · · · , γ (k+1) m−2 , γ (k) m , λ, C, σ) γ (k+1) m ∼ f(·|γ (k+1) 1 , γ (k+1) 2 , · · · , γ (k+1) m−1 , λ, C, σ) A l’aide de cet algorithme, on simule alors de triangles C, puis on estime la process error. L’algorithme d’adaptative rejection metropolis sampling peut alors ˆetre utiliser 16
  • 17. Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V pour simuler ces diff´erentes lois conditionnelle (cf Balson (2008)). La m´ethode de rejet est bas´e sur l’id´ee suivante • on souhaite tirer (ind´ependemment) suivant une loi f, qu’on ne sait pas simuler • on sait simuler suivant une loi g qui v´erifie f(x) ≤ Mg(x), pour tout x, o`u M peut ˆetre calcul´ee. L’agorithme pour tirer suivant f est alors le suivant • faire une boucle ◦ tirer Y selon la loi g ◦ tirer U selon la loi uniforme sur [0, 1], ind´ependamment de Y , • tant que U > f(Y ) Mg(Y ) . • poser X = Y . On peut utiliser cette technique pour simuler une loi normale `a partir d’une loi de Laplace, de densit´e g(x) = 0.5 · exp(−|x|), avec M = √ 2eπ−1. Mais cet algorithme est tr`es couteux en temps s’il y a beaucoup de rejets, 17
  • 18. Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V −4 −2 0 2 4 0.00.10.20.30.40.50.6 q q q q qq q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q qqq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq qq q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q qq q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q qq q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q qq q q q q q q q q q qq q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q qq q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q qq q q q q qq q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q qq q q q q qq q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q L’adaptative rejection sampling est une extension de cet algorithme, `a condition d’avoir une densit´e log-concave. On parle aussi de m´ethode des cordes. On majore localement la fonction log f par des fonctions lin´eaires. On construit alors une enveloppe `a log f. On majore alors f par une fonction gn qui va d´ependre du pas. 18
  • 19. Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V −6 −4 −2 0 2 4 6 8 −20−15−10−505 q q q q q q q q Formellement, on construit Li,j(x) la droite reliant les points (xi, log(f(xi))) et (xj, log(f(xj))). On pose alors hn(x) = min {Li−1,i(x), Li+1,i+2(x)} , 19
  • 20. Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V qui d´efinie alors une enveloppe de log(f) (par concavit´e de log(f). On utilise alors un algorithme de rejet avec comme fonction de r´ef´erence gn(x) = exp(hn(x)) exp(hn(t))dt normalis´ee pour d´efinir une densit´e. • faire une boucle ◦ tirer Y selon la loi gn ◦ tirer U selon la loi uniforme sur [0, 1], ind´ependamment de Y , • tant que U > f(Y ) exp(hn(Y )) . • poser X = Y . Enfin, l’adaptative rejection metropolis sampling rajoute une ´etape suppl ´mentaire, dans le cas des densit´e non log-concave. L’id´ee est d’utiliser la technique pr´ec´dante, mˆeme si hn n’est plus forc´ement une enveloppe de log(f), puis de rajouter une ´etape de rejet suppl´emenataire. Rappelons que l’on cherche `a impl´enter un algorithme de Gibbs, c’est `a dire cr´e´er une suite de variables X1, X2, · · · . 20
  • 21. Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V Supposons que l’on dispose de Xk−1. Pour tirer Xk, on utilise l’algorithme pr´ec´edant, et la nouvelle ´etape de rejet est la suivante • tirer U selon la loi uniforme sur [0, 1], ind´ependamment de X et de Xk−1, ◦ si U > min 1, f(X) min{f(Xk−1), exp(hn(Xk−1))} f(Xk−1) min{f(X), exp(hn(X))} alors garder Xk = Xk−1 ◦ sinon poser Xk = X 21
  • 22. Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V Code pour l’algorihtme ARMS Ces fonctions exponentielles par morceaux sont in´eressantes car elles sont faciles `a simuler. La fonction hn est lin´eaires par morceaux, avec comme noeuds Nk, de telle sorte que hn(x) = akx + bk pour tout x ∈ [Nk, Nk+1]. Alors gn(x) = exp(hn(x)) In o`u In = exp(hn(t))dt = exp[hn(Nk+1)] − exp[hn(Nk)] ak . On calcule alors Gn, la fonction de r´epartition associ´ee `a gn, et on fait utilise une m´ethode d’inversion pour tirer suivant Gn. 22
  • 23. Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V Bayesian estimation for reserves 0 200 400 600 800 1000 220023002400250026002700 iteration reserves(total) 23
  • 24. Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V Bayesian estimation for reserves 2100 2200 2300 2400 2500 2600 2700 0.0000.0010.0020.0030.0040.005 reserves (total) 2500 2550 2600 2650 2700 2750 0.900.920.940.960.981.00 reserves (total) q q q 24
  • 25. Arthur CHARPENTIER, Statistique de l’assurance, sujets sp´eciaux, STT 6705V Bayesian estimation for reserves 0 2000 4000 6000 8000 10000 250025202540256025802600 95%Value−at−Risk 25